Ich versuche herauszufinden, wie man ein von Spark + MLlib (in diesem Fall eine Collaborative Filtering Recommendation Engine) erzeugtes Modell verwendet, um Vorhersagen schnell zu treffen. auf Anfrage und als Server.Die beste Vorgehensweise, um das von Spark generierte mllib-Modell als Server zu verwenden
Meine aktuelle Lösung besteht darin, zu diesem Zweck kontinuierlich eine Instanz von Spark auszuführen, aber ich wollte wissen, ob es dafür bessere Lösungen gibt, vielleicht eine Lösung, die keinen laufenden Spark benötigt. Vielleicht gibt es eine Möglichkeit, ein generiertes Modell von Spark zu laden und zu verwenden, ohne Spark einzubeziehen?
Sehr coole Idee. Ich bin mir jedoch nicht sicher, ob die Collaborative Filtering-Modelle als PMML-Datei exportiert werden können. Laut http://spark.apache.org/docs/latest/mllib-pmml-model-export.html gehört Collaborative Filtering nicht zu den Optionen. – shahins