Ich entwickle eine kollaborative Filterempfehlungs-Engine und versuche zu messen, wie genau mein Modell und die Qualität der Empfehlungen sind. Ich teste meinen Algorithmus mit den folgenden Schritten.Bewertungsmetriken für Empfehlungssysteme
1) Trainieren Sie das Modell mit 3 Monaten Daten (t)
2) ich Artikel für den nächsten Tag empfehlen (t1 = t + 1 Tag)
3) Berechnen Sie die Genauigkeit, Präzision und Recall von Validierungssatz
Als i-Validierung verwenden, um einen 30 Tage Zeit-Raum (t1 + 30 Tage) zu überprüfen, ob der Benutzer mit dem
Produkt interagieren ist dies der Weg, den ich jetzt mein Modell messen:
Genauigkeit: Wie oft ein Benutzer 1 Artikel von meiner Top-5-Empfehlung
für Präzision und Recall kaufen messe ich die 2-Metriken für jeden Benutzer und dann fand ich die mittlere Präzision und Recall aller meiner Benutzer:
Precision bei Top 5 Empfehlungen: Korrektes Empfehlungen/5
Recall bei Top 5 Empfehlungen: Richtige Empfehlungen/Bekannte Produkte, die der Benutzer Validierung in 30 Tagen kaufen
Ist die Art und Weise, dass ich das messen Rückruf korrekt?
Was bedeuten Recall in Empfehlungs-Engines?
Gibt es weitere Metriken, die ich verwenden kann?