2

Ich baute eine Empfehlung Modell auf einem Benutzer-item Transaktionsdatensatzes, wobei jede Transaktion hier von 1.Interpretation ergibt sich aus lightFM

model = LightFM(learning_rate=0.05, loss='warp') 

vertreten sind die Ergebnisse

Train precision at k=3: 0.115301 
Test precision at k=3: 0.0209936 

Train auc score: 0.978294 
Test auc score : 0.810757 

Train recall at k=3: 0.238312330233 
Test recall at k=3: 0.0621618086561 

Kann mir jemand helfen zu interpretieren dieses Ergebnis? Wie kommt es, dass ich so gute Auc-Punkte und so schlechte Präzision/Erinnerung bekomme? Die Präzision/der Rückruf wird noch schlechter für 'bpr' Bayes'sches personalisiertes Ranking.

Prediction Aufgabe

users = [0] 
items = np.array([13433, 13434, 13435, 13436, 13437, 13438, 13439, 13440]) 
model.predict(users, item) 

Ergebnis

array([-1.45337546, -1.39952552, -1.44265926, -0.83335167, -0.52803332, 
    -1.06252205, -1.45194077, -0.68543684]) 

Wie interpretiere ich die Vorhersage Partituren?

Dank

Antwort

1

Wenn es zwischen Präzision @ K bei AUC der Differenz kommt, können Sie hier einen Blick auf meine Antwort haben wollen: Evaluating the LightFM Recommendation Model.

Die Noten selbst haben keinen definierten Maßstab und sind nicht interpretierbar. Sie sind nur sinnvoll im Zusammenhang mit der Festlegung einer Rangfolge für einen bestimmten Benutzer, wobei höhere Werte eine stärkere Präferenz angeben.

Verwandte Themen