2017-10-25 5 views
0

Ich benutze Apples Core ML, um Elemente in einem Bild visuell zu erkennen, aber es gibt falsche Antworten manchmal Schuhe als ein Messer etc. identifizieren. Gibt es eine Möglichkeit, Feedback zu CoreML und hoffentlich zu führen korrekte Identifizierung der Gegenstände in einem Bild?Core ML Vision produziert falsche Antworten

+0

Welches Modell verwenden Sie? Haben Sie überprüft, ob die Bilder, die Sie an das Modell übergeben, korrekt sind oder nicht? – halileohalilei

Antwort

0

Ich würde ein Feedback-Ticket bei https://developer.apple.com/bug-reporting/ öffnen Apple ist wirklich froh, Entwickler-Feedback zu bekommen. Versuchen Sie, Ihre so tief wie möglich zu beschreiben :)

EDIT: Ich würde auch vorschlagen, dass Sie ein anderes CoreML-Modell versuchen! Ich hatte ein paar Versuche mit Inception V3, die wie ein Zauber mit meinen Apps funktionierten. https://developer.apple.com/machine-learning/

+0

also ist es ein Fehler? Ich würde das brauchen, um innerhalb von 4-6 Wochen zu laufen, kann es sich nicht leisten, jahrelang auf Updates zu warten! –

+0

@ C13 Nur sie können bestätigen, ob es ein Fehler ist oder nicht. Sie antworten ziemlich schnell auf Feedbacks. Ich werde meine Antwort mit einem anderen Vorschlag auch aktualisieren –

+0

@ C13 - Dies ist kein Fehler, Core ML funktioniert höchstwahrscheinlich so, wie es sollte. Welche Ergebnisse Sie erzielen, hängt davon ab, welches Modell Sie verwenden, wozu es trainiert wurde, um es zu erkennen, wie es trainiert wurde und wie Sie Bilder oder Videos dorthin einspeisen. Wenn Sie ein vortrainiertes Modell verwenden, das gegen ImageNet trainiert wurde (der wahrscheinlichste Fall, da es nicht so scheint, als hätten Sie Ihr eigenes trainiert), müssen Sie die Kategorien untersuchen, für die es trainiert wurde. Zum Beispiel enthält das Dataset nur Laufschuhe und kann keine Slipper aufnehmen. Um optimale Ergebnisse zu erzielen, sollten Sie Ihr eigenes Netzwerk auf Ihrem eigenen Datensatz trainieren. –

Verwandte Themen