2016-12-06 2 views
0

Ich versuche an einer Herausforderung teilzunehmen, um Dashboard-Kamerabilder (für Autos) zu klassifizieren, wobei die Labels -traffic light rot/grün/nicht existent sind. Ampeln sind ein kleiner Teil des Bildes, und keine Begrenzungsbox wird mitgeliefert.Bildklassifikation nach kleinem Objekt

Ich versuche, das Bild wie vorgeschlagen here derzeit mit dem Inception-Netz, aber Genauigkeit von 0,55-0,6 Feinabstimmung. Muss 0,95+ erreichen.

Ich denke, dass das Netzwerk wegen des kleinen Teils der Ampel im Bild nicht gut funktioniert.

Wie kann ich damit besser voran kommen?

Antwort

0

Ich empfehle, anstatt das gesamte Bild auf einmal zu verwenden, Ernten des Bildes mit einem Schiebefenster mit Überlappung. Sie müssen die Ernten auch beschriften.

+0

Bedeutet das nicht, dass ich einen Dataset mit nur Ampel brauche, um zuerst zu trainieren? oder spezifischer - ein Datensatz von Rot/Grün/Straßenhintergrund (d. h. keine Ampel) –

+0

Wie werden Sie überhaupt ohne irgendwelche beschrifteten Daten trainieren? –

+0

Ich habe Daten der Dashcam-Bilder mit nur Etiketten von rot/grün/keine gekennzeichnet ... keine Bounding-Box –

Verwandte Themen