Ich versuche an einer Herausforderung teilzunehmen, um Dashboard-Kamerabilder (für Autos) zu klassifizieren, wobei die Labels -traffic light rot/grün/nicht existent sind. Ampeln sind ein kleiner Teil des Bildes, und keine Begrenzungsbox wird mitgeliefert.Bildklassifikation nach kleinem Objekt
Ich versuche, das Bild wie vorgeschlagen here derzeit mit dem Inception-Netz, aber Genauigkeit von 0,55-0,6 Feinabstimmung. Muss 0,95+ erreichen.
Ich denke, dass das Netzwerk wegen des kleinen Teils der Ampel im Bild nicht gut funktioniert.
Wie kann ich damit besser voran kommen?
Bedeutet das nicht, dass ich einen Dataset mit nur Ampel brauche, um zuerst zu trainieren? oder spezifischer - ein Datensatz von Rot/Grün/Straßenhintergrund (d. h. keine Ampel) –
Wie werden Sie überhaupt ohne irgendwelche beschrifteten Daten trainieren? –
Ich habe Daten der Dashcam-Bilder mit nur Etiketten von rot/grün/keine gekennzeichnet ... keine Bounding-Box –