Ich baue ein RCNN-Erkennungsnetzwerk mit Tensorflow's object detection API.Sollte ich negative Beispiele für Tensorflow Object Detection API enthalten?
Mein Ziel ist es, Bounding-Boxen für Tiere in Outdoor-Videos zu erkennen. Die meisten Bilder haben keine Tiere und sind nur von dynamischen Hintergründen.
Die meisten Tutorials konzentrieren sich auf das Training von benutzerdefinierten Labels, erwähnen jedoch keine negativen Trainingsbeispiele. Wie geht diese Klasse von Detektoren mit Bildern um, die keine Objekte von Interesse enthalten? Gibt es nur eine geringe Wahrscheinlichkeit aus, oder wird es erzwungen, eine Begrenzungsbox in einem Bild zu zeichnen?
Mein aktueller Plan ist es, die traditionelle Hintergrundsubtraktion in opencv zu verwenden, um mögliche Frames zu generieren und sie an ein trainiertes Netzwerk weiterzugeben. Sollte ich auch eine Klasse von "Hintergrund" -Begrenzungsboxen als "negative Daten" einschließen?
Die letzte Option wäre, opencv für die Hintergrundsubtraktion zu verwenden, RCNN, um Begrenzungsrahmen zu erzeugen, und dann ein Klassifizierungsmodell von Pflanzen, um Tiere im Vergleich zum Hintergrund zu identifizieren.
Vielen Dank für die Gedanken (und die große Arbeit an der API), nur um klar zu sein, was ist das erwartete Verhalten für einen einzelnen Klasse Detektor, wenn mit einem Bild ohne das Zielobjekt konfrontiert? Niedrige Wahrscheinlichkeit Punktzahl? Begrenzungsbox, die den gesamten Rahmen abdeckt? – bw4sz
Die Hoffnung in diesem Fall ist, dass keine Boxen zurückgegeben werden :) –