Ich habe gesehen this Blogpost, der beschreibt, wie Sie ein Objekt in einem Bild mit dem Google-Bildklassifizierungsmodell Inception V3 lokalisieren können.Lokalisieren von Objekten in Tensorflow mit der Einführung V3
„Wir können die 8x8x2048 Darstellung als Gitter von Merkmalen interpretieren, das Bild nach unten in 8 horizontalen und 8 vertikalen Gitter Quadrate zu brechen.“
Kann mir jemand erklären, wie ich auf die 8x8x2048-Schicht von Inception in Python zugreifen kann? und dann verwenden Sie eine 1x1-Faltung, um jeden dieser Vektoren einer Klassenbezeichnung zuzuordnen?
Danke!
Danke für Ihre informative Antwort. Die Links waren eine große Hilfe! Wenn ich "Print 'Here'" zu [Zeile 78 des Slim Inzeptionsmodells hinzufügen] (https://github.com/tensorflow/models/blob/master/inception/inception/slim/inception_model.py#L78) Es passiert nichts, wenn ich [diesen Code] (https://gist.githubusercontent.com/wolffg/541c97a74dfc0d77c4b8fd2a946a5b41/raw/578853dd26180dbf5bfc66eb40fdd13fb3aba4d6/TensorFlow%2520codelab), bereitgestellt von Google, ausführe. Führt es im bereitgestellten Google-Code nicht das schlanke Einstiegsmodell aus? Ist es möglich, es zu sagen, das schlanke Modell zu verwenden? Danke! –
Der Code, den Sie mir gezeigt haben, verwendet nicht die Slim-Funktion. Sie können sich ansehen, wie die Slim-Funktion verwendet wird: https://github.com/tensorflow/models/blob/master/inception/inception/inception_model.py # L81 – yuefengz
Sie haben die Grafik aus "/tf_files/retrained_graph.pb" gelesen. Ich nehme an, das ist nicht das, was Sie vorhaben. Sie müssen Ihr eigenes Diagramm erstellen. – yuefengz