2017-12-06 8 views
1

Ich habe gerade ein Modell mit befriedigenden Ergebnissen trainiert und ich habe die frozen_inference_graph.pb. Wie würde ich das auf iOS ausführen? Es wurde auf SSD Mobilenet V1 trainiert, wenn das hilft. Optimal würde ich es gerne mit der GPU laufen lassen (ich weiß, dass die Tensorflow-API das unter iOS nicht kann), aber es wäre großartig, es zuerst auf der CPU zu haben.Wie führe ich ein Tensorflow-Objekterkennungs-API-Modell in iOS aus?

Antwort

5

Unterstützung war just announced für den Import von TensorFlow-Modelle in Core ML. Dies wird unter Verwendung von the tfcoreml converter erreicht, die Ihr .pb-Diagramm aufnehmen und ein Core-ML-Modell ausgeben sollte. Von dort können Sie dieses Modell mit Core ML verwenden und entweder Standbilder oder Videobilder zur Bearbeitung aufnehmen.

An diesem Punkt liegt es an Ihnen, sicherzustellen, dass Sie den richtigen Eingabefarbraum und die richtige Größe bereitstellen und anschließend die SSD-Ergebnisse korrekt extrahieren und verarbeiten, um Objektklassen und Begrenzungsrahmen zu erhalten.

+1

Wenn Sie sich für diesen Weg entscheiden, hat CoreMLHelpers einen Hilfscode, um die nicht-maximale Unterdrückung auf den Begrenzungsboxen zu machen (die von der TF-Objekterkennungs-API portiert wurde). https://github.com/hollance/CoreMLHelpers –

Verwandte Themen