screenshot laufen Wie gewünscht, ich werde mein Kommentar in einer Antwort konkretisieren.
Andere haben das erwähnt, aber Sie haben wahrscheinlich einen beschädigten Download oder es ist etwas mit dem Modell selbst gebrochen. Zunächst empfehle ich dringend, das VGG16-Modell oder verwandte Modelle auf einem mobilen Gerät nur aufgrund ihrer schieren Größe (500 MB für VGG16) nicht zu verwenden. Sie werden Speicher auf einem iPhone 6 auslasten, wenn Sie nur das Modell laden, Ihre Anwendungsgröße wird gigantisch sein und Sie werden eine lange Initialisierungszeit haben, wenn diese Gewichte geladen werden.
Ich empfehle etwas wie eine SqueezeNet-Variante, die klein ist (~ 5 MB), kann genauer sein, wenn auf ImageNet trainiert, und ist nicht so rechenintensiv wie die Inception-Familie. Apple verweist auf die Verwendung einer dieser Funktionen in einer der WWDC-Kern-Sitzungen.
Wenn Sie das Modell zu Ihrem Xcode-Projekt hinzufügen, vergewissern Sie sich, dass es tatsächlich bei Ihrem Ziel registriert ist. Die aktuelle Betaversion von Xcode vergisst gelegentlich, dies zu Ihrem Ziel hinzuzufügen. Markieren Sie also das Modell und checken Sie den Dateiinspektor ein, um sicherzustellen, dass es Teil Ihres Anwendungsziels ist. Wenn das Modell nicht in Ihrem Ziel ist, generiert Xcode den Swift-Header dafür nicht automatisch.
Das Beispielprojekt finden Sie hier https://medium.com/towards-data-science/welcoming-core-ml-8ba325227a28, https://github.com/alaphao/CoreMLExample –
Ich weiß nicht antwort (vielleicht wurde das VGG16.mlmodel nicht korrekt heruntergeladen?), aber du willst VGG16 sowieso nicht auf einem mobilen Gerät verwenden. Es ist viel zu groß (500+ MB), viel zu langsam und verbraucht viel zu viel Energie. –
Ich habe dieses Modell mehrmals von der Apple-Website heruntergeladen. Vielleicht auf der Apple-Website die Datei ist gebrochen ... Ja, ich weiß, dass die Größe dieses Modells sehr groß ist. Also sagen Interesse der Forschung. –