2017-09-11 2 views
8

Wie viele andere Entwickler habe ich mich in Apples neue ARKit-Technologie gestürzt. Es ist großartig. Für ein bestimmtes Projekt möchte ich jedoch (reale Bilder) in der Szene erkennen können, um etwas darauf zu projizieren (genau wie Vuforia mit seinen Zielbildern), oder um damit ein Ereignis auszulösen in meiner Bewerbung.Apple Vision Bilderkennung

In meiner Forschung, wie dies zu erreichen ist, stolperte ich über die Vision und CoreML-Frameworks von Apple. Dies scheint vielversprechend, obwohl ich noch nicht in der Lage war, meinen Kopf darum zu wickeln. Wie ich es verstehe, sollte ich in der Lage sein, genau das zu tun, was ich will, indem ich Rechtecke mit dem Vision-Framework suche und diese in ein CoreML-Modell füttere, das es einfach mit den Zielbildern vergleicht, die ich im Modell vordefiniere. Es sollte dann in der Lage sein, das gefundene Zielbild auszuspucken.

Obwohl das in meinem Kopf gut klingt, habe ich noch keinen Weg gefunden, dies zu tun. Wie würde ich ein solches Modell erstellen, und ist das überhaupt möglich?

+0

Komisch, ich habe mich gefragt, wie genau das gestern funktioniert. Danke für die Frage! – LinusGeffarth

Antwort

0

Ab Arkit 1,5 (kommt mit IOS 11.3 im Frühjahr 2018), scheint ein Feature direkt auf ARKit implementiert zu sein, das dieses Problem löst.

ARKit unterstützt die Bilderkennung vollständig. Nach der Erkennung eines Bildes können die 3D-Koordinaten als Anker abgerufen werden, und daher kann Inhalt auf ihnen platziert werden.

2

fand ich dieses Projekt auf Github vor einigen Wochen: AR Kit Rectangle Detection

Ich denke, das ist genau das, was Sie suchen ...

+0

Ja, das ist sehr nett, danke. Dies ist jedoch nur die Grundlage dessen, was ich gesucht habe, da diese Anwendung ein Rechteck erkennen kann, aber nicht zwischen verschiedenen Bildern auf diesem Rechteck unterscheidet. Ich denke, dass sollte mit CoreML möglich sein, aber ich bin mir nicht sicher, wie ich das machen würde. –

+0

Ich suche genau das Gleiche. Hast du schon eine Lösung gefunden? Ich habe darüber nachgedacht, ein Modell zu trainieren. Nachdem ARKit mit CoreML das Bild erkannt hat, finde das Rechteck und du hast was du willst. Aber ein CoreML-Modell für nur ein Bild zu trainieren ist zu viel, denke ich ... – KNV

+0

Traurig für dich, ich dachte genau das Gleiche und habe noch keine Antwort gefunden. Für das Projekt, an dem ich gerade arbeite, habe ich versucht, ARToolkit und ARKit (das erstere für die Bilderkennung) zu kombinieren. Dies ist sicherlich durch Unity möglich, obwohl ich den Prozess noch nicht beendet habe. Wenn du es jedoch nativ machen wolltest, bin ich mir nicht sicher, ob du das könntest. Ich weiß, dass Vuforia plant, Vuforia Fusion irgendwann Anfang nächsten Jahres zu veröffentlichen, die seine Bilderkennungsfähigkeiten mit ARKit und/oder sogar ARCore kombinieren wird. –