2017-05-22 7 views
1

Ich bin vertraut mit watson API-Schlüssel visuelle Erkennung:Watson visuelle Erkennung API

visual_recognition = VisualRecognitionV3('2016-05-20', api_key=param) 

mit param als meine api Schlüssel.

dieser Api Call ist schön, Formen zu erkennen. Aber ist es möglich, die Positionen der erkannten Elemente zu ermitteln? Ich sehe es nicht in der API-Dokumentation. Ich sehe, dass dies für die Gesichtserkennung möglich ist, aber sagen wir, ich habe einen Hund auf meinem Bild, wie kann ich die Positionen dieser Hunde haben?

Here die API-Referenz ist durch die Verwendung einer Sammlung von Klassifizierer

+1

Dies ist mit Watson API nicht möglich. –

+0

@ Tomasz Plaskota: Ist das etwas unter Roadmap? – MouIdri

Antwort

3

Der Dienst funktioniert, ist jeder Klassifizierer ein einziger Tag nur und muss mit einem eigenen Sätzen von positiven und negativen Bildern geschult werden. Versuchen Sie, kleinere Teilbilder aus einem Bild mit mehreren Elementen zu erstellen.

Siehe eine video, um zu überprüfen, wie es funktioniert.

Fork auf Github.

+0

Ich werde Ihre Antwort aufwerten und meine Frage als beantwortet markieren. Allerdings hätte ich gerne den Python-Weg dazu (nicht den Knoten). – MouIdri

+1

Hier haben Sie ein Beispiel für [Python] (https://www.ibm.com/blogs/watson/2016/09/power-visual-recognition-use-watson-identify-hand-cards/). Ich zeige ein Beispiel mit Node, weil, wie man macht, was Sie wollen, die Logik ist die gleiche, Sie werden nur das gleiche mit anderen Programmiersprache –

+0

Dank dafür getan. Ich benutze bereits einige fortgeschrittene Anwendungen von visual rec und python. Ich brauchte wirklich die Lokalisierung der Position mit Python-Sprache. Ich werde es mir ansehen. – MouIdri

Verwandte Themen