2017-11-12 6 views
-1

Ich mache einen Roboter, der basierend auf Vision System navigiert. Vision-System verwenden Sie die Farbe des Objekts zu navigieren, so wie ich meine Kamera wählen?Wahl der Kamera für das Robotersystem

enter image description here

+0

können Sie expliziter sein, welches System Sie haben und was die Kamera z. mit lan oder usb, nacht/tag vision etc .... warum nicht nur mit einer usb webcam beginnen? – user3732793

+0

Ich denke, weil Geschwindigkeit in Echtzeit Vision sehr wichtig ist, werde ich mit USB gehen und seine Tagesvision Hauptaufgabe ist es, ein Farbbild mehr wie Menschen zu erfassen, denn wenn Polygone das Bild verformen, macht es Sinn für Menschen aye. Ich möchte mehr als 20 Frames und benötigt eine hohe Auflösung in Pixel, um Verzögerungen im System zu vermeiden. eigentlich werde ich mit USB-Webcam oder Laptop in Webcam gebaut beginnen, aber ich möchte nur wissen, was zu berücksichtigen, wenn ich eine Kamera –

+0

kaufen möchten, müssten Sie die Menge der Daten betrachten .. Bildgröße pro Zeit können Sie nicht, dass unendlich . ehrlich gesagt arbeiten die meisten Navigationssysteme mit Graustufenbildern, da Farben die Datenmenge multiplizieren ... Sie möchten Kanten erkennen ... schauen Sie sich openCV-Beispiele an – user3732793

Antwort

0

Wenn ich Ihnen einen Rat geben kann, auf USB-gesteuerten Kameras vorsichtig sein, wie Sie schnell zu einem Engpass Bandbreite bekommen könnte. Mit anderen Worten, die Größe des zu analysierenden Bildes ist möglicherweise so groß, dass sie nicht auf den USB-Bus passt (oder nicht schnell genug übertragen wird).

Hier bei der Arbeit verwenden wir Ethernet zum Übertragen von Bildern und mir ist auch bewusst, dass der iCub-Roboter Bilder über das Ethernet an andere Desktop-Computer sendet, die alle Bildverarbeitungs-Aufgaben erledigen (und die Leute beklagen sich immer noch darüber) zu langsam).

Das heißt, wie viele andere erwähnt, ist die richtige Kamera hängt davon ab, was Sie tun möchten und wie viel Sie wollen verbringen. Es gibt viele Roboter, die eine farbbasierte Bildverarbeitung durchführen, aber solche Bilder sind auch sehr schwer (3x Bildfläche in Pixel) und Sie könnten diesen Flaschenhals ziemlich schnell treffen.

Wahrscheinlich das erste, was Sie für sich selbst klären wollen, ist die Auflösung der Kamera. Je höher die Auflösung, desto mehr Informationen wird Ihr Algorithmus haben (und je mehr CPU-Rechenleistung Sie benötigen), desto geringer ist die Auflösung, desto einfacher ist die schnelle Verarbeitung und desto günstiger ist Ihr System (keine Notwendigkeit für die Erstellung) Ad-hoc-Boards zum Beispiel).

Eine höhere Auflösung und bessere CPU werden Ihnen nicht automatisch einen besseren Roboter geben, wenn Sie geschickt Ihre Daten verwenden. Der Nao-Roboter verwendete bereits im Jahr 2009 eine 320 x 240-Farbkamera (wie ein altes Mobiltelefon), die intern mit einem Geode-Mikrocontroller über integrierte Schaltungen verbunden war. Trotz der Tatsache, dass das Originalbild unterabgetastet wurde, konnte der Roboter immer noch Fußball spielen. Natürlich wurde der Code stark optimiert.

0

Wenn Sie etwas einfach wollen, dass Objekte aus der Box mit wenig Anpassung findet, könnten Sie die Pixie versuchen. Es ist ein eigenständiger Mikroprozessor und eine Kamera, die trainiert werden kann, um 7 Arten von Farbsignaturen und 7 Farbcodes zu verfolgen. Es kann mehrere Objekte gleichzeitig verfolgen und die Koordinaten für jedes Objekt zurückgeben.

Kickstart Video, Kickstarter, CMUcam5 Pixy, Adafruit

0

Versuchen Intel Realsense Kamera! Eine der besten für Entwicklungsprojekte wie autonome Navigation und Deep Learning. Sie können sogar mit ROS integrieren.

Verwandte Themen