Ich mache einen Roboter, der basierend auf Vision System navigiert. Vision-System verwenden Sie die Farbe des Objekts zu navigieren, so wie ich meine Kamera wählen?Wahl der Kamera für das Robotersystem
Antwort
Wenn ich Ihnen einen Rat geben kann, auf USB-gesteuerten Kameras vorsichtig sein, wie Sie schnell zu einem Engpass Bandbreite bekommen könnte. Mit anderen Worten, die Größe des zu analysierenden Bildes ist möglicherweise so groß, dass sie nicht auf den USB-Bus passt (oder nicht schnell genug übertragen wird).
Hier bei der Arbeit verwenden wir Ethernet zum Übertragen von Bildern und mir ist auch bewusst, dass der iCub-Roboter Bilder über das Ethernet an andere Desktop-Computer sendet, die alle Bildverarbeitungs-Aufgaben erledigen (und die Leute beklagen sich immer noch darüber) zu langsam).
Das heißt, wie viele andere erwähnt, ist die richtige Kamera hängt davon ab, was Sie tun möchten und wie viel Sie wollen verbringen. Es gibt viele Roboter, die eine farbbasierte Bildverarbeitung durchführen, aber solche Bilder sind auch sehr schwer (3x Bildfläche in Pixel) und Sie könnten diesen Flaschenhals ziemlich schnell treffen.
Wahrscheinlich das erste, was Sie für sich selbst klären wollen, ist die Auflösung der Kamera. Je höher die Auflösung, desto mehr Informationen wird Ihr Algorithmus haben (und je mehr CPU-Rechenleistung Sie benötigen), desto geringer ist die Auflösung, desto einfacher ist die schnelle Verarbeitung und desto günstiger ist Ihr System (keine Notwendigkeit für die Erstellung) Ad-hoc-Boards zum Beispiel).
Eine höhere Auflösung und bessere CPU werden Ihnen nicht automatisch einen besseren Roboter geben, wenn Sie geschickt Ihre Daten verwenden. Der Nao-Roboter verwendete bereits im Jahr 2009 eine 320 x 240-Farbkamera (wie ein altes Mobiltelefon), die intern mit einem Geode-Mikrocontroller über integrierte Schaltungen verbunden war. Trotz der Tatsache, dass das Originalbild unterabgetastet wurde, konnte der Roboter immer noch Fußball spielen. Natürlich wurde der Code stark optimiert.
Wenn Sie etwas einfach wollen, dass Objekte aus der Box mit wenig Anpassung findet, könnten Sie die Pixie versuchen. Es ist ein eigenständiger Mikroprozessor und eine Kamera, die trainiert werden kann, um 7 Arten von Farbsignaturen und 7 Farbcodes zu verfolgen. Es kann mehrere Objekte gleichzeitig verfolgen und die Koordinaten für jedes Objekt zurückgeben.
Versuchen Intel Realsense Kamera! Eine der besten für Entwicklungsprojekte wie autonome Navigation und Deep Learning. Sie können sogar mit ROS integrieren.
- 1. Wahl Entwicklungsumgebung für das Spiel
- 2. das Recht Angular2 Lifecycle Wahl
- 3. JAXB Liste der Wahl
- 4. Wahl der Sprache für portable Bibliothek
- 5. Bedingte Wahl der Direktive
- 6. Kamera funktioniert nicht für das Scannen von
- 7. Trainingsmethode Wahl für seq2seq Modell
- 8. XSD Kombination der Wahl
- 9. Ist die "Dialog" -Rolle die richtige Wahl für das Popup?
- 10. Ungültige Wahl Ausnahme für CSSSelector
- 11. Python curve_fit Wahl der Grenzen und Anfangsbedingung beeinflussen das Ergebnis
- 12. Wahl der Pivot in Quicksort
- 13. Visualisierung der Wahl einer Kohorte
- 14. Laravel Form der Wahl Form
- 15. Wie wird das Bild von der Kamera-Roll-URL mithilfe der reaktiven nativen Kamera angezeigt?
- 16. Leistung der Wahl vs Randint
- 17. Kamel Java DSL Wahl in einer Wahl
- 18. Kann Submit-Button für die Auswahl der Top-Wahl verwenden
- 19. Auto-Weißabgleich für Kamera
- 20. Wahl der Zeichnungs- und Animationstechnik für eine animierte Musik Mitarbeiter
- 21. Das mit der Kamera aufgenommene Foto enthält keine ALAsset-Metadaten
- 22. Ist Aurelia eine praktikable Wahl für Produktionsanwendungen?
- 23. Reinforcement Learning: Das Dilemma der Wahl Diskretisierung Schritte und Leistungsmetriken für kontinuierliche Aktion und kontinuierlichen Zustandsraum
- 24. Ist der anonyme Typ eine bessere Wahl für DTO/POCO?
- 25. Wahl der Parameter für R * -Baum mit SpatialIndex Bibliothek
- 26. MQ Wahl für Punkt-zu-Punkt-Hochdurchsatz-
- 27. Schienen, gem Wahl für die Autorisierung
- 28. Xpath für die Wahl nächsten Geschwister
- 29. Anzeige für Menschen lesbare Wahl in Vorlage
- 30. endpointscfg.py gibt ungültige Wahl für get_openapi_spec
können Sie expliziter sein, welches System Sie haben und was die Kamera z. mit lan oder usb, nacht/tag vision etc .... warum nicht nur mit einer usb webcam beginnen? – user3732793
Ich denke, weil Geschwindigkeit in Echtzeit Vision sehr wichtig ist, werde ich mit USB gehen und seine Tagesvision Hauptaufgabe ist es, ein Farbbild mehr wie Menschen zu erfassen, denn wenn Polygone das Bild verformen, macht es Sinn für Menschen aye. Ich möchte mehr als 20 Frames und benötigt eine hohe Auflösung in Pixel, um Verzögerungen im System zu vermeiden. eigentlich werde ich mit USB-Webcam oder Laptop in Webcam gebaut beginnen, aber ich möchte nur wissen, was zu berücksichtigen, wenn ich eine Kamera –
kaufen möchten, müssten Sie die Menge der Daten betrachten .. Bildgröße pro Zeit können Sie nicht, dass unendlich . ehrlich gesagt arbeiten die meisten Navigationssysteme mit Graustufenbildern, da Farben die Datenmenge multiplizieren ... Sie möchten Kanten erkennen ... schauen Sie sich openCV-Beispiele an – user3732793