2017-06-21 2 views
0

Ich versuche RGB-D SLAM mit einem Kinect-Sensor.Wo sollte ich den Kinect-Kamerasensor für Slam zentrieren?

Der Kinect-Sensor verfügt über eine RGB-Kamera und eine Tiefenkamera.

Wo sollte ich meine Kamera für den Rossbag zentrieren?

Das Zentrum der RGB-Kamera? Das Zentrum der Tiefenkamera? Zwischen den beiden Kameras?

Und da die beiden Kameras von Kinect ein wenig auseinander liegen, ist das Bild der beiden Kameras unterschiedlich?

+0

Implementieren Sie Ihren benutzerdefinierten SLAM-Algorithmus oder verwenden Sie einen bestimmten Algorithmus? – MIRMIX

Antwort

0

In Kinect 1 befinden sich 2 Kameras und ein Projektor. Der IR-Projektor sendet IR-Licht aus, das von der Tiefe/IR-Kamera/Sensor gemessen wird und 11 Bit Raw-Ausgabe erzeugt. Es gibt auch eine RGB-Kamera. Aufgrund ihrer Position stammen die Tiefen- und Farbbilder von zwei getrennten Kameras, so dass sie nicht ausgerichtet sind oder sich perfekt überlappen. Mit den Kalibrierwerten beider Kameras können Bilder von 2 Kameras berechnet und registriert werden.

Mit dem Rohdatenwert für jedes Pixel im Tiefenbild können wir seine Position im 3D-Raum berechnen und in die Bildebene der RGB-Kamera projizieren. Auf diese Weise erstellen wir ein registriertes Tiefenbild, wobei jedes Pixel mit seinem Gegenstück im RGB-Bild ausgerichtet ist.

OpenNI, eine Open-Source-Bibliothek, verfügt über eine integrierte Registrierungsfunktion, die die Kinect 1-Werkskalibrierung verwendet. Sie können dynamic_reconfigure verwenden, um die Einstellungen des ROS OpenNI-Treibers zur Laufzeit zu ändern.

Verwandte Themen