2012-05-02 8 views
10

Ich denke an Nähten Bilder von 2 oder mehr (derzeit vielleicht 3 oder 4) Kameras in Echtzeit OpenCV mit 2.3.1 auf Visual Studio 2008.Echtzeit-Video (Bild) Vernähen

jedoch Ich bin gespannt wie es gemacht wird.

Kürzlich habe ich einige Techniken der Feature-basierte Bild-Stitching-Methode untersucht.

Die meisten von ihnen erfordern zumindest der folgenden Schritt:

1.Feature Detektions 2.Feature passend 3.Finding Homographie 4.Transformation von Zielbildern Bildern zu referenzieren ... etc

Die meisten der Techniken, die ich gelesen habe, befassen sich nur mit Bildern "EINMAL", während ich möchte, dass sie sich mit einer Reihe von Bildern befasst, die von einigen Kameras aufgenommen wurden, und ich möchte, dass sie "ECHTZEIT" ist.

Bis jetzt mag es immer noch verwirrend klingen. Ich beschreibe das Detail:

Setzen Sie 3 Kameras in verschiedenen Winkeln und Positionen, während jeder von ihnen überlappende Bereiche mit seinem benachbarten haben muss, um ein ECHTZEIT-Video-Stitching zu erstellen.

Was ich tun möchte, ist ähnlich dem Inhalt in dem folgenden Link, wo ASIFT verwendet wird.

http://www.youtube.com/watch?v=a5OK6bwke3I

Ich versuchte, den Besitzer des Videos zu konsultieren, aber ich bekam keine Antwort von ihm :(.

Kann ich Bild-Stitching-Verfahren verwenden, um mit Video Stitching umgehen? Video selbst zusammengesetzt ist, von einer Reihe von Bildern, so frage ich mich, ob das möglich ist Allerdings scheint die Erkennung von Feature-Punkte sehr zeitaufwendig, was auch immer Feature-Detektor (SURF, SIFT, ASIFT ... etc) Sie verwenden Echtzeit-Video-Stitching machen

+1

Haben Sie jemals etwas Arbeit bekommen? – speedplane

+2

http://www.youtube.com/watch?v=QzDpMsVgjxg –

+0

Ich habe diesen Service mit großem Erfolg genutzt. http://unbouncepages.com/panoslide/ – Andreas

Antwort

11

Ich habe gearbeitet auf einem Echtzeit-Video-Stitching-System und es ist ein schwieriges Problem. Ich kann die vollständige Lösung, die wir aufgrund einer NDA verwendet haben, nicht offen legen, aber ich habe etwas ähnliches implementiert wie the one described in this paper. Das größte Problem ist die Bewältigung von Objekten in unterschiedlichen Tiefen (einfache Homographien reichen nicht aus); Tiefendisparitäten müssen bestimmt werden und die Videorahmen müssen entsprechend verzerrt sein, so dass gemeinsame Merkmale ausgerichtet sind. Dies ist im Wesentlichen ein Stereosehensproblem. Die images must first be rectified, so dass gemeinsame Funktionen auf der gleichen Scanzeile angezeigt werden.

+0

Ich schreibe gerade meine Codes auf Visual Studio 2010. Mein Professor sagte mir, es zuerst auf dem PC zu entwickeln und natürlich ist es fast unmöglich, in Echtzeit zu sein. Bis jetzt habe ich nur Feature-Erkennung und Matching mit OpenCV 2.3.1 gemacht.Das Ergebnis ist, dass es fast 3 Sekunden dauert, um die Schritte zu beenden (Feature-Erkennung (SURF) und Anpassung, einschließlich Entfernen von Ausreißern mit RANSAC) und die Bildrate ist sehr, sehr schrecklich ... –

+0

Mein prof. werde jemand haben, um es auf FPGA zu realisieren o ich muss alle notwendigen Algorithmen zuerst und später ausführen, um jemanden es auf FPGA zu verwirklichen, weil ich nicht damit vertraut bin. Ich habe gerade darüber nachgedacht, die Feature-based Image-Stitching-Methoden zu implementieren. Das heißt, sie in eine Endlosschleife "while (True)" zu setzen, um fortlaufend ein Bildzusammenfügen von 2 oder 3 Bildern von 3 verschiedenen Kameras durchzuführen. –

+0

Ich frage mich jedoch, ob es funktionieren würde, um zufriedenstellend zu sein. –

3

Sie könnten sich auch für mein Projekt von vor ein paar Jahren interessieren. Es ist ein Programm, mit dem Sie mit verschiedenen Stichparametern experimentieren und die Ergebnisse in Echtzeit betrachten können.

Projektseite - https://github.com/lukeyeager/StitcHD

Demo Video - https://youtu.be/mMcrOpVx9aY?t=3m38s

+0

Sehr schöne Demo-Videos, ist es wirklich einfach, das Projekt zu laufen? – theAlse

+0

müssen wir es auf Visual Studio ausführen? – Anirudh