2008-09-16 15 views
1

Ich sah eine Frage auf der Rückseite projizieren 4 2D-Punkte, um die Ecken eines Rechtecks ​​im 3D-Raum abzuleiten. Ich habe eine Art allgemeinere Version des gleichen Problems:Dichte pixelweise umgekehrte Projektion

Gegeben entweder eine Brennweite (die gelöst werden kann, um Bogensekunden/Pixel zu erzeugen) oder die intrinsische Kameramatrix (eine 3x2 Matrix, die die Eigenschaften der Lochkamera definiert Das verwendete Modell bezieht sich direkt auf die Brennweite und berechnet den Kamerastrahl, der durch jedes Pixel geht.

Ich würde gerne eine Reihe von Bildern machen, die Kandidatenlichtstrahlen von jedem Bild ableiten, und eine Art iterativen Lösungsansatz verwenden, um die Kamerapose von jedem Bild abzuleiten (bei ausreichend großer Stichprobe) ... All das sind wirklich nur massiv-parallele Implementierungen eines verallgemeinerten Hough-Algorithmus ... es bekommt die Kandidatenstrahlen an erster Stelle, an denen ich das Problem habe ...

Antwort

1

Ein Freund von mir gefunden der Quellcode von einer Universität für die Kamera in PhotoSynth übereinstimmen. Ich würde herumfahren, wenn ich du wäre.

0

Das ist ein guter Vorschlag ... und ich werde mich definitiv darum kümmern (photosynth hat mein Interesse an diesem Thema geweckt - aber ich arbeite seit Monaten für Robochamps) - aber es ist eine spärliche Implementierung - es sucht nach "guten" Features (Punkte im Bild, die in anderen Ansichten des gleichen Bildes leicht erkennbar sein sollten), und während ich sicherlich jedes Match basierend darauf bewerten möchte, wie gut das Feature ist, das es zusammenbringt, möchte ich den Full-Dense-Algorithmus um jedes Pixel abzuleiten ... oder soll ich Voxel lol sagen?

0

Nach ein wenig stochern, ist es nicht die extrinsische Matrix, die Ihnen sagt, wo die Kamera tatsächlich in 3-Raum ist?

Ich arbeitete in einer Firma, die eine Menge davon gemacht hat, aber ich habe immer die Tools benutzt, die der Algorithmus-Typ schrieb. :)