2016-12-28 4 views
0

Eine Frage zum Abtastvorgang beim Konvertieren eines analogen Bildes in ein digitales. Ich verstehe Megapixel und Sachen, und wie der Megapixel-Mythos der Digitalkamera-Industrie gut gedient hat. Und ich verstehe bereits, dass ein größerer Sensor besser ist (deshalb kann eine 14MP-Kamera im Vergleich zu einer 12MP-DSLR schlechter sein - wenn eine solche MP-Zählung existiert) ...Anzahl der Sensoren und Anzahl der Pixel

Ich habe gelesen, wie ein CCD und CMOS Bilder digitalisieren (sagen wir in einer Digitalkamera). Das Gesamtkonzept ist ziemlich klar. Das einzige, worüber ich immer noch verwirrt bin, obwohl es vielleicht eine einfache Sache ist, ist ... ob die Anzahl der Sensoren (auf einem Sensor-Array) in die Anzahl der Pixel im endgültigen Bild übersetzt wird. Ist das der Fall? Das heißt, das Sensor-Array ist 10 X 10 (ja, sehr klein, aber nur als Beispiel). Aber bedeutet das, dass auch eine 10 x 10 Probe genommen wird? Was führt schließlich zu einem digitalen Bild mit einer 10px X 10px "räumlichen Auflösung"? (Bin mit „“, wie ich gelesen habe, dass es viele Definition sind, auch für die räumliche Auflösung)

Ich dachte an diese Frage, nachdem dieser Teil in Gonzalez und Woods Lesen (Plz zum Bild beziehen)

enter image description here

Ich würde mich über jede Rückmeldung freuen: D Danke!

Antwort

1

würde die Endgröße in dem Bild sein:

D = (X/Z) * f/p 

wo

D: Die Objektgröße in dem Bild in Pixel

X: Die Größe der Objekt (mm)

Z: Der Abstand zum Objekt (mm)

f: Die Brennweite von t Die Linse (mm)

p: Pixelgröße des Sensors (mm/Pixel) - Sie finden diese im Datenblatt des Sensors.

2

Ja, in dem trivialen und erfundenen Beispiel, das Sie angegeben haben, sind Sie richtig - die Anzahl der Pixel im Sensor entspricht der Anzahl der Pixel in Ihrem endgültigen Bild.

Die reale Welt ist im Allgemeinen ein wenig komplizierter. Wenn Sie z. B. eine Farbe wünschen, benötigt jedes Pixel eine Lesung für jede der Primärfarben Rot, Grün und Blau. Aber die meisten Sensoren erzeugen nur einen Lesen pro Pixel. Die Farbe für jeden Messwert wird durch ein Bayer Filter über jedem Pixel bestimmt, und die fehlenden Werte müssen durch Interpolation ausgefüllt werden - ein Prozess, der als demosaicing bekannt ist.

Ein praktischer Sensor enthält auch eine kleine Anzahl von Pixeln, die nicht zum endgültigen Bild passen. Einige werden verwendet, um den Schwarzwert zu messen (sie sind maskiert, so dass kein Licht auf sie trifft), und einige geben zusätzliche Informationen am Rand des Bildes, so dass der Demosaicing-Prozess richtig funktionieren kann. Wenn die Ausgabe einer Kamera ein JPEG-Bild ist, sind die Abmessungen in der Regel ein Vielfaches von 16, um der von der JPEG-Komprimierung verwendeten Blockgröße zu entsprechen.

Es ist auch ziemlich üblich, dass der Sensor unterabgetastet wird, um ein endgültiges Bild mit einer niedrigeren Auflösung zu liefern. Kameras bieten oft eine Option dafür und Video von einer Standbildkamera wird es automatisch machen.

Verwandte Themen