Mehr Pixel als der Sensor erlaubt

Wenn einem die Auflösung der eigenen Kamera nicht ausreicht, kann oder will man nicht immer zu einem noch höher auflösenden Modell wechseln. Es gibt aber auch Möglichkeiten, die Zahl der Megapixel über die des Sensors hinaus zu steigern. Von Michael Hußmann

Demofoto Kamera mit Zubehör

Gemessen an der Entwicklung im Halbleiterbereich insgesamt muss das Wachstum der Megapixel enttäuschen. In den letzten gut 15 Jahren ist die Zahl der Sensorpixel um den Faktor 4 bis 5 gewachsen – von 11 auf rund 50 Megapixel beim Kleinbildformat, 6 auf 24 (bei Canon 32) bei APS-C und 5 auf 20 Megapixel bei (Micro) Four Thirds. Das in der Digitalelektronik immer wieder bestätigte mooresche Gesetz, nach dem sich die Zahl der Transistoren auf einem Chip alle zwei Jahre verdoppelt, hätte eine Steigerung um den Faktor 200 oder mehr erwarten lassen. Der Eindruck, die Sensorhersteller (und in der Folge die Kamerahersteller) würden allzu schnell an der Auflösungsschraube drehen, trifft daher nicht zu.

Dass es nicht zu einem exponentiellen Auflösungszuwachs kommt, liegt nicht am fehlenden Willen der Sensor-Entwickler. Ein Sensor ist ein überwiegend analoges Bauelement, und in der analogen Technik sind die Randbedingungen andere als im digitalen Bereich. Digitale Schaltkreise müssen nur zwischen zwei Zuständen unterscheiden, die für 0 beziehungsweise 1 stehen. Zwar gibt es auch in der Digitaltechnik Rauschen, also zufällige Abweichungen von einem Sollwert, aber sie spielen keine große Rolle – die Abweichungen müssten schon sehr groß sein, damit eine 0 mit einer 1 verwechselt würde. In der analogen Technik machen sich dagegen schon  kleinste Abweichungen störend bemerkbar, und sie werden umso stärker, je mehr man die Schaltkreise verkleinert.

Wie in der ersten Folge dieser Serie erklärt, kann eine hohe Sensorauflösung dennoch förderlich sein, aber nur dann, wenn man die Bilder nicht so stark vergrößert, dass einzelne Pixel sichtbar werden. Die Kamera des Smartphones Mi Note 10 von Xiaomi, die 108 Megapixel auflösen kann, verrechnet meist vier benachbarte Sensorpixel zu einem virtuellen großen Pixel – aufgrund der Farbfilteranordnung im Quad-Bayer-Muster sind jeweils 2 mal 2 Sensorpixel für die gleiche Farbe empfindlich.

Was aber, wenn man einmal eine höhere Auflösung braucht, als sie die verfügbaren Sensoren bieten, und von dieser auch Gebrauch machen will – also erwartet, dass sich die Aufnahmen …


Lesen Sie weiter in


 

TIPA 2020