Licht ins Dunkel

Thorsten Wulff wandelt auf Newtons Lichtspuren und macht erstaunliche Erfahrungen mit dem neuen Pixel-3-Smartphone von Google.

1932 kaufte sich der zwölfjährige Helmut Neustädter in einem billigen Berliner Kaufhaus vom Taschengeld eine Zeiss Box Tengor, inklusive einer Rolle Film für 3 Mark 50. Mit der neuen Kamera stieg er in die U-Bahn und begann, zu fotografieren. Als er in Witzleben ausstieg, hatte Helmut nur noch ein Bild auf dem Film übrig und stand vor dem Berliner Funkturm.

Nachdem er seinen entwickelten Film aus der Drogerie an der Ecke zurückbekommen hatte, konnte man nur auf einem Bild etwas erkennen, den Funkturm. Die Bilder aus der U-Bahn waren mangels Beleuchtung nichts geworden. Der spätere Helmut Newton sagte dazu: „Meine Vorliebe für Fotografie bei Nacht hat ihren Ursprung in dieser frühen Erfahrung in der Berliner Untergrundbahn; glücklicherweise erzielte ich später bessere Resultate. Ich liebe es heute noch, beim Schein der Straßenlaternen oder mit hartem Blitzlicht zu fotografieren.“

Ich kann mir gut vorstellen, dass Newton Spaß an Googles neuem Nachtsichtgerät gefunden hätte.

Nachdem schon das Pixel 2 das beste Foto-Telefon des letzten Jahres war, geht die Firma mit dem Pixel 3 konsequent weiter den Weg der „Computational Photography“. Während die meisten aktuellen Smartphones auf Kameras mit mindestens zwei rückwärtigen Objektiven setzen, bleibt Google konsequent bei einer singulären Optik. Schon das Pixel 2 setzte neue Standards beim computergestützen Einkamera-Portraitmodus, das 3er baut diesen Vorsprung weiter aus. (Die 8-Megapixel-Frontkamera ist dafür jetzt mit zwei Objektiven, f/2,2 und f/1,8, ausgestattet, und erlaubt per verzerrungsfreiem Auszoomen elegante Gruppen-Selfies ohne Stick.)

Das Beste aus 15 Bildern

Das Pixel 2 zeigte bereits, was die Serien-Fotografie in Kombination mit HDR+ leisten konnte: Hierbei werden permanent neun Aufnahmen im Speicher gehalten, beim Drücken des Auslösers geht die Kamera in der Zeit zurück und zerlegt jene nun insgesamt zehn Bilder in Tausende von Einzelteilen, um sie miteinander zu verrechnen.

So werden unscharfe Bildelemente entfernt und das Bildrauschen stark reduziert, die Auflösung eines wesentlich größeren Aufnahmesensors wird künstlich generiert. Diese Technik war nicht unbedingt neu, sondern schon länger bekannt aus der Astrofotografie. Photoshop bot das Feature in seinen Stapel-Modi. Nur dass man beim Pixel nicht erst diverse Aufnahmen zu einem Stapel zusammenfügt und dann die Berechnungen ausführt, sondern das Ganze in Echtzeit schon beim Auslösen passiert. Google hat hierfür eine seiner Stärken in…


Lesen Sie weiter in:

Ähnliche Beiträge