Google Pixel 4: Das kann die Kamera des neuen Google-Flagschiffs

Googles neue Pixel 4-Kamera bietet eine Menge neuer Tricks, um ihre fotografischen Schnipsel zu verbessern, und um den Punkt hervorzuheben, hatten wir Professor Mark Levoy, der die Entwicklung der Kameratechnologie bei Google Research leitet, auf der Bühne, um über die vielen Verbesserungen des Pixel 4 zu sprechen, darunter sein neues Teleobjektiv, die aktualisierte Super Res Zoom-Technologie und die Live HDR+-Vorschau.

Levoy begann mit dem oft zitierten Sprichwort unter den Fotografen, dass das Wichtigste für ein gutes Foto zuerst das Motiv, dann die Beleuchtung und danach die Hardware ist: d.h. Objektiv und Kamerakörper. Er sagte, dass er und sein Team glauben, dass jetzt eine andere Gleichung im Spiel ist, die diese Kamerakörperkomponente durch etwas anderes ersetzt: Software.

Das Objektiv ist immer noch wichtig in der Gleichung, sagte er, und das Pixel 4 stellt das mit dem Zusatz eines Teleobjektivs zu dem bestehenden Weitwinkel-Hardwareobjektiv dar, das es anbietet. Levoy vertrat auch die Ansicht, dass ein Teleobjektiv im Allgemeinen nützlicher ist als ein Weitwinkelobjektiv, was bei Apple’s Ergänzung der neuesten iPhone 11 Pro-Modelle um ein Ultra-Weitwinkel-Hardwareobjektiv deutlich wird.

In diesem Zusammenhang bedeutet das Googles gefeierter „Computational Photography“-Ansatz für seine Pixel-Kamera-Technologie, die einen Großteil des schweren Auftriebs bewältigt, wenn sie ein Foto von einem kleinen Sensor macht, der in der Regel schlecht ist, und das in etwas ziemlich Erstaunliches verwandelt.

Levoy sagte, dass er ihren Ansatz eine „softwaredefinierte Kamera“ nennt, was meistens nur bedeutet, mehrere Fotos aufzunehmen und Daten von jedem einzelnen zu kombinieren, um ein besseres, einzelnes, endgültiges Bild zu erzeugen.

Was ist neu für das Google Pixel 4?

Es gibt vier neue Funktionen für das Pixel 4 Telefon, die durch computergestützte Fotografie angetrieben werden, darunter Live HDR mit Dual-Exposure-Steuerung, die Ihnen ein Echtzeitbild zeigt, wie das endgültige Foto mit der angewandten HDR-Behandlung aussehen wird, anstatt Ihnen nur eine sehr anders aussehende Endaufnahme zu geben. Es werden auch Belichtungseinstellungen vorgenommen, mit denen Sie die Lichter und Schatten im Bild spontan anpassen können, was beispielsweise nützlich ist, wenn Sie stärkere Lichter oder Silhouetten von Schatten wünschen.

Ebenfalls neu ist der „lernbasierte Weißabgleich“, der das knifflige Problem des korrekten Weißabgleichs löst. Levoy sagte, dass Google diesen Ansatz in Nachtsichtfotos mit Weißabgleich seit der Einführung dieser Funktion mit Pixel 3 verwendet hat, aber jetzt bringt es ihn in alle Fotomodi. Das Ergebnis sind kühlere Farben, insbesondere in schwierigen Beleuchtungssituationen, in denen Weiß oft falsch als Orange oder Gelb dargestellt wird.

Der neue

Weitwinkel-Portraitmodus

nutzt Informationen sowohl von den von Pixel 4 verwendeten Dual-Pixel-Bildsensoren als auch vom neuen zweiten Objektiv, um mehr Tiefeninformationen abzuleiten und einen erweiterten, genaueren Porträtmodus bereitzustellen, um das Motiv vom Hintergrund zu trennen. Es funktioniert jetzt bei großen Objekten und Porträts, bei denen die fokussierte Person weiter hinten steht, und es bietet eine bessere Bokeh-Form (die Form der defokussierten Elemente im Hintergrund) und eine bessere Definition von Haarsträhnen und Fell, was immer schwierig war, wenn der Software-Hintergrund verschwommen ist.

Schließlich erhält der Nachtsichtmodus allgemeine Verbesserungen sowie einen neuen astralen Aufnahmemodus, der speziell für die Aufnahme des Nachthimmels und der Sternenfelder entwickelt wurde. Der Astralmodus bietet großartig aussehende Sternenbilder mit Belichtungszeiten, die mehrere Minuten dauern, aber alle mit automatischen Einstellungen und Berechnungsalgorithmen, die Probleme wie sich in dieser Zeit bewegende Sterne ausgleichen.
Noch mehr werden folgen

Google wollte den Punkt betonen, dass dies eine Kamera ist, die viele der Probleme überwinden kann, mit denen kleine Sensoren typischerweise konfrontiert sind, und sie brachte die Schwergewichtsfotografie-Legende Annie Lebowitz dazu, genau das zu tun. Sie zeigte einige der Fotos, die sie sowohl mit Pixel 3 als auch mit Pixel 4 aufgenommen hat, und sie sahen in der Tat großartig aus, obwohl die Ansicht aus dem Feed nicht ganz so viel aussagt wie die Druckversionen der endgültigen Fotos.

Levoy sagte auch, dass sie planen, die Google Pixel 4 Kamera im Laufe der Zeit durch Software-Updates zu verbessern, so dass dies nur der Anfang für Pixel 4 ist. Basierend auf dem, was wir auf der Bühne gesehen haben, sieht es definitiv wie ein Step-up gegenüber dem bereits exzellenten Pixel 3 aus, aber wir werden mehr Zeit brauchen, um zu sehen, was es im Vergleich zu Apples viel verbesserter iPhone 11 Kamera leistet.


Wir benutzen Cookies um die Nutzerfreundlichkeit der Webseite zu verbessen. Durch Deinen Besuch stimmst Du dem zu.