Warum ich die Schärfentiefe anders berechne als Fuji, Olympus und Co.
Eine meiner „Beinahe-Lieblingskameras“ ist eine Fuji X100 (*/**).
Zu den Besonderheiten dieser Fuji (noch ohne das „S“ oder „T“ oder „F“ der neueren Modelle) gehört auch die Anzeige des Bereichs der Schärfentiefe auf dem Display.
Diese hat wunderbar funktioniert, man konnte die (automatisch oder manuell) eingestellte Entfernung (roter Strich) und den in der Schärfentiefe liegenden Bereich (weiß hervorgehoben) ganz ähnlich wie früher auf den Objektiven ablesen. Das ist praktisch, auch zum Erklären in meinen Fotokursen.
Das war praktisch. Solange, bis ich ein Firmwareupdate aufspielte.
[Fuji gehört (wie z.B. auch Ricoh und Olympus) zu den wenigen Kameraherstellern, die mir über kostenlose Updates der Kamerasoftware zusätzliche Funktionen noch nach dem Kauf geliefert haben.]
Die Schärfentiefe schrumpft?
Doch nach diesem Update stimmten auf einmal die angezeigten Werte für die Schärfentiefe nicht mehr mit meinen Erfahrungen überein. Irgendetwas war anders.
Der Schärfentiefebereich wurde jetzt viel kleiner angezeigt, als zu erwarten wäre.
Es handelt sich ja um eine Kamera mit einer Sensorgröße, wie sie an vielen DSLRs üblich ist, also um den Faktor 1,5 kleiner als Kleinbild. Dadurch entspricht dann die Festbrennweite von 23mm der Wirkung von 35mm an Kleinbild. Und die Schärfentiefe sollte durch den kleineren Sensor am 23er sogar noch größer sein.
Doch das Gegenteil war laut Anzeige der Fall.
Bei meinem Nikon 35mm 1:2 reichte die Schärfentiefe laut Skala bei Blende 16 und Einstellung auf 2m von ca. 1,2m (4ft.) bis deutlich hinter 4,5m (15ft.), an der Fuji wurden aber nur 1,5 bis 3m angezeigt. Durch den kleineren Sensor wäre aber bei gleichem Bildwinkel eigentlich ein größerer Bereich als an Vollformat zu erwarten gewesen.
(Wer sich mit der Schärfentiefeberechnung ein wenig auskennt, kann den folgenden Absatz überspringen.)
Unschärfekreis
Für die Schärfentiefeberechnung ist das Maß der noch geduldeten Unschärfe wichtig.
Es gelten, verkürzt gesagt, alle Entfernungsbereiche als scharf, deren Unschärfe im späteren Bild so klein ist, dass man sie nicht sieht – bei denen also ein Punkt im Motiv im Bild noch als Punkt und nicht als verschwommenes Scheibchen erscheint.
Auf der Basis dieser Überlegung kann man errechnen, wie verschwommen ein Punkt im Bild durch die Unschärfe maximal werden darf, ohne dass er unscharf erscheint. Natürlich spielt dabei der Abstand, aus dem man das Bild ansieht, eine große Rolle.
Bin ich weiter weg, sehe ich weniger Unschärfe, der noch scharfe Bereich in der Tiefe des Motivs erscheint größer. Bin ich recht nah am Bild, erscheint mir dieser Bereich kleiner.
Für Bilder gibt es eine häufig zutreffende sinnvolle Entfernung, aus der man sie betrachtet: so nah dran, dass man Details gut erkennen kann, doch so weit entfernt, dass man alle Details des Bildes mit einem Blick erfassen kann. Diese Entfernung entspricht in der Regel der Diagonalen des ausgedruckten bzw. vergrößerten oder am Monitor oder per Beamer präsentierten Bildes.
Auf der Grundlage dieser Ãœberlegung kann man die maximal erlaubte Größe der noch scharf (als Punkt) erscheinenden Unschärfekreise festlegen. (Zumindest für einen „Normalsichtigen“. Häuptling Adlerauge sieht dann aber evtl. schon Unschärfen. Und wenn er dann später alterssichtig wird, ändert sich das in die andere Richtung.)
Die maximal zu duldende Größe eines Unschärfekreises bildet also eine wichtige Grundlage der Berechnung. Und diese Größe ist abhängig vom Betrachtungsabstand.
Die Ursache?
Die „falsche“ Darstellung des Schärfentiefebereiches liegt vermutlich daran, dass für die Berechnung ein sehr kurzer Betrachtungsabstand angenommen wird.
Die Entwickler der Firmware haben für die Schärfentiefeberechnung vermutlich die heute in der Bildbearbeitung problemlos mögliche 100%-Ansicht zugrunde gelegt. Man sieht dann aus kurzer Distanz auf einen kleinen Ausschnitt des späteren Bildes.
Der zulässige Zerstreuungskreis wurde also vermutlich so klein gewählt, dass auch aus diesem extrem kurzen Abstand im errechneten Schärfentiefebereich alles scharf aussah. (Wer will, kann das mit unterschiedlichen Zerstreungskreisdurchmesser am Schärfentieferechner von Erik Krause nachrechnen. Hier kann man dann auch erkennen, dass bei den vermeintlich nötigen Blendenöffnungen zum Teil die Beugung schon gnadenlos zuschlagen würde.)
Das scheint auf den ersten Blick ja auch erstmal nachvollziehbar. Was sollte dagegen sprechen, die Schärfentiefe auch für die heute problemlos mögliche Betrachtung kleiner Ausschnitte aus kurzer Distanz anzupassen. (Und ich vermute, dass sich auch tatsächlich Kunden beschwert haben, dass die (alte) Berechnung falsch wäre, da in der 100% Ansicht die Bereiche unscharf aussähen.)
Doch ist es wirklich sinnvoll, in der Berechnung Zerstreungskreise zu verwenden, die viel kleiner sind, als es für eine normale Bildbetrachtung nötig wäre?
Nein, denn man handelt sich damit sowohl auf Seiten der Gestaltung als auch in der Bildqualität einige Nachteile ein.
Die Nachteile!
Gestalterisch erhält man durch eine zu klein gewählte Blendenöffnung, also durch stärker als nötiges Abblenden, auch eine schwächere Unschärfe außerhalb des Schärfentiefebereiches. Speziell im Hintergrund wird das oft auffallen. Der Abriss der Schärfe wird weicher, der Übergang fließender, die Trennung von Wichtigem und Unwichtgem wird schwächer.
Technisch erhält man durch das unnötig starke Abblenden Probleme mit der Beugung. Die Beugungsunschärfe  wird deutlich stärker als bei den eigentlich ausreichenden größeren Blendenöffnungen.
Außerdem benötigt man mehr Licht, man muss also entweder die Belichtungszeit verlängern, was zu Verwackelungsunschärfe führen kann oder die Empfindlichkeit der Kamera, den ISO-Wert, steigern, was zu stärkerem Rauschen, also dem Verlust kleiner, scharf dargestellter Details führt.
Notwendig?
Ist die von Fuji (und anderen) angewandte Berechnung der Schärfentiefe überhaupt nötig?
Um die vermeintlich gesteigerte Schärfentiefe überhaupt sehen zu können, müsste man die Bilder ja riesig vergrößern. So riesig, dass bei der Ausgabe des Bildes ein Bildpunkt zu einem Druckpunkt wird (das entspricht dann in etwa der 100% Ansicht auf Papier), denn sonst würde diese Schärfentiefe ja schon im Druckraster verschwinden und überhaupt nicht im Bild sichtbar werden.
Doch die für eine so starke Vergrößerung nötige Detailauflösung können heutzutage im Handel befindliche Kameras von der grundlegenden technischen Seite des Aufnahmeverfahrens her meistens gar nicht leisten.
Sie haben nur Helligkeiten erkennende Sensoren und können Farben nur mit einem Trick erkennen bzw. voneinander unterscheiden. Dafür muss die Farbe und Helligkeit eines Bildpunktes immer mit den umliegenden Punkten berechnet werden. Die Information im Bild ist also, aufs einzelne Pixel bezogen, schon durch die Technik der Kamera nicht eindeutig, nicht scharf.
Darüber hinaus ist es fraglich, ob die Schärfentiefe überhaupt je auf dem Sensor vorhanden war und nicht schon durch das starke Abblenden in der Beugungsunschärfe verschwand. Denn laut der Anzeige an den Kameras müsset man die Blende ja viel weiter schliessen, käme also schneller in den Bereich der Beugung.