Rubrik: Grundlagenwissen
Das menschliche Auge – wie wir Bilder sehen
2009-03-09 Geht es nach dem Willen der Sensorhersteller, Marketingabteilungen der Kamerahersteller und nicht zuletzt auch dem Kunden und Verkäufer, wie es uns zumindest weiß gemacht wird, brauchen wir immer mehr Megapixel in den Kameras. Die Nachteile werden selten hinterfragt, die Vorteile dagegen beworben: Es sind größere Ausdrucke im Posterformat möglich, und man kann bequem am Rechner unwichtige Bildteile wegschneiden, interessante dagegen herausvergrößern. Dabei wird vergessen, wie wir Bilder sehen und was das menschliche Auge eigentlich leisten kann. (Benjamin Kirchheim)
Der erste Fehler, der gemacht wird, ist Megapixel und Auflösung gleich zu setzen. Idealerweise ist das zwar tatsächlich so (und in der Argumentation auch sehr praktisch), real sind sie aber mitnichten identisch. Dazu muss man verstehen, wie ein Bild eigentlich entsteht. Zuallererst ist dort ein Objektiv, das eine reale Szene möglichst fehlerfrei auf einer kleinen Fläche – dem Bildsensor bzw. früher dem Film – abbilden soll. Ein solches Objektiv hat Fehler. Von Verzeichnungen und Randabschattungen mal abgesehen, betrifft das vor allem die Auflösung, die nicht unendlich ist, sondern begrenzt. Am höchsten ist diese nur in einem sehr beschränkten Kreis in der Bildmitte, zum Rand hin fällt sie naturgegeben immer weiter ab. Wie stark dieser Abfall ist, hängt von der Qualität des Objektivs ab, er kann aber nie Null sein.
Das zweite Problem ist der Bildsensor. Einzelne Pixel sind nur helligkeitsempfindlich, können aber keine Farbe unterscheiden. Um dieses zu umgehen, legt man einen Farbfilter vor die Pixel, so dass die Hälfte der Pixel nur noch grün und je ein Viertel nur noch rot und blau sehen können. Um nun zu einem Bild mit Echtfarbpixeln zu kommen, muss die Digitalkamera interpolieren, dafür zieht sie die Farbinformationen der jeweils umliegenden Pixel mit heran. In der Summe ergibt sich bei einer Durchschnittskamera aufgrund von Objektivfehlern und Interpolations- bzw. Farbfilterverlusten eine reelle Auflösung, die bei 80 % (in der Bildmitte) bis 60% (in den Randbereichen) der idealen Auflösung (den Megapixeln) liegt. Das ist erst einmal ernüchternd.
Auf der anderen Seite steht das menschliche Auge, das sich in Jahrmillionen der Evolution entwickelt hat. Auch das Auge besitzt keine Zellen, die für alle Farben empfindlich sind und diese unterscheidet, sondern vier verschiedene, sehr spezialisierte Sehzellentypen. Der größte Teil unserer Netzhaut besteht aus den Stäbchen, wovon es etwa 120-130 Mio. gibt. Sie sind für das Hell/Dunkel-Sehen verantwortlich, reagieren am empfindlichsten auf blau-grünes Licht von etwa 500 nm (Nanometer) Lichtwellenlänge und sind etwa 30-mal lichtempfindlicher als die Zapfen, die für das Farbsehen zuständig sind. Von ihnen gibt es lediglich 6 Mio., wobei die "Blauzapfen" auf rund 420 nm Lichtwellenlänge am empfindlichsten reagieren, die Grünzapfen hingegen auf 540 nm und die Rotzapfen schließlich auf 560 nm. Horizontal umfasst das Blickfeld des Auges rund 170°, vertikal sind es 110°.
Aber wirklich scharf sehen wir nur mit einem ganz kleinen Bereich der Netzhaut, dem sogenannten gelben Fleck, der lediglich 2° des Blickwinkels abdeckt. Hier tummeln sich ausschließlich ca. 70.000 Zapfen. Beim Sehen macht das Auge allerdings ständig minimalste Bewegungen, das Gehirn setzt die scharf gesehenen Informationen zu einem Bild zusammen – man könnte das mit einem Panoramabild vergleichen, das erst im Computer zu einem großen Bild zusammen "gestitcht" wird.
In der Summe nimmt das Auge auf diese Weise im wesentlichen horizontal rund 40° wahr, vertikal 30°. Die Auflösung beträgt dabei rund 1 Bogenminute, was horizontal 2.400 Spalten und vertikal 1.800 Zeilen entspricht. Das sind – Auflösung und Megapixel gleichgesetzt – 4,32 Megapixel. Unter der Berücksichtigung, dass eine Kamera nur 60 % bis 80 % der Megapixel wirklich als Auflösung nutzen kann, kommt man auf eine Sensorauflösung von 5,4 bis 7,2 Megapixel. Alles, was darüber ist, löst höher auf, als wir "auf einen Blick" mit dem Auge wahrnehmen können.
In Anbetracht dieser Erkenntnisse kann man in Bezug auf die Bildbetrachtung ähnliche Schlüsse ziehen. Man kann problemlos aus einem Bild einer 6-Megapixel-Kamera ein großes Poster anfertigen. Sofern man den physiologischen Betrachtungsabstand einhält, das ist der Abstand, aus dem man das Bild noch als Ganzes wahrnimmt, ist diese Auflösung völlig ausreichend. Anders sieht es selbstverständlich aus, wenn wir näher an das Bild herangehen, um einzelne Details zu sehen. Das setzt aber nicht nur eine höhere physikalische Auflösung voraus, sondern auch entsprechend gute Objektive, Bildsensoren und Bildverarbeitung. Der größte Knackpunkt sind dann die Objektive mit begrenzter Auflösung, auch durch die Objektivblende (siehe weiterführende Links) sowie die zu kleinen Bildsensoren, die bei einer zu hohen Auflösung an Bildqualität verlieren. Selbst wenn das Objektiv etc. die hohe Auflösung hergeben, sind für eine gute Bildqualität dann noch andere Dinge zu beachten, auf die wir noch in mindestens einem kommenden Fototipp eingehen werden.