Foveon Sensor
Kommt jetzt der Durchbruch?
2007-04-16 Diese Meldung machte kürzlich unter Experten die Runde: Der japanische Technologie-Konzern Fujitsu bringt einen neuen leistungsstarken DSP (Digital Signal Processor) auf den Markt, der neben den üblichen Sensoren mit Bayer-Farbfiltern auch die Foveon-Sensoren sowie Kameras mit der 3-CCD-Technologie unterstützt. Bisher hatten Kameras mit dem von der Foveon, Inc. aus Santa Clara/Kalifornien entwickelten Foveon-Sensor eher ein Mauerblümchendasein gefristet. Der Marktanteil war verschwindend klein im Vergleich zu den dominanten Bayer-Sensoren (sowohl CCD als auch CMOS). Das könnte sich nun bald ändern. Denn mit der Verfügbarkeit dieses offenbar leistungsstarken Fujitsu-DSPs haben Kamerahersteller nun bessere Vorraussetzungen, einen Foveon-Sensor in neue Modelle zu integrieren. Und wenn man den Gerüchten im Internet Glauben schenken darf, dann können wir vielleicht noch in diesem Jahr eine Foveon-Kamera von einem der großen Hersteller erwarten. (Wilfried Bittner)
Die Fangemeinde des Foveon-Sensors ist groß, denn die Vorteile sind überzeugend: Im Gegensatz zu den gängigen Bayer-Sensoren ist die Bildverarbeitung wesentlich einfacher und sauberer. Daher erscheint es eigentlich eher komisch, dass es für die Kamerahersteller einfacher ist, DSP-Chips für den komplizierten Bayer-Sensor zu finden als für den simplen Foveon-Sensor.
Tatsächlich sind die Sensoren mit dem Bayer-Mosaik als Farbfilter einfach herzustellen, aber die anschließende Bildverarbeitung ist kompliziert und mit unschönen Artefakten behaftet. Die Technologie ist jedoch schon sehr ausgereift und daher weit verbreitet. Der Foveon-Sensor ist dagegen etwas komplizierter im Aufbau – mit drei Lagen übereinander gestapelt – aber die Bildverarbeitung ist unkompliziert und liefert saubere Ergebnisse. Diese Technologie ist jedoch noch relativ neu und daher wenig verbreitet.
Bei Videokameras gibt es noch eine andere Variante, die Probleme mit dem Bayer-Farbfilter zu umgehen: Mittels aufwändiger Prismen und mithilfe von dichroitischen Filtern wird der Strahlengang in die drei Farbkanäle Rot, Grün und Blau aufgespalten und auf jeweils einen eigenen Sensor gelenkt. Das geschieht derart in so genannten 3-CCD-Videokameras (es gibt auch Modelle mit CMOS) für die Profis und die anspruchsvollen Amateure. Diese Technologie ist schon sehr ausgereift, aber auch relativ teuer und aufwändig in der Herstellung. Der erforderliche gewaltige Prismenblock ist auch ein Problem für die Optik. Bei fest eingebauten Objektiven kann dieser Glasblock in die optische Rechnung mit einbezogen werden. Bei den derzeitigen Spiegelreflex-Systemkameras mit den bereits vorhandenen Objektiven würde dieser Glasblock katastrophale Abbildungsfehler verursachen (Astigmatismus). Wie sehr schon eine Glasplatte mit nur 1-2 mm die Bildschärfe beeinträchtigen kann, erkennt man an der Entscheidung von Leica, bei der digitalen Leica M8 auf den Tiefpassfilter vor dem Sensor ganz zu verzichten und selbst den Infrarotfilter so dünn wie möglich zu halten – was aber letztlich zu einem anderen Problem mit verfälschten Schwarztönen führte (die Leica-Kunden kriegen daher jetzt kostenlos zwei extra IR-Filter für die Objektive geliefert). Obendrein würde dieser Prismenblock auch dem Sucherspiegel in die Quere kommen.
Doch was genau sind die Probleme des Bayer-Mosaikfilters? Es geht hauptsächlich um Farb-Moirés und den Tiefpassfilter, der diesen bildstörenden Effekt verhindern soll. Farb-Moiré sieht man manchmal in Bildern mit Zäunen, Gittern oder bei Stoffmustern in der Kleidung.
Zur besseren Anschaulichkeit wurde ein Siemensstern mit einer einfachen WebCam fotografiert. Solche WebCams haben nämlich haben aus Kostengründen normalerweise keinen optischen Tiefpassfilter.
|
|
So schlimm sieht das Ergebnis bei 100% Zoomfaktor aus, wenn das Objektiv ausreichend scharf und genau fokussiert ist (Bild 1). Die Kanten sind scharf, aber bei den feineren Strukturen kommt es zu den unschönen Farbartefakten (die Originalvorlage ist rein schwarz-weiß). Wenn man nun bei demselben Versuchsaufbau das Objektiv ein klein wenig defokussiert, dann sieht es so aus wie in Bild 2. Die Schärfe ist eindeutig im "Eimer", aber die störenden Farbartefakte sind auch weitgehend weg. Auf diesem Prinzip basiert auch der optische Tiefpassfilter.
Wie kommt es nun zu diesen unschönen Farbmoirés? Ein weiterer Test hilft bei der Erklärung. Dazu wird mit derselben WebCam eine Lochmaske fotografiert, die auf einem Leuchttisch liegt (linkes Bild 3). Bei geeigneter Entfernung und gutem Fokus produziert die WebCam, die – wie schon erwähnt – keinen optischen Tiefpassfilter hat, das bunte Bild 4 rechts (100% Zoom).
|
|
Alle Löcher im Sieb sind sichtbar, aber die Farben spielen verrückt. Wenn man nun vor der Lochmaske einen Farbfilter anbringt (im linken Bild 5 mit Blaufilter), dann wird deutlich, dass das Bayer-Mosaik der WebCam sogar Bilddetails verschwinden lassen kann – wiederum, weil kein Tiefpassfilter bei ihr eingebaut ist (rechtes Bild 6, 100% Zoom).
Hier folgt nun eine bildliche Erklärung für dieses Phänomen. Zuerst der Fall mit den weißen Bildpunkten:
- Weißes Licht fällt nur auf das blaue Pixel => im resultierenden Bild erscheint der weiße Lichtpunkt blau (die rote und grüne Komponente des weißen Lichtes haben keine Wirkung),
- Weißes Licht fällt gleichmäßig auf alle 4 Pixel R+G+B+G => der Lichtpunkt erscheint nach den Regeln des Bayer-Mosaikfilters korrekt als weiß (oder neutral-grau, je nach Helligkeit),
- Weißes Licht fällt nur auf ein rotes und ein grünes Pixel => der weiße Lichtpunkt erscheint gelb (Rot + Grün = Gelb, und die blaue Komponente hat keine Wirkung)
Also je nachdem, wohin das Objektiv gerade den weißen Lichtpunkt auf den Sensor projiziert, gibt es hinterher im Bild verschiedenfarbige Punkte. Als nächstes nun zum zweiten Fall mit den blauen Bildpunkten:
- Der blaue Lichtpunkt fällt genau auf ein blaues Pixel => Glück gehabt, der blaue Lichtpunkt erscheint auch im Bild blau
- Der blaue Lichtpunkt fällt gleichmäßig auf die 4 Pixel R+G+B+G => auf den zwei grünen und dem einen roten Pixel hat das blaue Licht keine Wirkung, nur auf dem Blauen. Weil aber nur ein Viertel des Lichtpunktes auf dem blauen Pixel landet, erscheint er als ein schwacher (dunkler) blauer Punkt
- Der blaue Lichtpunkt fällt nur auf ein rotes und ein grünes Pixel => auf beiden hat das blaue Licht keine Wirkung, und der blaue Lichtpunkt erscheint schwarz, d. h. er fehlt im Bild.
Also je nachdem, wohin das Objektiv gerade den blauen Lichtpunkt auf den Sensor projiziert, gibt es hinterher im Bild entweder einen vollen, einen schwachen oder gar keinen blauen Punkt.
Wie löst nun ein Tiefpassfilter diese Probleme und wie funktioniert er? Die oben dargestellten Farbartefakte verschwinden mit zunehmender Unschärfe des Objektivs oder wenn das Objektiv defokussiert ist. In der Fotografie jedoch will man natürlich möglichst scharfe Objektive und scharf fokussierte Bilder. Der Tiefpassfilter erlaubt es dem Kamerahersteller nun, die Schärfe des Objektivs voll auszunützen, und exakt bei der kritischen Nyquist-Frequenz (bei der sich ein Linienpaar der optischen Auflösung genau mit einem Pixelpaar deckt) die Bildschärfe so zu begrenzen, dass der kleinste (schärfste) Lichtpunkt auf dem Sensor immer mindestens 2 oder 4 Pixel belichtet (siehe Bilder 9 und 10).
Hierzu bedient man sich des Effektes der Doppelbrechung (Birefringenz), wie sie in praktisch allen Kristallen auftritt. Z. B. Kalkspat hat eine starke Doppelbrechung. Aus praktischen Gründen wird für die Digitalkameras jedoch Quarzglas verwendet.
Bild 11 zeigt einen CCD-Sensor mit montiertem Tiefpassfilter. Die rote Beschichtung ist der "Hot Mirror", der das sichtbare Licht durchlässt und das langwellige Infrarotlicht reflektiert. Wenn man genau hinsieht, dann erkennt man die drei Lagen Glas, die zusammengekittet sind (erste Quarzplatte + Wellenplatte + zweite verdrehte Quarzplatte). Ein leidiger Nebeneffekt des Tiefpassfilters ist jedoch die begrenzte Schärfe: Durch die zweifache oder vierfache Aufspaltung der Lichtstrahlen verringert sich die maximal erreichbare Schärfe einer Digitalkamera. Das ist eben der Kompromiss, um die unschönen Farbartefakte zu vermeiden. Mit den immer winziger werdenden Pixeln der Digitalkameras wird sich dieses Thema bald von selbst erledigen – zumindest bei den Kompaktkameras: Samsung hat gerade einen 8-Megapixel CMOS-Sensor vorgestellt, dessen Pixel nur noch 1,4 µm x 1,4 µm groß sind. Mit derart winzigen Pixeln werden die Hersteller sehr bald an die natürliche Auflösungsgrenze der Objektive stoßen (siehe dazu Bild 12).
Diese Diagramme der Energieverteilung wurden auf ein Gitter von 5 x 5 Pixeln mit einer Pixelgröße von 1,4 µm x 1,4 µm projiziert. Wie man sieht, braucht man bei Blende 5,6 gar keinen Tiefpassfilter mehr. Obige Werte gelten für sichtbares Licht. Mit kurzwelligem UV-Licht und größeren Blenden kann man noch kleinere Lichtpunkte erzeugen.
Die problematischen Eigenschaften der Bayer-Sensoren wurden damit nun ausreichend erklärt und dargestellt. Und genau diese sind der Hintergrund dafür, dass die Gemeinde der Digitalfotografen so sehr am Foveon-Sensor interessiert ist. Wie bereits allseits bekannt ist, braucht sich dieser X3-Sensor nicht die Farbinformation aus vielen umliegenden Pixeln umständlich zusammenrechnen (zu interpolieren), sondern jedes einzelne Pixel kann die volle Farbinformation direkt auswerten. Das Ergebnis sind Bilder mit sauberen feinen Details ohne Artefakte.
Nach den Skizzen in den zahlreichen Patentschriften von Foveon kann man sich den Aufbau eines Pixels im Foveon-Sensor wie in den Bildern 13 und 14 vorstellen.
|
|
In der linken Darstellung (Bild 13) sind die drei Bereiche für Blau, Grün und Rot entsprechend eingefärbt, aber es handelt sich in Wirklichkeit um farbloses Silizium (der oberste kleine weiße Fleck stellt eine Elektrode dar). Bei diesen geringen Schichtdicken ist Silizium noch teilweise lichtdurchlässig. Und genau das ist das Geniale an diesem Foveon-Sensor! Es werden keine Farbfiter benötigt, denn das Silizium absorbiert bei verschiedenen Schichtdicken verschiedene Wellenlängen unterschiedlich, und bei zunehmender Schichtdicke erhöht sich auch die Absorbtionsrate. Das passt nun alles wunderbar zusammen:
- In der obersten Schicht (0,6 µm dick) werden hauptsächlich die Photonen im blauen Wellenlängenbereich absorbiert und in das Signal für den blauen Farbkanal verwandelt
- in den folgenden 1,4 µm (von 0,6 – 2 µm) werden hauptsächlich die Photonen im grünen Wellenlängenbereich absorbiert und in das Signal für den grünen Farbkanal verwandelt
- was dann noch von den Lichtquanten übrig bleibt (Rot), wird im untersten Bereich absorbiert und in das Signal für den roten Farbkanal verwandelt.
Ein weiterer Nachteil des Bayer-Sensors ist schließlich der Umstand, dass die Farbfilter Licht schlucken. Der Filter über jedem Pixel lässt ja nur eine der drei Farbkomponenten des weißen Lichtes durch, die anderen zwei Drittel werden absorbiert und bleiben damit ungenutzt (siehe Bild 15).
Beim Foveon-Sensor hingegen werden bei jedem Pixel alle drei Farbkomponenten genutzt. Theoretisch ist das ein gewaltiger Vorteil, aber in der derzeitigen Generation ist dieser Vorteil noch nicht so recht ausgereizt. Die Sigma SD14 geht nur bis entsprechend ISO 1.600, während eine Canon EOS-1D Mark III mit Bayer-CMOS-Sensor sich bis ISO 6.400 vorwagt – und das, obwohl die Pixel von der Canon noch etwas kleiner sind als diejenigen der Sigma SD14 (7,4 µm gegenüber 7,8 µm). Aber der Foveon-Sensor ist ja noch relativ jung; wenn da noch ein zahlungskräftiger Entwicklungspartner mit nachhilft, dann können wir in naher Zukunft in diesem Bereich noch einiges erwarten.
Was die Definition der Auflösung angeht, hat Foveon hat einen schweren Stand im Rennen um die Megapixel. Die Zahl der effektiven Pixel im Sensor der Sigma SD14 ist "nur" 4,6 Millionen. Aber da ja pro Pixel alle drei Farben verarbeitet werden, wird mit 4,6 x 3 = ungefähr 14 Megapixeln geworben. Was eigentlich korrekter wäre, ist, den Bayer-Sensoren eine angemessen kleinere Zahl von Megapixeln zuzuschreiben, welche der erreichbaren Bildinformation entspricht – was aber bestimmt kein Hersteller tun wird. Eine Canon EOS 5D zum Beispiel hat 12,7 Megapixel, aber ihre gemessene Auflösung ist 2000 Linien vertikal und 3450 horizontal, was eine Bildinformation von nur knapp 7 Megapixeln ergibt. Dabei ist diese Canon durchaus ein gutes Beispiel; andere Kameras mit Bayer-Sensoren haben ungünstigere Verhältnisse von Pixelzahl zu Bildinformation.
Der Foveon-Sensor hingegen kann die tatsächliche Pixelzahl zu 100% in Bildinformation umsetzen. Kodak hatte vor sechs Jahren eine spektakulär hoch auflösende 6-Megapixel Spiegelreflex, die DCS 760m. Der Trick? Die Kamera hatte keinen Bayer-Farbfilter und konnte nur schwarz-weiß schießen. Foveon hat diesem Trick noch eins draufgesetzt und vereinigt hohe Auflösung mit voller RGB-Farbe. Mal schauen, was draus wird.