Was ist RAW?

Nach der Datengewinnung werden die RAW-Daten normalerweise zunächst in einer Datei abgelegt, wobei dieses Dateiformat ebenfalls roh und insbesondere auch in keiner Weise normiert ist. RAW-Daten sind daher nicht nur von Sensortyp zu Sensortyp, sondern auch von Kameratyp zu Kameratyp unterschiedlich. Es gibt etwa so viele RAW-Dateiformate, wie es digitale Kameratypen gibt, und eine Lösung der Problematik zeichnet sich erst sehr langsam ab.

Sensor, Sensorfläche, Auflösung

Der Sensor ist eine Ansammlung einzelner lichtempfindlicher Zellen, auch Pixel genannt. Jedes dieser Pixel liefert einen Wert für die von ihm gemessene Helligkeit oder Lichtmenge. Die Auflösung, und damit auch die Qualität einer digitalen Kamera, nur mit der Anzahl der Pixel gleichzusetzen – wie es insbesondere von der Werbung und demzufolge auch von eine Reihe gutgläubiger Käufer getan wird – ist jedoch falsch, wenngleich die Pixelzahl natürlich einen deutlichen Hinweis auf die technische Bildqualität liefern kann.

Fast ebenso wichtig wie die bloße Anzahl der Sensorzellen ist deren Packungsdichte. Sind sehr viele Sensorzellen auf einer relativ kleinen Sensorfläche angeordnet, wie es häufig bei sogenannten Consumerkameras mit teilweise fantastisch klingenden Megapixelzahlen der Fall ist, können die einzelnen Zellen kaum mehr isoliert arbeiten und beeinflussen sich massiv gegenseitig.

Dabei können die Messwerte einer Zelle die Nachbarzelle stören, d. h. auf diese überspringen, und der gesamte Sensor heizt sich dadurch übermäßig auf, was deutlich erhöhtes Rauschen zur Folge hat. Dicht gepackte Pixel wirken daher eher schon wieder kontraproduktiv und lassen sich dann nur noch für Marketingzwecke sinnvoll einsetzen.

Digitale Spiegelreflexkameras besitzen einen deutlich größeren Sensor als sogenannte Consumerkameras und sind daher wesentlich unempfindlicher gegen Störungen der einzelnen Zellen untereinander.

Werden nun also auf einem Sensor der Größe 8,8 x 6,6 mm, wie sie im Bereich der Kompaktkameras üblich sind, 12 Megapixel untergebracht, müssen diese viel enger gepackt werden – und beeinflussen sich daher massiv gegenseitig – als bei einem APS-C-Format von 22 x 15 mm oder gar vollem Kleinbildformat von 24 x 36 mm.
Die 6 Megapixel einer Consumerkamera können daher in keiner Weise mit den auf den ersten Blick gleichwertigen 6 Megapixeln einer digitalen Spiegelreflexkamera verglichen werden, unterschiedliche Objektivqualitäten noch gar nicht berücksichtigt. Mitunter sind 10 Megapixel der Consumerkamera den 6 Megapixeln der Digitalkamera im Hinblick auf die Qualität der reinen Sensorausbeute gleichzusetzen.

Es gibt sogar neuere Erkenntnisse (6mpixel.org), denen zufolge mehr als 6 Megapixel in einer digitalen Kompaktkamera eher kontraproduktiv wirken und nicht mehr zu einer Verbesserung der Bildqualität im Hinblick auf Auflösung und Schärfe beitragen, sondern im Gegenteil zu einer Verringerung.

Licht auf dem Sensor – wo die Farbe herkommt

Ein Sensor ist, obwohl neben dem Objektiv der wohl wichtigste Bestandteil einer Digitalkamera, zunächst einmal ein ziemlich dummes Bauteil. Seine lichtempfindlichen Zellen können nämlich noch nicht einmal Farben sehen, sondern eigentlich nur Helligkeitswerte wahrnehmen und aufzeichnen. Die Farben einer heutigen typischen Digitalkamera sind, vereinfacht ausgedrückt, geschätzt – interpoliert, wie dies fachsprachlich genannt wird. Die Farbgebung ist bereits nicht mehr eine Leistung des Sensors und damit auch nur indirekt in der RAW-Datei enthalten, sondern eine Leistung der nachgeschalteten Software.

Im Fall eines JPEG-Prozesses erfolgt diese Farbgebung in der Kamera. Bei einem RAW-Prozess übernimmt der RAW-Konverter die Aufgabe, Farbe ins Bild zu rechnen. Da die Berechnungsmuster hinter dieser Interpolation ziemlich ausgefeilt und aufwendig sind, funktioniert dieses „Farbe ins Bild Rechnen“ heute sehr gut und kommt dem, was das menschliche Auge für „wirkliche, natürliche Farbe“ hält, sehr nahe.

Der rechenintensive Farbinterpolationsprozess läuft im Fall einer JPEG-Ausgabe in der Kamera ab, wo, bedingt durch den Kameraprozessor und die erwünschte Geschwindigkeit, Abstriche gemacht werden müssen. Findet die Farbinterpolation wie bei der RAW-Fotografie außerhalb der Kamera statt, kann auf die hohe Rechenleistung eines vollwertigen PCs zugegriffen werden, und schon allein aus diesem Grund können wesentlich hochwertigere Ergebnisse erzielt werden.

Auch ein Vorteil einer externen RAW-Verarbeitung ist hier erkennbar. Während im JPEG-Prozess die Ausgangsinformation nach der Farbinterpolation verloren ist, setzt ein RAW-Prozess immer wieder ganz am Anfang bei den rohen Lichtdaten auf.

Werden bessere Interpolationsalgorithmen entwickelt, etwa in neuen Versionen der heute eingesetzten RAW-Konverter, können vorhandene RAW-Dateien damit erneut entwickelt und die Ergebnisse gegebenenfalls noch weiter verbessert werden.

Die einfachen Sensorzellen können, wie erwähnt, nur Helligkeitsunterschiede erkennen und aufzeichnen. Damit aus diesen Helligkeitsunterschieden Farbe werden kann, sind Anhaltspunkte für das Hineinrechnen von Farbe erforderlich. Diese Anhaltspunkte erhalten die Sensoren von Farbfiltern, die vor die Sensoren gelegt werden.

Vor jede lichtempfindliche Zelle des Sensors wird genau ein Farbfilter in einer der Grundfarben Rot, Grün oder Blau gelegt. Die Sensoren „wissen“ damit nicht nur, wie hell sie beleuchtet wurden, sondern diese Lichtmenge ist zusätzlich mit der Information darüber versehen, welche der drei Grundfarben diese Lichtmenge erzeugt hat.

Bayer-Interpolation

Ein Sensor einer Digitalkamera besteht daher (in nahezu allen Fällen) nicht nur aus einer Ansammlung von lichtempfindlichen Zellen, sondern zusätzlich auch noch aus einer Schicht mit Farbfiltern, die vor der Sensorebene liegt. Diese Farbfilterschicht ist mosaikartig aufgebaut und zeigt ein regelmäßiges Muster aus den drei RGBGrundfarben. Damit wird das Lichtaufnahmeverhalten der Sensorzellen in geeigneter Weise beeinflusst, und so sind Rückschlüsse auf eingestrahlte Farben möglich.

Das hier geschilderte Verfahren, das in nahezu allen Digitalkameras (einfachen Kompaktkameras bis hin zu hochwertigen DSLRs oder sogar Mittelformat-Backends) eingesetzt wird, wurde von Bruce Bayer bereits 1975 bei Eastman Kodak entwickelt. Man spricht dabei von Bayer-Interpolation, Bayer-Matrix, Bayer-Filter, Bayer-Mosaik, aber auch von Farbinterpolation oder Demosaik-Prozess.

Ein Bayer-Filtermosaik ähnlich der Abbildung enthält regelmäßig angeordnete Filterflächen in den Farben Rot, Grün und Blau: eine Zeile, in der sich rote und grüne Filterelemente abwechseln, darauf eine Zeile, in der sich grüne und blaue Filterzellen abwechseln, insgesamt so viele Filter, wie der Sensor lichtempfindliche Zellen aufweist.

Es ergibt sich eine Filterfläche, in der Grün die Hälfte der Gesamtfläche einnimmt (doppelt so viele Grünfilter wie Rotfilter oder Blaufilter), die andere Hälfte teilen sich Rot und Blau. Von der Gesamtfilterfläche sind also 50 % grün, 25 % blau und 25 % rot.
Dies imitiert die Natur des menschlichen Sehens, in der die Netzhaut des Auges für Grün deutlich empfindlicher ist, mehr Rezeptoren für Grün enthält und damit auch ein breites Spektrum an Grüntönen unterscheiden kann.

Der direkte Weg zur Farbe

Das Ergebnis wären drei Datenreihen, eine mit allen – unterschiedlich hellen – Rotwerten, eine mit allen Grünwerten und eine mit allen Blauwerten, wobei die „Grünreihe“ doppelt so viele Messwerte enthielte wie die Rot- oder die Blaudatei. Diese drei Datenreihen müssen mit geeigneter, aber relativ einfacher Software nur noch übereinandergelegt werden, und es entsteht eine Farbdatei mit präzisen Farben direkt aus der Messung und ohne Interpolation.

In einer solchen Bilddatei setzt sich dann jeder Bildpunkt im fertigen Bild aus der Helligkeits und Farbinformation von vier Sensorpunkten zusammen – Rot, Grün1, Grün2 und Blau. Da jede Sensorzelle eine Farbinformation im Umfang von 12 Bit liefert und jeweils vier Sensorzellen die Farb- und Helligkeitsinformation eines Bildpunkts liefern, erhält man im Resultat für jeden Bildpunkt eine Informationstiefe von 48 Bit – an Präzision in Farbe und Helligkeit kaum zu überbieten.

Gravierender Nachteil dieses Verfahrens ist jedoch, dass, weil jeweils die Farb- und Helligkeitsinformation von vier Zellen zusammengenommen wird, die Gesamtausbeute der für die Bildinformation nutzbaren Zellen nur noch ein Viertel beträgt. Das bedeutet nichts anderes, als dass die Auflösung des Bildes nur noch ein Viertel beträgt. Derartige Verfahren werden in der Tat eingesetzt, jedoch nicht in den derzeit üblichen Digitalkameras der Consumer- oder Spiegelreflexklasse.

Konzentrat aus Farbpräzision und höchster Auflösung

Man möchte doch lieber jede Sensorzelle nutzen und damit die volle Sensorauflösung zur Verfügung haben – und benötigt dafür auch die vollständige RGB-Farbinformation für jeden Messwert, für jede Sensorzelle und für jeden Bildpunkt.

Da diese Information zunächst nicht da ist und auch messtechnisch nicht erfasst werden kann, muss sie anderweitig ermittelt werden. Heute eingesetzt wird daher ein Verfahren, das mittels Interpolation das Beste aus den sich widersprechenden Anforderungen „höchste Farbpräzision“ und „höchste Auflösung“ zu ermitteln versucht.

Interpolation bedeutet dabei, auf Basis bestimmter Grundannahmen und mithilfe eines mathematischen Algorithmus Informationen zu errechnen, die ursprünglich nicht vorhanden sind. Es handelt sich dabei um eine Schätzung oder Hochrechnung – man spricht bei diesem Verfahren von der Bayer-Interpolation.

Zu den Grundannahmen gehört unter anderem, dass sich zwei benachbarte Pixel, auch wenn sie durch die vorgeschaltete Filterebene einmal rot und einmal blau beleuchtet werden, in der Farbe sehr wahrscheinlich nur geringfügig unterscheiden, also immer auch ein gewisser Anteil der „Nachbarfarbe“ auftritt.

Auch die Farben des Nachbarn müssen mit ran

Zudem muss die Software natürlich dennoch Farbwechsel, insbesondere harte und abrupte Wechsel an Kanten, erkennen und verhindern, dass das Bild „vermatscht“, weil Nachbarfarben zu große Bedeutung beigemessen wird.

Dazu muss über mehr als ein Pixel in die Nachbarschaft geblickt werden, und der Berechnungsalgorithmus muss entsprechend aufwendig sein. Bei der Bayer-Interpolation liegen also Farben nie als klare Messwerte vor, sondern es werden immer auch die Nachbarpixel über einen mehr oder weniger weiten Bereich mit herangezogen.

Kantenglättung – Anti-Aliasing

Dieses Streuen auf benachbarte Sensorzellen wird nicht nur ausschließlich durch die Software des RAW-Konverters (intern oder extern) ausgeführt, sondern vor der Sensorebene sitzt zusätzlich eine weitere Filterebene, ein Anti-Aliasing- Filter (auch als Tiefpassfilter bezeichnet), der das eintreffende Licht geringfügig streut.

Würden die Sensorinformationen ohne diese künstliche Streuung ausgewertet, wäre die Gefahr groß, Farbsäume oder Moirémuster in das Bild zu bekommen. Mit dieser Streuung wird andererseits jedoch eine leichte Unschärfe erzeugt.

Dies ist der Grund dafür, dass Digitalfotos in jedem Fall leicht nachgeschärft werden müssen – was im JPEG-Prozess, der ja nichts anderes als ein in der Kamera ablaufender RAW-Prozess ist, immer gleich direkt in der Kamera geschieht und was im externen RAW-Prozess manuell gesteuert durch den RAW-Konverter auszuführen ist.

Die Notwendigkeit zum Nachschärfen einer Digitalaufnahme rührt daher nicht aus der minderwertigen Qualität von Fotograf, Objektiv oder Kamera, sondern ist systembedingt erforderlich. Zur Kunst der Kamera- bzw. Sensorhersteller gehört es, den Anti-Aliasing-Filter so zu dimensionieren, dass der gewünschte Effekt (Verhinderung von Bildartefakten wie Moiré oder Farbsäumen) zwar eintritt, aber noch nicht zu einer zu starken Unschärfe führt. In detailreichen RAW-Konvertern wie etwa SILKYPIX sind diese Parameter direkt beeinflussbar.

Empfindlichkeiten – ISO, ASA, DIN

Eine Sensorzelle reagiert mit der Messung und Registrierung eines bestimmten Helligkeitswerts auf das Eintreffen einer bestimmten Menge Licht. Die Ausgangsempfindlichkeit eines Sensors, meist auch gleichzeitig niedrigste Empfindlichkeit, ist dabei so ausgelegt, dass übliche, durchschnittliche Motive von den Sensorzellen sauber verarbeitet werden können, also weder zu wenig Signal (Untersättigung) noch einen zu hohen Signalpegel (Übersättigung) erzeugen. Die Lichtmenge, die auf den Sensor auftrifft und von diesem registriert wird, wird, wie immer schon und bei jeder Kamera, durch Blende und Belichtungszeit gesteuert.

Bei einer bestimmten Helligkeit und einer bestimmten Lichtmenge muss die korrekte Lichtmenge durch eine Abstimmung von Blende und Zeit erfolgen, wobei beide Parameter auch Auswirkung auf andere, bildgestalterische Aspekte haben. Die Blende beeinflusst u. a. die Schärfentiefe, die Belichtungszeit sowie das Verwackeln durch Kamera- und Objektbewegung.

Digitalkameras und nicht nur Spiegelreflexkameras bieten die Möglichkeit, die Empfindlichkeit dynamisch und von Bild zu Bild zu verändern, manuell oder automatisch.

Die Automatikfunktion sollte allerdings nicht genutzt werden, da sie zu eher unglücklichen, unvorhersehbaren Ergebnissen führen kann.

Rauschen

Eine Veränderung der Empfindlichkeit ist jedoch nicht anderes als eine Verstärkung der Messwerte jeder Sensorzelle und damit auch eine Verstärkung aller ungewollten Daten. Diese ungewollten Daten rühren aus Pixelfehlern des Sensors oder einfachen Messfehlern. Eine höhere Temperatur des Sensors kann zu gehäuftem Auftreten von solchen Messfehlern führen – man nennt dies „Rauschen“.

Eine Erhöhung der Empfindlichkeit ist also nichts anderes als eine Verstärkung der Messwerte. Der Fotograf muss sich darüber im Klaren sein, dass er damit zwar mehr Möglichkeiten hat, die „richtige“ Lichtmenge aufs Bild zu bekommen, aber dafür Qualitätseinbußen, insbesondere Rauschen, einkalkulieren muss.

Kurz:

  • RAW-Dateien sind (zunächst) Graustufendateien mit Aneinanderreihungen von Messwerten der einzelnen Sensorzellen.
  • Eine Erhöhung der Empfindlichkeit (ISO-Zahl) entspricht einer gleichmäßigen Erhöhung aller Messwerte bzw. einer Verstärkung der gemessenen Signale – und der Messfehler (Rauschen).
  • Farbinformation wird durch ein Filtermosaik in den Farben Rot, Grün, Blau, Grün ermittelt, wobei vor jeder Sensorzelle eine Filterfarbe platziert wird.
  • Präzise Farbmessung erfordert vier Sensorzellen und würde damit zu einer Viertelung der Sensorauflösung führen.
  • Volle Nutzung der Sensorauflösung erfordert komplette Rot-Grün-Grün-Blau-Farbinformation auf jeder Sensorzelle.
  • Da nur eine dieser Farben direkt gemessen werden kann, muss die volle Farbinformation mathematisch geschätzt (interpoliert) werden.
  • Zur Farbinterpolation wird die Farbinformation der Nachbarzellen herangezogen.
  • Ein Anti-Aliasing-Filter ist zur Streuung der Lichtinformation einer Filterzelle erforderlich, schafft aber leichte Unschärfen, die nachgeschaltet behoben werden müssen.
  • Im RAW-Konverter, der in der Kamera oder außerhalb im Computer ausgeführt werden kann, wird diese Information bei Veränderbarkeit einer Vielzahl von Parametern zu einem finalen Farbbild verarbeitet.
Passende Artikel