Aber: Je mehr Licht, umso weniger…

Intro

In der Vorbereitung zu einer Artikelserie zu Sensorik moderner Kameras habe ich gesehen, dass einer der wesentlichsten Störsignale im Bild, das Photonenrauschen, im Internet oft nur mathematisch beschrieben wird (Fotografen scheinen ganz tolle Mathematikfans zu sein) und dann sogar noch falsche Rückschlüsse daraus gezogen werden.

Weil diese Störgröße für unser Bild so wesentlich ist und auch an ganz vielen Stellen benannt wird, wenn es um die Fähigkeiten moderner Bildsensoren geht, möchte ich hier getreu meines Blog-Bereiches Lab(oratorium) anschaulich vorführen: Was es ist, woher es kommt und wie schrecklich es ist.

Was ist Licht?

Etwas ganz besonderes!

  • Ohne Licht ist es dunkel. – Wir benötigen es zur Orientierung in unserem Biotop.
  • Licht kann wärmen. – Es überträgt Energie. Unter anderem auch Wärme.
  • Licht kann zerstören. – Es überträgt Energie. Unter anderem auch hoch energetische Ultraviolettstrahlung, die Moleküle ohne Erhitzung spalten kann.
  • Licht ist ganz fix. – Nichts ist schneller im Raum unterwegs. (Ob es doch möglich sein könnte, Information schneller zu übertragen, beschäftigt noch ein Weilchen die Physiker. Vielleicht ein wenig intensiver als Kalte Kernfusion.)
  • Licht ist wie Wellen im Raum. – Deshalb funktioniert unser Objektiv.
  • Licht ist wie Teilchen im Raum. – Deshalb kann es unser Sensor aufsammeln.
  • und noch viel mehr…

Für diesen Artikel ist der letzte Punkt der Entscheidende:

Licht ist wie Teilchen. Man kann Licht zählen!

Die Eigenschaft etwas Abzählbaren

Das größte Dilemma in der Fotografie bezüglich dunklem, schlecht beleuchtetem Motiv ist der Teilchencharakter des Lichtes. Solange unsere Kamera allein aus der Information, die aus Licht gewonnen werden kann, Bilder erstellt, ist Licht die größte Grenze der Möglichkeiten.

Warum erwähne ich hier so eigenartig, dass die Kameras allein aus Licht Bilder erstellt? Es mag Fotografen die Nackenhaare aufstellen: Man kann sich Bilder auch denken. Warum nicht auch eine Kamera? Ich meine nicht die Malerei oder Grafik, die sämtlichen Bildinhalt selbst erstellt, sondern das Hirn, dass Bildbestandteile selbständig mit fehlender (angenommener) Information erweitert. Schon jetzt ersetzt Software Rauschen durch geglättete Flächen. Flaue Bilder bekommen in der Kamera mehr Kontrast. Irgendwann werden auch Inhalte hinzugefügt, die logisch sind, aber eben mit Licht nicht nachweisbar waren. Zum Beispiel Wimpern, die im Rauschen schlechten Lichts bis auf einen Ansatz unter gegangen sind. Bisher sind mathematische Algorithmen am Start für ganz simple Bildkorrektur. Zukünftig werden Informationen aus neuronalen Verarbeitungsalgorithmen hinzu kommen. Aber das nur am Rand.

Wie viel Licht?

Wir bleiben beim Licht. Bevor wir uns über die Eigenschaft des Abzählbaren her machen, sei die Frage erlaubt, wie viel Licht eigentlich von unserem Sensor innerhalb einer Belichtung aufgesammelt wird. Man kann das beantworten, in dem man die Lichtstärke am Objekt misst (Lux), wie viel davon das Objektiv passiert (Brennweiten- und Durchmesser-abhängig, sowie Entfernung) und wie viel tatsächlich im empfindlichen Pixel landet (Farbfilter und Chip-Bauelemente und -Leiterzüge vor den Pixeln nehmen nochmal etwas weg).

Ich beantworte die Frage anders herum: Moderne Sensoren können pro Pixel bei einer Belichtung mit einigen, wenigen tausend Elektronen umgehen (Smartphone-Sensoren mit kleinen Pixelflächen) oder aber auch mit einigen Zehntausend (Kleinbildformat-Sensoren). Da bereits um die 50% aller Photonen eingefangen werden, bewegen wir uns, je nach Sensor und damit auch Pixelfläche bei in der Regel einigen zehntausend Photonen. Oder auch mal über hunderttausend. Leider veröffentlichen die Hersteller nichts genaues über ihre Chips, die in Konsumer- und professionellen Fotografen-Kameras verwendet werden (man hält die Klientel offenbar für ausreichend dumm und durch Werbung und allerlei Voodoo gut beeinflussbar). Eine Rekonstruktion der wesentlichsten Daten habe ich für einen Exmor-Vollformatsensor von Sony hier probiert.

Zurück nun zum Photon, dass kein Hersteller beeinflussen kann. Nehmen wir an, unser Chip kann maximal 30.000 Elektronen pro Pixel handhaben und besitzt eine Quanteneffizienz von 60%, dann müssen ihn für eine Vollaussteuerung um die 50.000 Photonen im Pixel treffen. Bei Farbsensoren noch einige mehr, da das Filter vor dem Pixel nicht alle Wellenlängen durch lässt.

Da wir aber nach der Belichtung nur in Elektronen „denken“ können, also nur Elektronen verarbeiten, gehen wir davon aus, dass uns im besten Fall um die 30.000 Elektronen zum Zählen der Lichtmenge zur Verfügung stehen, wenn wir maximal Licht auf den Sensor bekommen (in der Regel bei ISO 100). Gute Sensoren schaffen es, aller 2 Elektronen das unterste Bit des Analog-Digitalwandlers weiterzuschalten. Grob gesagt gilt für gute Sensoren: 4 Photonen erzeugen 2 Elektronen, die das unterste Bit unseres „Photonenzählers“ um ein Digit weiter schalten. Wenn wir maximal 30000 Elektronen zählen müssen, benötigen wir einen „Zähler“, der wenigstens bis 15000 geht. Dazu reichen 14 Bit. Die Umwandlung erfolgt allerdings nicht durch abzählen. Man kann es sich eher wie ein Wiegen der elektrischen Ladung vorstellen.

Das ist nun die Ausgangsbasis für die folgenden Laboratoriums-Experimente.

Wie verteilen sich „im Mittel 30.000 Elektronen“ tatsächlich auf den Sensor?

Jetzt kommen wir zur Wirkung der Abzählbarkeit.

Ob wir im Weiteren von Photonen sprechen oder von Elektronen oder vom Wert, den der Analog-Digitalwandler aus gibt, ist dabei fast egal. Letztlich liegt da jeweils nur ein Skalierungswert dahinter und eine etwas gröbere Auflösung der Photonenzahl.

Die Photonen fallen ein

Während der Belichtung fallen die Photonen, passend abgelenkt durch das Objektiv, auf die hoffentlich richtigen Pixel. Unterteilen wir unsere Beobachtungszeit dieses Vorgangs in beliebig kleine Zeitabschnitte, ist es, als ob hin und wieder ein Photon an kommt und dieses oder jenes Pixel trifft. Je weniger Licht oder je kürzer die Zeit, um so weniger Photonen treffen unsere Pixel.

Bei einer gleichmäßig ausgeleuchteten Fläche erreicht im längeren Mittel jedes Pixel gleich viele Photonen. Sehen wir uns den Vorgang ganz fein zeitaufgelöst an, füllen sich die Pixel aber rein zufällig. Weil auch die Photonen zwar gleichmäßig verteilt, aber doch zufällig eintreffen. Das führt dazu, dass die Pixel nie genau die gleiche Anzahl an Photonen empfangen haben. Bei einigen Pixeln trafen etwas mehr als der Mittelwert ein, bei einigen etwas weniger.

Das schauen wir uns zuerst mal praktisch an:

16×16 Pixel bekommen Photonen ab

Wir greifen uns einen kleinen Sensorausschnitt von nur 16×16 Pixeln heraus. Wir können uns auch so viele kleine Kartonkästchen vorstellen, die wir zusammen stellen und in die wir versuchen, möglichst gleichmäßig Bälle hineinzuwerfen. Nichts anderes habe ich in eine Simulation programmiert, deren Ergebnisse wir uns jetzt ansehen.

Da wir Helligkeitsunterschiede sehr gut im mittleren Grau unterscheiden können, werfe ich so viel „Bälle“, dass die Pixel bezogen auf den Maximalwert ein mittleres Grau annehmen. Im Folgenden ist dieser mittlere Grauwert, eigentlich unser Zielwert beim Werfen der Bälle, wenn in den Pixeln je 10 Bälle aufgefangen werden. Weiß entspricht 20 und mehr Bälle. Bei 16×16 Pixeln müssten wir eigentlich 256*10 = 2560 Bälle gleichmäßig aufteilen. Und mein Simulationsprogramm gibt sich wirklich Mühe, die Bälle gleichmäßig zu werfen. Wir erhalten leider folgende Bälleverteilung:

im-mittel-10-baelle-weiss-sind-20-baelle

2560 Bälle ganz gleich verteilt in das Feld geworfen ergeben diese Verteilung.

Wir brauchen mehr Bälle!

Wir versuchen mal so viele Bälle zu werfen, dass in jedem Kästchen (im Mittel) 20 Bälle liegen. So lange kein Kästchen überläuft, benötigen wir dazu 256*20 = 5120 Bälle. (In der Simulation verwerfe ich die Bälle, die bereits in vollen Kästchen von hier der doppelten Bällezahl (40 Bälle = weiß) ankommen. Das macht auch unser Sensorpixel, wenn es genug hat. Es nimmt keine Weiteren mehr auf.

Also: Bälle werfen und schauen:

im-mittel-20-baelle-weiss-sind-40-baelle

Das sieht schon ein wenig einheitlicher aus. Wir verdoppeln noch einmal die Bällezahl pro Pixel: Im Mittel sollen nun 40 Bälle in jedem Kästchen sein. Weiß entspricht nun 80 Bällen:

im-mittel-40-baelle-weiss-sind-80-baelle

Wieder etwas besser. Ich habe nicht umsonst zwei mal genau verdoppelt: Eine Verdopplung entspricht einem Lichtwert. Also zum Beispiel doppeltes Licht oder doppelte Belichtungszeit.

Dass die 256 Pixel so schrecklich verrauscht sind, trifft uns auch in der Fotografie. Denn wir haben hier bereits ziemlich realistische Bälle geworfen.

Wir werfen Photonen

Zuerst simulieren wir mal einen durchschnittlichen Smartphonesensor. Und zuerst verwenden wir genügend Licht. So viel, dass nichts verstärkt werden muss (entspricht bei ISO-Angaben meist einem Wert von 100 ISO). Wir nehmen mal an, dass der Sensor eine optisch wirksame Pixelfläche von 1,5µm x 1,5µm = 2,25µm² besitzt und in den physikalischen Eigenschaften einem qualitativ hochwertigen Exmor-Sensor entspricht. Solch ein Sensor kann bei einer Pixelfläche von 5,9µm x 5,9µm = 35µm² z.B. rund 32000 Elektronen aufsammeln. Danach ist das Pixel gesättigt. Es können keine weiteren Photonen gezählt werden.

Dass es im CMOS-Sensor genau umgedreht ist: Mehr Photonen, weniger verbleibende Elektronen, habe ich hier genau beschrieben. Der Einfachheit halber spreche ich aber hier weiterhin davon, dass Elektronen bei Lichteinfall gesammelt werden. Rein rechnerisch läuft es am Ende nämlich auf das Gleiche hinaus.

Wenden wir diese Geometrie auf die nur 2,25µm² an, kann unser Smartphonesensorpixel maximal um die 2060 Elektronen speichern. Das sei jetzt unser Weiß. Wir werfen nun so viel Photonen, dass sich im Mittel 1030 Elektronen (mittleres Grau vor der Umwandlung in den sRGB-Farbraum) in den Pixeln sammeln. Gesagt, getan:

smartphone-mit-1030-elektronen-weiss-sind-2060-elektronen

Das hier ist das beste, gleichförmige Grau, dass unser Sensor „kann“. Und zwar nur deshalb, weil die Photonen sich nicht untereinander absprechen, sondern zufällig auf den Sensor treffen. Ein zusätzliches Rauschen der Sensorelektronik ist hier idealisiert mit Null angenommen!

Dass unsere Smartphonebilder meist doch sehr „glatt“ aussehen, liegt an der digitalen Rauschminderung vor der Umwandlung in ein JPG. Denn meist sehen wir den 5 Megapixeln oder mehr nicht auf einen so derartig kleinen Ausschnitt, wie hier.

Wir verändern jetzt mal unser Licht.

Beach-Evening

Die Sonne geht gerade unter und der vormals gut beleuchtete Strand dunkelt sich ab. Kein Problem für unseren Smartphonesensor. Damit sein Analog-Digitalwandler wieder bestmöglich ausgenutzt wird und keine Stufen entstehen können, dreht das kleine Kameramodul die Verstärkung hoch. Nehmen wir mal an, von ISO 100 auf ISO 1600. Mehr macht bei einem solchen Sensor wenig Sinn, wie wir gleich sehen werden. ISO 1600 entspricht einem Verstärkungsfaktor von 16 (einfach die ISO durch 100 Teilen). Damit entspricht nun Weiß nicht mehr 2060 Elektronen im Pixel, sondern nur noch 128. Unser Grau soll wieder die Hälfte davon sein und wir werfen nun so viele Photonen, dass im Mittel 64 Elektronen in jedem Pixel aufgesammelt werden:

smartphone-mit-64-elektronen-weiss-sind-128-elektronen

Auch das macht das Smartphone. Allerdings jetzt mit ordentlichem Rauschen.

In der Regel kommt hier nun noch ein wenig weiteres Rauschen durch die Elektronik im Chip dazu (um das mal vereinfacht auszudrücken), dass bei mehr Licht nicht ganz so auffällig ist. Dieser Rauschanteil ist hier immer noch nicht berücksichtigt. Denn in diesem Artikel geht es ausschließlich um das statistische Rauschen durch die einfallenden Photonen.

Brauchen wir mehr Licht?

Aber immer! Nur bekommen wir es meist nicht. Ohne Schnee erreichen wir letztlich bei hoch stehender Sonne um die 100.000 Lux. Da können wir wenigstens schon mal Abblenden und die Belichtungszeit auf ein angenehmes Maß für das Fotografieren aus der Hand wählen. Nur, wo haben wir das schon? Alleine ein Blätterdach unter dieser Sonne dämpft gewaltig.

Aber mehr Licht nutzt unserem Pixel auch nur begrenzt: Irgendwann ist es physikalisch nicht mehr in der Lage noch mehr Elektronen aufzusammeln. Es läuft über. Das ist auch der oben schon verwendete Wert von wenigen Tausend Elektronen bei kleinen Pixeln und um die 32000 Elektronen bei Pixeln mit 5,9µm Kantenlänge. Hier beißt sich vor allem Pixelgröße und Pixelzahl. Diese 5,9µm ergeben bei 24 Megapixeln schon einen Kleinbildformatsensor. Für noch größere Sensoren müssen wir auch noch mehr Glas mit uns herumschleppen. Mittelformatsensoren erlauben hier noch Spielraum. Allerdings wird der dort durch die üblicherweise noch höhere Pixelzahl auch aufgefressen. Pixel mit 8µm Kantenlänge sind noch realistisch. Vergleichen wir hier noch mal 3 Varianten unter optimalen Lichtbedingungen:

  • Ein APS-C-Sensor mit 3,5µm Pixel-Kantenlänge (12,25µm²)
  • Ein Kleinbildformatsensor mit 6µm (36µm²)
  • Ein Mittelformatsensor (oder Kleinbildformatsensor geringer Auflösung) mit 8µm (64µm²)

Wir nehmen wieder die etwa 32000 Elektronen pro 35µm² als einen realistischen Wert an. Das mittlere Grau bei optimalen Beleuchtungsbedingungen sieht nun in den 3 Fällen so aus:

12,25µm²/ISO100:

5444-elektronen-fuer-grau-10888-elektronen-ist-weiss

36µm²/ISO100:

16000-elektronen-fuer-grau-32000-elektronen-ist-weiss

64µm²/ISO100:

28444-elektronen-fuer-grau-56888-elektronen-ist-weiss

Das sieht schon recht schön aus.

Zum Vergleich 6400 ISO

Die gleichen Chips simulieren wir jetzt unter solchen Lichtbedingungen, wo wir ISO 6400 einstellen müssen, um den Analog-Digitalwandler optimal auszusteuern. (Falls wir das nicht tun, müssen wir später das Bild digital verstärken. Das geht auch. Allerdings verlieren wird dabei das Auflösungsvermögen des Chip-internen Analog-Digitalwandlers etwas, weswegen es besser ist, den ISO-Wert ausreichend hoch zu drehen. Denn Verlust an Auflösungsvermögen fügt uns sonst noch zusätzliches Digitalisierungsrauschen hinzu.)

12,25µm²/ISO6400:

full-well10888-iso64000

36µm²/ISO6400:

full-well32000-iso64000

64µm²/ISO6400:

full-well56888-iso64000

Photonenrauschen am Graukeil

Nun sahen die Bilder der Simulationen recht bedenklich aus. Kein Wunder, wenn man jedes Pixel auf das 16-fache vergrößert. Um das Photonenrauschen noch einmal unter realistischen Bedingungen beurteilen zu können, füge ich hier zu allen oben gemachten Simulationen noch einen simulierten Graukeil ein. Die Bildauflösung ist dabei genau 100%.

  • 2560 Bälle gesamt ergaben 10 Bälle (Elektronen) für ein mittleres Grau
    20-baelle-full-well
  • 20 Bälle (Elektronen) für ein mittleres Grau
    40-baelle-full-well
  • 40 Bälle (Elektronen) für ein mittleres Grau
    80-baelle-full-well
  • 1030 Elektronen für ein mittleres Grau (Smartphone-Beispiel bei ISO 100)
    2060-elektronen-full-well-gain-ist-1-iso-100
  • 64 Elektronen für ein mittleres Grau (Smartphone-Beispiel bei ISO 1600)
    2060-elektronen-full-well-gain-ist-1-iso-1600
  • 12,25µm² Pixel-Sensor bei ISO100
    10888-elektronen-full-well-gain-ist-1-iso-100
  • 36µm² Pixel-Sensor bei ISO100
    32000-elektronen-full-well-gain-ist-1-iso-100
  • 64µm² Pixel-Sensor bei ISO100
    56888-elektronen-full-well-gain-ist-1-iso-100
  • 12,25µm² Pixel-Sensor bei ISO6400
    10888-elektronen-full-well-gain-ist-1-iso-6400
  • 36µm² Pixel-Sensor bei ISO6400
    32000-elektronen-full-well-gain-ist-1-iso-6400
  • 64µm² Pixel-Sensor bei ISO6400
    56888-elektronen-full-well-gain-ist-1-iso-6400

Vergleich mit der Realität

Damit wir sehen, ob die für die Simulation getroffenen Annahmen halbwegs stimmen, habe ich hier einen Vergleich vorbereitet.

Aufgenommen wurde ein mittlerer Grauton unter guten Lichtbedingungen (ISO) mit einer Sony Alpha 99, die entsprechend dieser Voraussetzung etwa eine full-well-Ladung von um die 32000 Elektronen haben müsste. Wir vergleichen also mit dem 16×16 Pixel-Bild „36µm²/ISO100“ von oben.

Damit uns die Demosaicing-Methode durch Interpolation keine geringere Rauschamplitude vortäuscht, habe ich das Bild zuerst mit RawTherapee als 16×16-Pixel-Ausschnitt unter Abschaltung des Demosaicing in PNG 16-Bit exportiert und mit Photoline die Intensität der 3 Farben gegeneinander per Hand abgeglichen. Hier nun die Gegenüberstellung:

simuliertes 36µm²/ISO6400 Bild vergleichbare Aufnahme mit der Alpha99
full-well32000-iso64000 dsc05509rth_16x16_256x256

Die Vergleichsaufnahme zeigt ein geringeres Rauschen als in der Simulation. Das kann verschiedene Gründe haben. Es gibt bereits vor der ersten rückseitig belichteten Sensorgeneration bei Sony schon 4 Exmor-Generationen. In der 4. Generation wurde die Schichtdicke der Photodiode deutlich vergrößert. In den 3 Generationen davor wurden die Schichtdicken der Bauelementebenen über der Fotodiode schrittweise reduziert. Möglicherweise ist beim Sensor der Alpha99 die Full-Well-Ladung deutlich höher als 32.000 Elektronen. Völlig unbekannt ist, in wie weit die Sensordaten vor der Ablage in das RAW-File verrechnet werden. Das es nicht die Original-Werte vom Analog-Digitalwandler sein können ist klar, weil Sony die Daten schwach verlustbehaftet komprimiert, um die Filegröße zu begrenzen1. Demzufolge kann hier bereits ein moderates Rauschminderungsverfahren mittels Firmware arbeiten. Warum nicht? Ich würde das als Entwickler auch implementieren. Je früher in der Verarbeitungskette, um so besser.

Voodoo um das Photonenrauschen

Was erst mal kein Voodoo ist, ist der Fakt, dass bei modernen Sensoren das Photonenrauschen der wesentlichste Rauschanteil ist. Für dieses Rauschen kann kein Sensor etwas! Es ist physikalisch bedingt durch die wesentliche Eigenschaft von Licht, in kleinen Bruchstücken aufzutreten (Teilchencharakter).

Bei höheren ISO-Werten kommen dann noch zusätzlich andere Rauschfaktoren dazu, da die dann noch zu verarbeitende Elektronenzahl recht gering ist und jedes weitere (oder abdriftende) Elektron zusätzlich zum Rauschen beiträgt. Bei modernen Sensoren ausreichender Pixelgröße ist selbst das mit den übliche ISO-Werten und Belichtungszeiten nahezu vernachlässigbar. Astro- und Nachtfotografie mit extrem langen Belichtungszeiten ausgenommen.

Blödsinn ist natürlich, dass das Photonenrauschen vor allem in hellen Bildbereichen für das Rauschen verantwortlich ist. Innerhalb eines Bildes ist der Verstärkungswert (ISO) konstant. Andere Rauschanteile haben damit innerhalb eines Bildes keine wahrnehmbar höheren Anteile.

Statt dessen wird der Rauschanteil des Photonenrauschens bezogen auf den Mittelwert, den wir hätten, wenn Licht ein Kontinuum wäre, in dunklen Bildbereichen (also den mittleren Helligkeitswert in diesen Bereichen) größer. Allerdings „sehen wir das anders“. In besonders dunklen, wie auch hellen Bildbereichen sehen wir solche Helligkeitsunterschiede nicht so empfindlich. Dazu kommt, dass mit den Farbprofilen, wie sRGB, das wieder etwas ausgeglichen wird. Die Physik, wie die Mathematik der Farbräume, mixen hier also ziemlich viel durcheinander.

Wenn der höhere Rauschanteil in dunklen Bildbereichen nicht so sehr sichtbar ist, gilt das für die „Bildentwicklung“ nicht: Wollen wir da noch Details aus Schatten und Lichtern holen, dann fällt es uns auch auf die Füße, denn dann verstärken wird das Rauschen dort.

Und es ist auch praktisch anders: Wir wählen unter den gegebenen Bedingungen immer den passenden ISO-Wert, um optimal zu digitalisieren. Das heißt: Wir werden gezielt bestmöglich verstärken. Und damit wird vor allem das Photonenrauschen immer schlimmer, je mehr wir verstärken müssen.

Zusammenfassend

  • Photonenrauschen ist auch in gut ausgeleuchteten Szenarien sichtbar, wenn das Pixel zu klein ist. (Nahezu ideal wären wirksame Pixelflächen ab um die 100µm².)
  • Photonenrauschen wird um so stärker sichtbar, je höher wir den ISO-(Verstärkungs)Wert drehen müssen. Und zwar nicht wegen der hohen Verstärkung, sondern wegen der geringeren Zahl an Photonen und der damit schlechteren „Statistik“. Also der schlechteren Mittelwertbildung (Integration) des Pixels. Ein niedriger eingestellter ISO-Wert würde das natürlich nicht verbessern, sondern vergrößert zusätzlich noch das Rauschen durch die Digitalisierung.
  • Gegen Photonenrauschen helfen genau zwei Dinge:
    • Mehr Photonen im Pixel durch ein größeres Öffnungsverhältnis des Objektivs und eine längere Belichtungszeit (alles nicht Chip-abhängig) sowie einer größeren Pixelfläche (bedeutet wiederum mehr Glas für den gleichen Aufnahmewinkel bei gleicher Auflösung (Megapixel)).
    • Eine durch das Pixel höhere Aufnahmefähigkeit von Elektronen. Das ist Chipdesign. (Erlaubt längere Belichtungszeit bzw. größere Blende, ohne dass das Pixel in die Sättigung geht.)

 

 

 

  1. 24 Megapixel zu 12 Bit würden (gepackt auf 3 Byte pro 2 Pixel) 36 Megabyte ergeben. Die Raw-Files der Alpha99 sind jedoch nahezu einheitlich in die 24MByte groß. Also auf 2/3 reduziert. Das ist definitiv kein verlustfreies Verfahren.