Willkommen

Vom Bild zum Bild


Wie nimmt eine Kamera ein Bild auf?

Einleitung

Wenn eine Kamera einen Moment für eine spätere Betrachtung festhalten soll, ist ein komplexes Zusammenspiel von Bauteilen innerhalb der Kamera notwendig. Dieses komplexe Zusammenspiel geschieht in Bruchteilen einer Sekunde und ist für den Benutzer der Kamera – ohne genauere Nachforschung, schwer zu verstehen. Doch wie genau kann eine Kamera einen vergänglichen Moment zu einem Zeitzeugnis für die Ewigkeit machen?
Auf genau diese Frage möchte ich in den folgenden Seiten eingehen und erklären, wie ein Bild entsteht, welche Aufgaben die einzelnen Bauelemente haben und den Weg vom Betätigen des Auslösers bis hin zur Erstellung der Datei auf dem Speichermedium erklären.

 

Der Aufbau einer Kamera und Ablauf einer Aufnahme
 
Das Grundprinzip einer Kamera lässt sich leicht am stark vereinfachten Aufbau einer Lochkamera erklären. Durch eine kleine Öffnung (Linse) fällt Licht auf ein Fotopapier. Auf diesem lichtempfindlichen Papier entsteht dann durch eine chemische Reaktion ein spiegelverkehrtes Abbild des aufgenommen Objektes. Auch heute arbeiten Kameras noch nach diesem Prinzip – wenn auch in einem viel komplexeren und umfangreicheren technischen Rahmen.
Im Inneren der Kamera ist ein dunkler, von Licht abgeschirmter Raum, in dem der Bildsensor oder Film liegt. Durch eine kleine Öffnung im Objektiv fällt durch eine Linse das Licht, welches vom zu fotografierenden Objekt abgestrahlt wird durch die Blende auf den Sensor oder Film. Die Blende reguliert die Belichtungsintensität des Sensors und kann somit auch die Helligkeit des Bildes beeinflussen. Bei einer zu langen Belichtungszeit wird das Bild überbelichtet, was ein viel zu helles und grelles Bild verursacht. In einem Objektiv befindet sich die Linse, die das Licht hindurchlässt und die Brennweite durch vergrößern der Distanz zwischen Linse und Brennpunkt auf dem Bildsensor vergrößern, bzw. verkleinern kann. Das Licht welches auf den Bildsensor trifft, wird in digitale Signale umgewandelt, welche in einem Speicherkondensator komprimiert und aufgearbeitet zwischengespeichert werden.
Das Licht wird im Bildsensor durch lichtempfindliche Pixel in digitale Daten umgewandelt. Diese Pixel bestehen aus Siliziumkristallen, deren Atome in diskreten Bändern liegen. Unter der Siliziumschicht befinden sich die Elektronen in zwei dieser Bänder, wobei das elektrisch höhere als Leitungsband- und das elektrisch niedrigere als Valenzband bezeichnet wird. Im Grundzustand befinden sich die meisten Elektronen im Valenzband. Sobald allerdings Energie (min. 1.26 eV) hinzugefügt wird, verlassen die Elektronen das Valenzband und wechseln über in das Leitungsband. Für das Hinzufügen der Energie reichen schon das Auftreffen eines Lichtstrahls auf die Siliziumkristalle und der damit verbundene minimale Temperaturanstieg.
 
 
 
Die Farbinformationen erhält der Bildsensor indem er die Lichtstärke des Lichtes, das durch eine Farbfilterfolie fällt, misst. So gelangt pro Pixel immer nur ein roter, grüner und blauer Anteil des Lichtes auf die jeweiligen Bereiche des Pixels. In diesen Bereichen wird dann die Lichtstärke, (auch bekannt als Lichtintensität), ermittelt und durch einen A/D- Wandler in digitale Signale umgewandelt.
 
 
Nachdem die Farbinformationen in digitaler Form vorliegen werden sie an das Speichermedium weitergeleitet. Dies geschieht entweder direkt oder durch einen zwischengeschalteten Speicherkondensator, in dem die Informationen zwischengespeichert und erst nach Auslösen des nächsten Fotografier- Vorgangs auf das Speichermedium überschrieben werden. Die in digitale Signale umgewandelten Farbintensitäten werden durch das JPEG- Verfahren in komprimierte Dateien gewandelt und auf einen internen oder nachträglich eingelegten Speicherbaustein verschoben. Dort bleiben sie in ihrem Status unangetastet und stehen bis zum Transferieren auf den PC lediglich für „read- Zugriffe“ zur Verfügung. Eine Ausnahme bilden dabei jedoch Kameras, die von Haus aus bereits Bildbearbeitungsprogramme besitzen.
 
Wie wird die Aufnahme vorbereitet und wie geschieht die Aufnahme?
 
Zunächst muss überhaupt das Bild entstehen. Noch bevor der Auslöser gedrückt wird finden unzählige Vorgänge im Inneren der Kamera und im benutzten Objektiv statt.
Als erstes wird das Bild „scharfgestellt“. Dies bedeutet die Entfernungen zu den Objekten im Bild wird errechnet und das Objektiv wird fokussiert. Dieses Scharfstellen der Objekte erfolgt durch das Verschieben der Linse. Ist ein Objekt nah, muss der Abstand zwischen Linse und Bildsensor größer sein, ist das Objekt weit entfernt, muss die Linse näher sein. Es stellt sich allerdings was „Schärfe“ ist.
Schärfe ist, wenn ein Teil des Objektes in der realen Welt auch detailliert und nicht verschwommen auf dem Bildsensor dargestellt wird.
Die Anfänge der Fokussiertechnik wurden in den Siebzigern mit den Sofortbildkameras getan. Bei diesen Kameramodellen wurde die Entfernung durch Ultraschallsensoren festgelegt.
Heutzutage suchen Kameras nach Kanten oder anderen markanten Objekten auf dem Motiv. Die Brennweite, Blende und Linse wird solange verschoben, bis der höchstmögliche Kontrast um diese Kanten oder markanten Punkte gefunden wird. Daher lässt sich sagen: Je höher der Kontrast, desto höher ist die Schärfe des Bildes. Durch den Sucher des Bildes lassen sich die markanten Objekte auswählen um die besten Ergebnisse zu erzielen.
Danach wird die Belichtungszeit gewählt und die Blende eingestellt.
Unter Belichtung versteht man das Zusammenspiel von Lichtintensität und der Zeit. Im Produkt ergeben diese beiden Faktoren die Belichtung. Dieses sogenannte Reziprositätsgesetz wurde von Robert Bunsen und Henry Roscoe aufgestellt und findet auch in der digitalen Fotografie uneingeschränkt Verwendung.
Belichtung = Lichtintensität * Belichtungszeit des Bildsensors
Der Grundgedanke hinter der Theorie der Belichtung ist folgender: Bei schlechten Lichtverhältnissen (zu helle oder zu dunkle Motive) muss durch Regulierung der Belichtungszeit, dass gleiche Endergebnis erzielbar sein, wie bei guten Lichtverhältnissen.
Die Belichtungszeit gibt an, wie lange das Licht auf den Bildsensor fällt. Bei hellen Motiven ist die Belichtungszeit gering, damit nur wenig Licht auf den Sensor fällt und somit die Gefahr von „Überbelichtung“ entfällt. Folglich ist die Belichtungszeit bei Bildern von Motiven mit schwachen bis sehr dunklen Lichtverhältnissen größer. Hierdurch wird zwar auch bei dunkler Umgebung ein helleres und natürlich aussehendes Bild erzeugt, es steigt aber auch die Gefahr des „Verwackelns“. Als Faustformel für Bilder ohne Stativ gilt die Formel: Belichtungszeit= 1/Brennweite.
Um zu ermitteln, wie hoch die Belichtungszeit eingestellt werden muss, wird eine Belichtungsmessung vorgenommen. Hierbei wird zwischen zwei unabhängig funktionierenden Methoden unterschieden.
 
  • Die Lichtmessung: Die Belichtungszeit wird durch Handbelichtungsmesser vorgenommen. Hierbei wird nicht das Licht gemessen, das vom Motiv abgestrahlt (gespiegelt) wird, sondern das Licht, das durch die Linse fällt. Diese Methode ist nur bei Profis beliebt und findet am häufigsten bei professionellen Fotoshootings und Modenshows Verwendung.
  • Die Objektmessung: Das vom Motiv reflektierte Licht wird gemessen. Sie ist am häufigsten verbreitet, da sie im Gegensatz zur Lichtmessung nicht durch extra Messgeräte durchgeführt werden muss. Diese Methode liefert auch bei nicht professionellen Fotografen gute Bilder- wenn auch keine Optimalen Ergebnisse.
  • Teurere SLR Kameras bieten jedoch verschiedene Methoden der Objektmessung.
  • Mittelbetonte Integralmessung: Untere Bildhälfte und Zentrum stärker belichtet, Ränder links und rechts, sowie oberer Bildteil weniger stark belichtet. Kaum noch verwendet.
  • Mittelbetonte/ Selektivmessung: Zentraler Messkreis macht 75% der Belichtungsmessung aus, der Restbereich liefert nur Werte mit 25% Bewertung. Zuverlässig und verbreitet
  • Mehrfeldmessung: Das Bild wird in mehrere Bereiche eingeteilt und mitunter mit einem Matrixsystem mit tausenden Vergleichswerten bewertet. Ist als Automatikfunktion weitverbreitet, liefert häufig exzellente Werte, kann aber auch katastrophal daneben liegen.
  • Spotmessung: Der zentrale Messkreis liefert Werte zurück, die zu 95% (oder mehr) ausschlaggebend für die spätere Belichtungszeit sein werden, der Rest wird nur mit 5% (oder weniger) die Belichtung beeinflusst. Für Professionelle Fotografen sehr interessant, für Anfänger allerdings nur bedingt bis kaum geeignet.

 

Bei all diesen Belichtungsmessungen ist es jedoch noch immer nicht 100%ig möglich, sofort zwischen schwarz und weiß zu unterscheiden. Die Belichtungsmessungen machen aus einem Schwarz ein Dunkelgrau und aus einem Weiß ein Hellgrau. Bei schwarz muss nachträglich unterbelichtet und bei weiß überbelichtet werden, um die originalen Farben darzustellen.
 
Die Blende ist ein Bauteil, die einen Teil des eingelassenen Lichtes ablenkt, um die Schärfentiefe zu erhöhen. Abstandsbedingt, werden einige Teile des fotografierten Motives zwangsläufig als unscharf aufgenommen. Dies liegt daran, dass der Autofokus nur auf ein Motiv und dessen unmittelbare Umgebung scharfstellen kann. Der Bereich entfernter vom Motiv erscheint nur durch die Tiefenschärfe und die Einwirkung Blende scharf. Dies wird dadurch erreicht, dass das Licht, das von den Objekten, die vom Zentrum des Motives entfernt stehen, abgelenkt wird. In der schematischen Darstellung sieht man die Funktion der Blende:
 
 Mit Blende Ohne Blende
 
Nach Regulierung der Blende und der Belichtungszeit, wird das Bild durch das Objektiv auf den Bildsensor Projektiert. Das Licht fällt durch die Linse im Objektiv, wandert auf bauartbedingter unterschiedlicher Weise (unterschiedliche Objektivhersteller haben verschiedene Techniken erfunden, die durch den Einsatz von Spiegeln das Ergebnis verbessern sollen) zum Bildsensor und wird dort in digitale Signale umgewandelt. Im Zusammenhang dieser Wandlung durchläuft das Licht beispielsweise einen Tiefenpassfilter, Infrarot- und einen Farbfilter.
 
Die Wandlung der Lichtintensitäten kann auf zweierlei Wegen erfolgen. Die analoge Wandlung heißt Diskretisierung und bedeutet die Zerlegung des Bildes in mehrere diskrete Teile. Hierbei werden pro Pixel die RGB- Werte ermittelt und mit den Werten in der Umgebung des Pixels interpoliert. (Educated Guess) Die digitale Wandlung nennt sich Quantisierung und bedeutet die Wandlung der elektronischen Signale in digitale Signale. Wenn ein Lichtstrahl auf einen Pixel trifft, gibt dieser für die RGB- Bestandteile des Lichtes eine, von der Lichtintensität abhängige, Spannung ab, die durch einen Analog-Digital-Converter (ADC) in digitale Bitmuster zerlegt wird.
Ein Analog-Digital Wandler arbeitet, indem er in einer bestimmten Abtastrate die anliegenden Spannungen auswertet und in digitale Bitmuster umwandelt. Diese Abtastrate beeinflusst die Korrektheit der digitalen Werte und es gilt der Grundsatz: Je höher die Abtastrate, desto genauer das Ergebnis.

 

Nach der A/D- Wandlung werden die nun digitalen Signale in Helligkeits- und Farbwerte umgewandelt, die Farben werden digital rekonstruiert, das Rauschen unterdrückt und korrigierbare Fehler werden innerhalb der Kamera korrigiert. All diese Daten werden zu einer einzigen Datei zusammengefügt und durchlaufen ein Kompressionsverfahren um Speicherplatz zu vergrößern. Das heute am weitesten verbreitete, verlustbehaftete Verfahren zur Komprimierung der Daten eines Bildes, ist das Jpeg- Verfahren. Bei diesem Verfahren werden verschiedene Farben, die sich sehr ähnlich sehen, zu einem Block zusammengefasst um das Datenvolumen des Bildes zu verkleinern. Der RAW- Standard ist ein Rohformat und speichert somit mit wenig bis fast keiner Komprimierung alle Farbwerte ab. Das Ergebnis ist hier am besten, jedoch ist die Datei bei einer Acht Megapixel Kamera auch 8- Mal so groß wie bei einer als Jpeg gespeicherten Datei.
Nach der Komprimierung der Daten wird die Datei auf das Speichermedium verschoben und dort abgelegt.

 

Zusammenfassung des Ablaufs bei der Aufnahme eines Motives
 
Zunächst wird die entfernungsabhängige Fokussierung des Objektives vorgenommen. Dies Geschieht durch Kontrastabfragung bei verschiedenen Brennweiten. Ist der Kontrast am höchsten, ist die Kamera auf das Motiv scharfgestellt. Um einer Über- oder Unterbelichtung zuvorzukommen, wird die Belichtungszeit eingestellt. Dies geschieht entweder manuell durch selbstständige Messungen mit einem Lichtmesser (Lichtmessung) oder automatisch, mit einem intern verbauten Lichtmesser der Kamera (Objektmessung). Nachdem die Lichtverhältnisse analysiert wurden, stellt die Kamera automatisch die korrekte Belichtungszeit ein. Hierbei gilt: Je heller das Bild, desto kürzer die Belichtungszeit.
Um der Tiefenunschärfe entgegen zu wirken, reguliert die Blende, abermals, wie viel Umgebungslicht des Motives auf den Bildsensor treffen darf. Da die Kamera nicht ermitteln kann, ob ein sich im Bildzentrum befindliches Bild auch in der Nähe des eigentlichen Motives befindet, kann die Blende regulieren, ob das Licht von dem unbekannten Objekt auf den Sensor fallen soll. Diese Entscheidung wird wieder nach einer Kontrastprüfung gefällt.
Nun werden die Lichtintensitäten im Bildsensor in digitale Signale gewandelt. Fällt Licht auf einen Pixel des Bildsensors, verlassen Elektronen das Valenzband und wechseln auf das Leitungsband. In Zyklischen Abtastungen ermittelt der A/D- Wandler diese Elektronen und wandelt diese in digitale Signale um.
Als nächstes werden die digitalen Daten komprimiert und verfeinert. Die Aufarbeitung der Bilder beschränkt sich schon lange nichtmehr nur auf das Unformen von Dunkelgrau zu Schwarz. Heutzutage ist es auch möglich künstlerische Effekte direkt von der Kamera einfügen zu lassen. Nach dieser Weiterverarbeitung des Bildes werden die Daten in teilweise komprimierter Form auf das Speichermedium verlegt. Hierbei bilden die Abarten des JPEG- Verfahrens die am weitesten verbreiteten Komprimierungsverfahren und werden von nahezu alle Kameras anerkannt. Bei der JPEG- Komprimierung, werden sich ähnliche Farben zu einer Farbe zusammengefasst. Je nachdem wie fein die Auflösung ist, gehen teilweise viele Farbwerte verloren und das Ergebnis kann etwas vom Original abweichen.
Im Gegensatz dazu stehen die Rohformat Dateien, die alle Farbwerte ablegen und dementsprechend auch viel Platz auf dem Speichermedium verbrauchen.
Nach der Komprimierung erfolgt die Speicherung auf dem Speichermedium.

 

Alle Fotos sind in der Fotogallerie zu finden.

Zur nächsten Seite

Gratis Homepage von Beepworld
 
Verantwortlich für den Inhalt dieser Seite ist ausschließlich der
Autor dieser Homepage, kontaktierbar über dieses Formular!