Willkommen

Vom Bild zum Bild


Das menschliche Auge

 

Einleitung

 

In diesem Textabschnitt wird die Frage, wie das Auge ein Bild wahrnimmt genauer erläuter. Zudem wird das Auge mit einer Digitalkamera verglichen. Zudem gehe ich näher auf die Fragen wie zum Beispiel: doch wie genau nimmt das Auge ein Bild wahr? Oder wie funktioniert das Objekt bei einer Digitalkamera? Was ist ein Sehfehler gibt es sowas auch bei einer Digitalkamera? Auf alle diese Fragen möchte ich ihnen eine genauere Antwort geben. In den folgenden Textabschnitten erkläre und erläutere ich ihnen die einzelnen Fragen.

 

Grundlegendes zu einer Kamera und dem menschlichem Auge

 

Als aller erstes gibt es bei einer Digitalkamera das Objektiv. Das Objektiv ist der Hauptbestandteil einer Kamera, also ist es gewissermaßen das Auge der Digitalkamera. Es besteht aus vielen an einander gereihten Linsen, durch welche das Licht strömt. Das gebündelte Licht trifft, wie beim menschlichen Auge, auf den Brennpunkt am Ende des Objektives und erzeugt somit ein Bild. Genauso wie bei einem menschlichen Auge steht das Bild zunächst auf dem Kopf. Bei einer Digitalkamera wird das Bild automatisch schon um 180° gedreht, sodass wir es von Anfang an richtig herum sehen können. All dieses kann, aber nicht ohne einen Bildsensor funktionieren, denn dieser kleine Chip in einer Digitalkamera, registriert erst das einfallende Licht und wandelt dieses darauf hin zu einem Bild um.

 

Grundprinzip einer Bild Entstehung

 

Die Funktionsweise von einer Kamera und einem Auge unterscheidend sich nicht sonderlich, denn das menschliche Auge hat zwar nur eine Linse, aber vom Prinzip ist es dasselbe. Denn das einfallende Licht trifft, wie bei der Kamera auf einem Brennpunkt hinten im Auge und erzeugt nun ein umgedrehtes Bild. Dieses Bild wird nun von unserem menschlichen Gehirn, wie beim Bildsensor in der Kamera, umgewandelt und zu einem genauen Bild gedreht. Man muss noch dazu sagen das bei menschlichem Auge die Umgebung spiegel verkehrt wahrgenommen wird, also sieht das linke Auge das rechte Umfeld und das recht Auge das linke Umfeld, dies wird ebenfalls von unserem Gehirn zu einem passendem Bild zusammengefügt.

 

Wahrnehmung von Menschen

Aufbau des Auges

 Das Auge ist eines der wichtigsten Organe, es sorgt dafür, dass wir unsere Umwelt wahrnehmen können. Diesen Vorgang kann man auch mit einer Kamera vergleichen, mit der man die Umwelt fotografieren kann. 
Die äußerste durchsichtige Hornhaut verschließt das Auge von vorne. Diese Hornhaut wirkt, wie eine gläserne Linse. Diesen Ablauf kann man mit der vorderen Linse eines Kameraobjektives vergleich.

 

 

In der Abbildung Übersicht des Auges kann man von links nach rechts der Regenbogenhaut mit der Pupille, die der Blende der Kamera entspricht. Die Linse befindet sich direkt hinter der Pupille. Die Linse kann man mit den übrigen gläsernen Linsen in einem Kameraobjektiv vergleichen. Oben rechts im rechten Bild kann man die menschliche Netzhaut sehen, dies kann mit dem Film im linken Bild einer Kamera vergleichen.

Um eine gute Aufnahme bei einer Fotokamera zu bekommen, müsste man vor jeder Aufnahme, das Objektiv drehen, um ein scharfes Bild haben.

Bei neueren Kameras funktioniert dies, bereits automatisch mittels Autofokus. Wenn ein Mensch normalsichtige Augen hat, erfolgt diese Scharfstellung durch eine automatische Verformung der Linse im Auge. Ein normales Auge kann auch in der Ferne immer scharf sehen. Das Phänomen, das sich die Linse zusammen oder auseinander bewegt, kann man zum Beispiel bei einer lesenden Person oder einer Person, die gerade Auto fährt gut beobachten. So kann man Schlussfolgern, man ohne scharfe Bilder auf der Netzhaut vom Auge nicht gut sieht.

Ankommende Lichtstrahlen werden von dem optischem System des Auges so abgelenkt, dass bei normalsichtigen Augen der Lichtstrahl in einem Brennpunkt sich genau auf der Netzhaut bündelt, dies ist in der Regel immer der Punkt des schärfsten Sehens. Dieser Vorgang der Ablenkung bezeichnet man als Brechung.

Man berechnet die Brechung aus den verschiedenen Anteilen des optischen Systems des Auges. Hieraus ergibt sich nun die Gesamtbrechkraft des Auges. Um Bilder, die wir sehen, scharf auf der Netzhaut abzubilden, muss diese Brechkraft stimmen.

 

Zusammenspiel von Linse, Pupille und Hornhaut

 

 

Der Unterschied von einer Kamera und dem Auge

Der gröbste Unterschied besteht in der Pixelanzahl. Denn, wenn ein Auge etwas genau beobachtet bzw. anvisiert, kann man als Außenstehender sehen, dass sich die Linse durch das Licht, das auf ein Objekt trifft, wodurch dieses gespiegelt wird, verkleinert oder bei weniger Licht vergrößert. Eine Digitalkamera macht dieses bereits automatisch, man kann das Drehen der Linsen nach vorne oder nach hinten ebenfalls beobachten. Hierbei verändert sich die Linse nicht unbedingt wegen dem Licht, dass auch die Kamera fällt, sondern damit man das Bild was man aufnehmen, möchte am besten scharf oder auch nur unscharf sieht.

Inzwischen ist die Pixelanzahl so hoch geworden, dass bei sehr guten Digitalkameras, das aufgenommene Bild so hoch aufgelöst ist, dass das Bild fast so aussieht, wie in der Natur bzw. wie es ein menschliches Auge sehen kann. 

Was ist Kurzsichtigkeit, Normalsichtigkeit und Weitsichtigkeit?

Kurzsichtigkeit und Normalsichtigkeit

Kurzsichtigkeit ist eine Schwäche des Auges. Mit einer Kurzsichtigkeit können die Menschen, die dies haben keine bzw. schwer entfernte Dinge sehen. Denn je weiter ein Objekt von seinem Auge entfernt ist, umso unschärfer wird das Objekt.
Im vorlegendem Abbild Kurzsichtigkeit kann man sehen, wie die Lichtstrahlen in ein kurzsichtiges Auge treffen und im Vergleich in ein normalsichtiges Auge.
Bei einem Normalsichtigen wird der Lichtstrahl auf der Netzhaut fokusziert und so zu einem Brennpunkt gebündelt. Bei Kurzsichtigkeit liegt der Fokus, durch eine Veränderung des Auges etwas vor der Netzhaut. Somit sieht die Person das Bild, was er gerade anschaut unscharf.

Weitsichtigkeit

Weitsichtigkeit ist ein Fehler der Brechkraft im Auge. Wenn eine Person weitsichtig ist, dann sieht sie nahe Objekte unscharf und verschwommen, denn die Brechkraft auf der Netzhaut ist zu kurz. In der Abbildung Weitsichtigkeit kann man dies abermals bildlich sehen.

 

Kurzsichtigkeit, Normalsichtigkeit und Weitsichtigkeit

 

Wie sieht man Bilder ?

 

Man darf nicht als Erstes den Fehler machen und Megapixel und Auflösung miteinander gleich setzten, denn im Realen sind die Beiden identisch. Hierfür muss man erst mal verstehen, wie ein Bild überhaupt entsteht.

Ein Bild entsteht nicht nur im Auge, sondern auch im Kopf. Das Gehirn wandelt die aufgenommene Umwelt in Bilder um, die wir dann erst somit wahrnehmen können.

Die Auflösung eines Films ist nicht unendlich, sondern nur begrenzt. Da man die Verzeichnung und Randschattierungen nicht mit einbezieht. Wichtig zu wissen ist es auch, dass die Auflösung nur in einem sehr beschränkten Kreis in der Bildmitte am höchsten ist, denn zum Rand hin fällt diese immer weiter ab. Wie stark dieser Abfall ist, hängt von der Qualität des Objektivs ab, der Abfall kann aber nie selbst null sein.

Hierzu kommt noch ein zweites Problem und das ist der Bildsensor, denn es ist so, dass einzelne Pixel helligkeitsempfindlich sind und keine Farben unterscheiden können. Um dieses zu umgehen, legt man einen Farbfilter vor die Pixel, sodass die Hälfte der Pixel nur noch grün und je ein Viertel nur noch rot und blau zu sehen sind.

Um nun zu einem Bild mit Echtfarbpixeln zu kommen, muss die Digitalkamera interpolieren.

Aufgrund von Objektivfehlern und Interpolations-bzw. Farbfilterverlusten ergibt sich in der Summe bei einer Durchschnittskamera eine reelle Auflösung, die bei 80 % in der Bildmitte und bis zu 60% im Randbereich der idealen Auflösung/Megapixel liegt.

Im Gegenteil dazu hat das menschliche Auge mehrere Jahrmillionen Jahre gebraucht, um sich so zu entwickelt und so scharf sehen zu können, wie heute. Auch das Auge besitzt keine Zellen, die für alle Farben empfindlich sind. Der große Unterschied ist, dass es vier verschiedene, sehr spezialisierte Sehzellentypen (Stäbchen und Zapfen) gibt.

Der Blickwinkel des Auges vom horizontalen gesehen, ist es rund 170°, aber im vertikalen sind es gerade mal 110°.

Trotz allem sehen wir nur mit einem kleinen Teil der Netzhaut wirklich scharf, dies ist der sogenannte Gelbenfleck, der gerade mal ca. 2° des Blickwinkels abdeckt.

Jedes Mal wenn wir unsere Umgebung ansehen, passiert im Auge eine minimale Bewegung, worauf das Gehirn die scharf gesehen Informationen, zu einem Bild zusammensetzt. Diesen Ablauf kann man auch mit einem Panoramabild zum Beispiel vergleichen, in dem das Bild lang gezogen wirkt oder mehrere Bilder aneinandergereiht werden.

Auf diese Weise nimmt das Auge in der Summe horizontal rund um die 40° und vertikal 30° wahr.

Eine Kamera kann nur 60% bis 80% der Megapixel als Auflösung nutzen, dann kommt man auf eine Sensorauflösung von 5,4 bis 7,2 Megapixel. Sämtliches, was darüber ist, wird höher aufgelöst, als man auf einen Blick mit dem menschlichen Auge wahrnehmen kann. 

 

Das Auge von außen, drei Grundfarben

 

Alle Bilder und Grafiken sind in deiner Bildergallerie auf dieser Seite zu finden!!!

Videos zu diesem Thema finden Sie unter den Links

 

Zur nächsten Seite

Eigene Webseite von Beepworld
 
Verantwortlich für den Inhalt dieser Seite ist ausschließlich der
Autor dieser Homepage, kontaktierbar über dieses Formular!