Sensorische Systeme/ Visuelles System
Einleitung
[Bearbeiten]Im Allgemeinen verarbeiten visuelle Systeme elektromagnetische Wellen, um dem Organismus mehr Informationen über seine Umgebung zu übermitteln. Dabei kann es sich um potentielle Partner, Gefahren oder Nahrungsquellen handeln. Je nach Organismus zählen unterschiedliche Bestandteile zum visuellen System.
Die Komplexität der Augen reicht von einfachen Augenflecken, bei welchen es sich um eine Ansammlung photosensible Zellen handelt, bis zu komplett ausgewachsenen Kameraaugen. Falls ein Organismus entweder über verschiedene photosensible Zellen oder Zellen, die gegenüber unterschiedlicher Wellenlänge sensibel sind, verfügt, dann sollte der Organismus theoretisch in der Lage sein, Farben, oder zumindest Farbunterschiede, wahrzunehmen. Manche Organismen sind in der Lage, Polarisation zu erkennen – Insekten und Kopffüßer erzielen dabei die höchste Genauigkeit. Bei der Polarisation handelt es sich um eine Eigenschaft elektromagnetischer Strahlung.
Man beachte, dass in diesem Text davon ausgegangen wird, dass man elektromagnetische Strahlung braucht, um sehen zu können. Manche Organismen haben Alternativen entwickelt, um sehen zu können, oder zumindest das Gesehene mit zusätzlichen sensorischen Signalen zu ergänzen. Ein Beispiel dafür wären Wale und Fledermäuse, die Echolotung brauchen, um sich zurecht zu finden. Diese Alternativen ähneln zwar der Definition von Sehen per se, dies ist jedoch nur teilweise korrekt. Das Sehen wird meistens mit elektromagnetischer Strahlung im sichtbaren Bereich assoziiert.
Da gewisse Organismen jedoch Strahlung außerhalb dieses Spektrums nutzen, muss die Definition des Sehens angepasst werden. Wir definieren somit den Bereich der sichtbaren Wellenlängen elektromagnetischer Strahlung zwischen 300nm und 800nm. Dies mag einem willkürlich vorkommen, doch die Auswahl falscher Grenzen würde beispielsweise dazu führen, dass das Sehen von Vögeln nicht mehr in der Definition enthalten ist. Dieses Spektrum schließt thermische Vision aus, welche von manchen Tieren genutzt wird. Somit betrachten wir die Technik von Schlangen, die mit ihrem Grubenorgan elektromagnetische Strahlung zwischen 5000nm und 30’000nm (IR) wahrnehmen können, eher als “Fühlen” als als “Sehen", obwohl es diverse blinde Organismen gibt, die gezielt bestimmte Körperregionen angreifen können.
Zuerst werden die diversen Arten sensorischer Organe, die zum visuellen System gehören, erläutert. Danach folgt eine ausführliche Erklärung zum menschlichen Sehen, zur Signalverarbeitung der Sehbahn und zum Schluss gibt es noch ein Beispiel zum wahrgenommenen Ergebnis.
Sensorische Organe
[Bearbeiten]Die Sicht bzw. das Sehvermögen basiert auf den sensorischen Organen, die zum visuellen System gehören - im Volksmund auch Augen genannt. Es gibt verschiedenste Konstruktionsarten von Augen. Die Komplexität hängt dabei jeweils von den Anforderungen des Organismus’ ab. Die verschiedenen Augenarten unterscheiden sich sowohl in ihren Fähigkeiten, reagieren auf unterschiedliche Wellenlängen und sehen unterschiedlich scharf. Die Verarbeitung der aufgenommenen Signale unterscheidet sich ebenfalls. Die Fähigkeit, elektromagnetische Strahlung wahrnehmen und entschlüsseln zu können, hat sich für sämtliche Lebewesen als überlebenswichtig herausgestellt. In Lebensräumen ohne, oder mit nur wenig Licht, haben Organismen, die sehen können keinerlei Vorteile, was zur Atrophie der visuellen sensorischen Organe und zum Verlass auf andere Sinne geführt hat (z.B. bei Maulwürfen, Fledermäusen etc.). Interessanterweise scheinen sich die visuellen sensorischen Organe an das optische Fenster angepasst zu haben. Dabei handelt es sich um elektromagnetische Strahlung mit einer Wellenlänge zwischen 300nm und 1100nm, die durch die Atmosphäre gelangt und die Erde erreicht, wie in folgender Abbildung zu sehen ist. Nebst dem optischen Fenster gibt es noch weitere “Fenster” wie z.B. das Infrarot Fenster, welches zu einem gewissen Grad die thermische Vision von Schlangen erklärt, und das Radiofrequenzen Fenster, welches von keinem Lebewesen erkennt werden kann.
Die Evolution hat zu verschiedensten Konstruktionsarten der Augen geführt. Die Augen der Organismen, die ähnliche Nischen haben, haben sich daher oft ähnlich entwickelt. Unabhängig von Spezies oder Komplexität der sensorischen Organe, haben alle sensorischen Systeme denselben zugrundeliegenden Mechanismus – den universellen Gebrauch von licht-sensitiven Proteinen, die man Opsine nennt. Ohne zu stark auf die molekularen Strukturen einzugehen, lassen sich die Konstruktionsarten in distinkte Gruppen einteilen:
- Punktaugen (engl. spot eyes)
- Höhlenaugen (engl. pit eyes)
- Pinloch-Augen (engl. pinhole eyes)
- Linsenaugen (engl. lens eyes)
- Refraktive Hornhautaugen (engl. refractive cornea eyes)
- Reflektoraugen (engl. reflector eyes)
- Facettenaugen (engl. compound eyes)
Die einfachste Augenkonfiguration ermöglicht es einem Organismus lediglich, Umgebungslicht wahrzunehmen und somit zu entscheiden, ob eine Lichtquelle vorhanden ist oder nicht. Bei diesen einfacheren Konfigurationen handelt es sich meistens bloß um eine Ansammlung photosensitiver Zellen, die sich am selben Fleck angesammelt haben. Sie werden daher Punktaugen oder Stemma. Durch Hinzufügen von kantigen Strukturen, kann den Organismen ermöglicht werden, gerichtete Informationen (Informationen über die Richtung) aufzunehmen, was einen essentiellen Teil der Bilderstellung ist. Über 95% aller Spezies besitzen solche Höhlenaugen, was es zur häufigsten Augen Art macht.
Je extremer die Höhlenaugen werden, desto höhlenartiger wird ihre Struktur. Dies führt zu einer Verschärfung des Bildes, aber auch zu einer Verringerung der Intensität. Mit anderen Worten: es kommt zu einem Trade-off zwischen Intensität bzw. Helligkeit und Schärfe. Ein Beispiel dafür ist die Meeresschnecke, die zur Familie der Nautilidae gehört. Diese Organismen gelten als lebende Fossile. Sie sind die einzige bekannte Spezies mit solch einer Augenstruktur, die man als Pinloch-Augen bezeichnet und analog ist zur Lochkamera oder zur camera obscura. Zudem können Nautili die Grösse ihrer Blende anpassen und somit, abhängig von der Helligkeit, die Auflösung auf dem Auge erhöhen oder verringern, analog zu fortgeschritteneren Kameras. Wie bei normalen Kameras, kann man dem Helligkeits-/Auflösungsproblem entgegenwirken, indem eine Linse eingesetzt wird. Linsen sind Strukturen die das gesamte Licht auf eine zentrale Position projizieren, an welcher es normalerweise eine höhere Dichte an Lichtsensoren gibt. Um sich in jeglicher Situation zurechtzufinden und gezielt Sachen zu fokussieren, können Organismen zum einen die Form der Linse anpassen und sie bewegen, zum anderen können sie den Öffnungsgrad der Blende (Pupille) kontrollieren. Die letzte Verbesserung im Vergleich zu den bisher erwähnten Konstruktionen ist die Einführung einer lichtbrechenden Cornea (Hornhaut). Bei Augen, die über eine solche Struktur verfügen, sind zwei Drittel der Sehstärke auf den hohen Brechungsindex der Flüssigkeit im Inneren der Cornea zurück zu führen, was Organsimen dazu ermöglicht, gestochen scharf sehen zu können. Die meisten Landtiere, zu welchen wir Menschen auch dazugehören, haben eine Hornhaut. Zusätzlich gibt es auch Variationen von Linsen, eine unterschiedliche Anzahl von Linsen, Lichtsensordichte, die Form der Fovea, die Anzahl der Foveae, die Form der Pupillen etc., welche alles dazu dienen, die Überlebenschancen des Organismus’ zu erhöhen. Diese Variationen haben zur Folge, dass die verschiedenen Augen unterschiedlich aussehen, sogar innerhalb einer einzigen Augenkategorie. Um dies zu verdeutlichen, sind unterhalb Abbildungen von Augen zu sehen, die aus derselben Kategorie stammen (Augen mit Cornea).
Eine Alternative zu den Augen mit Linsen sind die Reflektor Augen, die man vor allem bei Weichtieren findet. Anstatt dass das Licht über eine Linse an einen zentralen Punkt an die Rückwand des Auges projiziert wird, haben diese Organismen spiegelähnliche Strukturen im Auge, die das Licht gezielt an einen zentralen Punkt reflektieren - ähnlich wie ein Parabolspiegel. Es sind keine Beispiele von Tieren bekannt, die in der Lage sind, mit Reflektor Augen Bilder zu generieren. Lediglich eine Fischart namens Dolichopterys longipes kann aus einer Kombination aus Reflektor Augen und gewöhnlichen Linsen Bilder generieren.
Die letzte Gruppe von Augen findet man bei Insekten und Krustentieren - die Facettenaugen. Diese Augen bestehen aus diversen Untereinheiten, die man Ommatidien nennt, die alle aus einer Facette, einer Oberfläche, durchsichtigen, gläsernen Zapfen und foto-sensitiven Zellen für die Erkennung, bestehen. Zudem sind alle Ommatiden durch Pigmentzellen geteilt, dadurch ist das eintretende Licht so parallel wie möglich. Die Kombination aller Outputs dieser Ommatiden bildet ein mosaikartiges Bild mit einer Auflösung, die proportional zur Anzahl Ommatiden ist. Hätten Menschen Facettenaugen, müssten unsere Augen in etwa gleich gross sein wie unser Gesicht, damit wir nach wie vor mit derselben Auflösung sehen könnten. Es gibt diverse Arten von Facettenaugen. Alle in diesem Text zu erklären, würde jedoch den Rahmen sprengen.
Nicht nur die Augenart, sondern auch die Anzahl der Augen ist variabel. Menschen haben in der Regel zwei Augen, wohingegen Spinnen eine variable Anzahl, die meisten jedoch acht Augen haben. Normalerweise unterscheiden sich aber die Grössen der verschiedenen Augenpaare, wobei die verschiedenen Augenpaare auch unterschiedliche Funktionen haben. Beispielsweise Springspinnen haben zwei grosse Augen, die nach vorne ausgerichtet sind und ihnen eine starke Sehschärfe ermöglicht, was ihnen vor allem bei der Beutejagd zu Gute kommt. Sechs kleinere Augen mit deutlich niedrigerer Auflösung ermöglichen der Spinne, allfällige Gefahren zu entdecken. Unterhalb sind zwei Bilder von Springspinnen Augen und Erdwolfspinnen Augen aufgeführt, um die Variabilität der Augentopologien bei Spinnentieren zu demonstrieren.
-
Wolfspinne
-
Springspinne
Anatomie des Visuellen Systems
[Bearbeiten]Wir Menschen sind visuelle Wesen, daher bestehen unsere Augen aus diversen Komponenten deren Aufbau kompliziert ist. In diesem Kapitel wird versucht, diese Komponenten zu erklären und somit Einblicke in das menschliche Sehen zu vermitteln.
Im Inneren des Augapfels - Pupille, Iris und Linse
[Bearbeiten]Lichtstrahlen gelangen durch die Pupille, dem schwarzen Punkt in der Mitte des Auges, ins Innere des Augapfels. Die Pupille erscheint komplett schwarz, da das Licht komplett vom Augengewebe absorbiert wird. Da die Pupille der einzige Ort ist, durch welchen das Licht ins Innere des Auges gelangen kann, ist die Menge des eintretenden Lichts proportional zur Grösse der Pupille. Ein pigmentierter Sphinkter kontrolliert den Öffnungsgrad der Pupille, wobei die Menge an Pigmenten in der Iris bestimmt die Augenfarbe des Menschen bestimmt.
Nebst der Pigmentschicht sind in der Iris auch zwei Schichten mit Ziliarmuskeln zu finden. Die eine Schicht besteht aus dem Iris Sphinkter Muskel, der durch seine Kontraktion die Pupille verkleinern kann und in der anderen Schicht ist der Iris Dilator Muskel zu finden, welcher ein glatter Muskel ist und durch seine Kontraktion die Pupille erweitern kann. Das Zusammenspiel dieser beiden Schichten steuert somit den Öffnungsgrad der Pupille, je nach Bedürfnissen des Menschen. Die Ziliarmuskeln werden durch Zonulafasern gesteuert, Fasern, die auch die Form der Linse steuern und sie am Platz hält.
Die Linse befindet sich direkt hinter der Pupille. Ihre Form und ihre Charakteristiken erinnern an die Linsen, die in Fotoapparaten eingesetzt werden, funktionieren jedoch ein wenig anders. Die Form der Linse wird durch den Zug der Zonulafasern gesteuert, was die Brennweite verändert. Zusammen mit der Hornhaut kann die Linse den Brennpunkt verändern, was es zu einem wichtigen Bestandteil des Auges macht. Allerdings ist nur etwa ein Drittel der Brechkraft auf die Linse zurückzuführen. Linsenfasern machen den größten Teil des Materials für die Linse aus. Dabei handelt es sich um lange und dünne Zellen, bei denen der größte Teil der Zellmaschinerie fehlt, um die Transparenz zu fördern. Zusammen mit wasserlöslichen Proteinen, sogenannten Kristallinen, erhöhen sie den Brechungsindex der Linse. Die Fasern spielen auch bei der Struktur und Form der Linse selbst eine Rolle.
Strahlformung im Auge - Cornea und ihr Schutzmittel - Sklera
[Bearbeiten]Die Hornhaut, die für die restlichen 2/3 der gesamten optischen Leistung des Auges verantwortlich ist, bedeckt die Iris, die Pupille und die Linse. Sie bündelt die Strahlen, die durch die Iris gehen, bevor sie durch die Linse gehen. Die Hornhaut ist nur 0,5 mm dick und besteht aus 5 Schichten:
- Epithel: Eine Schicht Epithelgewebe, die die Oberfläche der Hornhaut bedeckt.
- Bowman Membran: Eine dicke Schutzschicht aus starken Kollagenfasern, die die Gesamtform der Hornhaut beibehält.
- Stroma: Eine Schicht aus parallelen Kollagenfibrillen. Diese Schicht macht 90% der Hornhautdicke aus.
- Descemet-Membran und Endothel: Das sind zwei Schichten an die vordere Augenkammer angepasst, die mit vom Ziliarkörper produzierter Kammerwasserflüssigkeit gefüllt sind. Diese Flüssigkeit befeuchtet die Linse, reinigt sie und hält den Druck im Augapfel aufrecht. Die zwischen Hornhaut und Iris angeordnete Kammer enthält einen trabekulären Netzkörper, durch den die Flüssigkeit durch die hintere Kammer durch den Schlemm-Kanal abgeleitet wird.
Die Oberfläche der Cornea liegt unter zwei schützenden Membranen, der Sklera- und der Tenon-Kapsel. Beide dieser Schutzschichten umhüllen den Augapfel. Die Sklera ist aus Kollagenfasern und elastischen Fasern aufgebaut, die das Auge vor äusseren Beschädigungen schützen. Aus dieser Schicht entsteht auch das Weiss des Auges. Die Sklera wird von Nerven und Gefäßen durchbohrt, wobei das größte Loch dem Sehnerv vorbehalten ist. Zudem wird die Sklera von einer Bindehaut überzogen, einer klaren Schleimhaut auf der Oberfläche des Augapfels. Dies Membran zeichnet auch die Innenseite des Augenlids. Zusammen mit der Tränendrüse fungieren sie als Schmiermittel und produzieren Tränen, die das Auge schmieren und schützen. Die verbleibende Schutzschicht, das Augenlid, dient auch zum Verteilen dieses Schmiermittels.
Die Augen Bewegen - Extraokulare Muskeln
[Bearbeiten]Der Augapfel wird durch eine komplizierte Muskelstruktur von extraokularen Muskeln bewegt, die aus vier Rektusmuskeln - inferior, medial, lateral und superior und zwei schrägen - inferior und superior besteht. Die Positionierung dieser Muskeln wird zusammen mit den Funktionen im Folgenden dargestellt:
Wie man sehen kann, sind die extraokularen Muskeln (2,3,4,5,6,8) an der Sklera des Augapfels befestigt und stammen aus dem Zinn’schen Sehnenring, einer den Sehnerv umgebenden fibrösen Sehne. Es wird ein Flaschenzugsystem mit der Trochlea als Flaschenzug und dem oberen schrägen Muskel als Seil erstellt. Dies ist erforderlich, um die Muskelkraft auf die richtige Weise umzuleiten. Die verbleibenden extraokularen Muskeln haben einen direkten Weg zum Auge und formen daher keine solchen Flaschenzugsysteme. Mit diesen extraokularen Muskeln kann sich das Auge nach oben, links und rechts rotieren, und alternative Bewegungen sind möglich, sofern es sich um eine Kombination der bereits genannten Rotationen handelt.
Es gibt noch weitere Bewegungen die sehr wichtig sind, um uns das Sehen zu ermöglichen. Vergenzbewegungen ermöglichen das Binokularsehen. Sakkaden sind unbewusste sehr schnelle Bewegungen, die dann vorkommen, wenn das Auge das Gesichtsfeld scannt und sich der Fixierpunkt leicht verschiebt. Diese ermöglichen es, ein bewegtes Objekt im Fokus zu behalten. Wenn der Blick einem Objekt folgt, spricht man von einer Folgebewegung. Zusätzlich gibt es den Nystagmus. Dies ist eine Bewegung welche durch Signale des Gleichgewichtssystems ausgelöst werden. Zusammen bilden sie die Vestibulo-Okular Reflexe (VOR).
Der Hirnstamm steuert alle Bewegungen des Auges, wobei verschiedene Areale für die unterschiedlichen Bewegungen verantwortlich sind.
- Pons: Schnelle horizontale Bewegungen, wie Sakkaden und Nystagmus
- Mesencephalon: Vertikale- und Torsionsbewegungen
- Cerebellum: Feineinstellungen
- Edinger-Westphal Kern: Vergenzwinkeländerung
Die Retina - Ort der Bildaufnahme
[Bearbeiten]Eingehende Elektromagnetische Wellen passieren die Hornhaut, Linse und Makula. Diese Strukturen fungieren als Filter, um ungewollte elektromagnetische Wellen zu eliminieren und das Auge vor schädlichen Strahlungen zu beschützen. Die Abbildung zeigt die Filterfähigkeiten der Kornea, der Linse und des Pigmentepithel. In der Abbildung ist zu sehen, dass die tieferen Wellenlängen gedämpft werden während die höheren Wellenlänge so gut wie unberührt bleiben. Die Linse blockiert circa 25% der elektromagnetischen Strahlung unter 400nm und mehr als 50% der unter 430nm langen Wellen. Als letzter Schritt vor der Lichtaufnahme wird circa 30% der Strahlung zwischen 430nm und 500nm durch das Pigmentepithel herausgefiltert.
Ein Teil des Auges, welcher der Übergang von nicht-lichtempfindlich zu lichtempfindlich markiert, wird Ora Serrata genannt. Die Lichtempfindliche Region wird als Retina bezeichnet. Dies ist eine sensorische Struktur an der Hinterseite des Auges. Die Retina besteht aus mehreren Schichten mit Millionen von Photorezeptoren, welche in Zapfen und Stäbchen unterteilt werden. Die Lichtstrahlen werden durch diese Photorezeptoren aufgenommen und in elektrische Impulse konvertiert. Die Ganglionzellen lösen die nervliche Übertragung der Impulse aus, die dann über den Sehnerv weitergeleitet werden. Der Sehnerv ist die einzige Verbindung zwischen Auge und Nervensystem.
Auf der nebenstehenden Abbildung der Retinastruktur ist zu sehen, dass fünf verschiedene wichtige Zellarten in der Retina vorkommen:
- Photorezeptoren Zellen
- Horizontale Zellen
- Bipolarzellen
- Amakrinzellen
- Ganglionzellen
Die Photorezeptoren können in die zwei weiteren Hauptgruppen der Stäbchen und Zapfen unterteilt werden. Die Zapfen kommen in den meisten Teilen der Retina in geringerer Zahl vor als die Stäbchen. Allerdings ist die Ausnahme dazu die Makula, da dort die Zapfen in hoher Zahl angesiedelt sind. Das Zentrum der Makula wird Fovea genannt und bildet der Ort mit der höchsten Dichte an Zapfen. In der Fovea ist jeder Photorezeptor zu einer Ganglionzellen gebunden. Zusätzlich sind die Zapfen in dieser Region etwas kleiner als die durchschnittlichen Zapfen, sodass möglichst viele auf engem Raum Platz finden. Somit ist die Fovea der Ort mit der höchsten Sehschärfe.
Es gibt drei Arten menschlicher Zapfen, wobei jeder Zapfen auf einen bestimmten Wellenlängenbereich reagiert. Das Pigment Photopsin hat verschiedene Arten und ist für diese Einteilung verantwortlich. Jedes Pigment ist empfindlich gegenüber roter, blauer oder grüner Lichtwellenlänge, somit haben wir blaue, grüne und rote Zapfen. Man nennt sie auch S-, M- und L- Zapfen, da sie jeweils gegenüber kurzer (engl. short), mittel (engl. medium), und langer (engl. long) Wellenlänge empfindlich sind. Das Photopsin besteht aus dem Protein Opsin und Retinal, einem gebundenen Chromopohor. Die Hauptbausteine der Zapfenzellen sind die Verbindung zur Synapse, die inneren und die äusseren Segmente, der innere Kern und das Mitochondrium.
Das Spektrum der Sensitivitäten der drei verschiedenen Zapfen:
- S-Zapfen absorbieren kurzwelliges Licht, wie Ultra-Violettes Licht. Die maximale Wellenlänge für diese Zapfen ist 420nm.
- M-Zapfen absorbieren blau-grünes bis gelbes Licht und die maximale Wellenlänge ist 535nm.
- L-Zapfen absorbieren gelbes bis rotes Licht, mit einer maximalen Wellenlänge von 565nm.
Das innere Segment der Zapfen enthält Organellen, den Zellkern und die Organellen. Das äussere Segment der Zapfen besteht aus vielen Invaginationen, den Membranscheibchen, in welchen die Pigmente als Transmembran Proteine in die Membran eingefügt sind. Die Scheiben vergrössern die Oberfläche und somit den Empfangsbereich der Zelle. Die Zapfen enthalten kugelförmige Organellen, die sogenannten Öltröpfchen, von welchen angenommen wird, dass sie einen Filter im Inneren des Auges bilden und dadurch den Kontrast erhöhen, die Blendung reduzieren und chromatische Aberrationen, welche durch den Grössengradient der Mitochondrien zustande kommen, zu minimieren.
Das Pigment in den Stäbchen nennt sich Rhodopsin und unterscheidet die beiden voneinander. Die Struktur ist mehr oder weniger dieselbe. Rhodopsin erlaubt es den Stäbchen auch Licht mit geringer Intensität aufzunehmen und macht sie dadurch circa 100-mal sensitiver als Zäpfchen. Rhodopsin ist das einzige Pigment in den Stäbchen und befindet sich auf der Aussenseite des Pigmentepithel, welches demjenigen der Zapfen ähnelt und somit auch aus Membranscheibchen besteht, um die Absorptionsfläche zu maximieren. Ähnlich wie bei den Zapfen wird das synaptische Ende der Zelle mit einer Bipolarzelle verbunden und die inneren und äusseren Segmente werden durch Zilien verbunden.
Das Pigment Rhodopsin absorbiert Licht zwischen 400-600nm, mit einer maximalen Absoprtion von circa 500nm. Diese Wellenlänge entspricht dem grünlich-blauen Licht, was dazu führt, dass blaue Farben bei Dunkelheit intensiver wahrgenommen werden als grüne.
Elektromagnetische Wellen mit einer Länge ausserhalb von 400-700nm werden weder von Stäbchen noch von Zapfen erkannt und somit sind diese für Menschen nicht sichtbar.
Horizontale Zellen besetzen die innere Kernschicht der Retina. Es gibt zwei Arten von horizontalen Zellen, welche durch Licht noch negativer werden, also hyperpolarisieren. Typ A besteht aus einem Subtyp namens HII-H2, der hauptsächlich mit S-Zapfen interagiert. Typ B Zellen haben einen sogenannten HI-H1 Subtyp, der aus Dendriten und einem Axon besteht. Erstere verbinden sich hauptsächlich mit M- und L-Zapfen und letztere mit Stäbchen Zellen. Es sind hauptsächlich verhindernde Synapsen, welche mit Zapfen gemacht werden. Die Zellen untereinander sind durch Gap-Junctions verbunden.
Bipolarzellen verteilen ihre Dendriten in der äusseren plexiformen Schicht und ihr Zellkörper, der Perikaryon, befindet sich in der inneren Kernschicht. Dendriten verbinden sich ausschliesslich mit Zapfen und Stäbchen und es wird zwischen Bipolarzellen mit einem Zapfen und bipolaren Zellen mit neun bis zehn Zapfen unterschieden. Diese Zellen verbinden sich mit amakrinen Zellen oder Ganglienzellen in der inneren Plexiform Schicht mit Hilfe eines Axons. Die bipolaren Zellen der Stäbchen verbinden sich zu Dreiersynapsen oder 18-70 Stäbchenzellen. Ihre Axone verbreiten sich in der plexiformen Schicht und verbinden mit synaptischen Endköpfchen, welche synpatische Körperchen enthalten und Zellprozesse der Dyadensynapse kontaktieren. Sie sind mit Ganglienzellen durch ganzheitlich amakrinen Zellverbindungen verbunden.
Amakrine Zellen sind in der inneren Kernschicht, wie auch in der Ganglienzellenschicht zu finden. Ab und zu kommen sie auch in der inneren plexiformen Schicht vor, wo sie die Aufgabe der Signalregulatoren übernehmen. Sie werden aufgrund ihrer Grösse in Kategorien eingeteilt, allerdings gibt es verschiedene Klassifikationsarten was zu über 40 verschiedenen amakrinen Zelltypen führt.
Ganglienzellen sind die letzten Transmitter des optischen Signals von der Retina bis zum Gehirn. Die meist vorkommenden Ganglienzellen sind die midget-Ganglien («Zwergganglien») und die Parasol-Ganglienzellen (engl. für Sonnenschirm). Dies ist der letzte Schritt der Signalverarbeitungskette. Alle Informationen die hier ankommen werden gesammelt und an die retinalen Nervenfasern und den Sehnerv weitergeleitet. Der Ort, an welchem die Axone der Ganglien fusionieren, um den Sehnerv zu bilden, wird Sehnervenkopf genannt. Der Sehnerv besteht hauptsächlich aus retinalen Axonen den Ganglienzellen und Portortzellen. Die Mehrheit der Axone leitet Daten an den seitlichen Kniehöcker weiter. Dies ist eine Endverknüpfung für die meisten Teile des Nervs und leitet die Information and die Sehrinde weiter. Ein paar der Ganglienzellen können auch auf Licht reagieren aber da diese Signalkette langsamer ist als diejenige, der Stäbchen und Zapfen, wird angenommen, dass diese lediglich Umgebungslicht aufnehmen und die biologische Uhr umstellen.
Signalverarbeitung
[Bearbeiten]Wie bereits erwähnt ist die Retina der Hauptbestandteil des Auges, weil sie die lichtempfindlichen Zellen enthaltet. Ohne sie wäre das Auge vergleichbar zu einer Kamera ohne CCD (Charge Coupled Device) Sensor. In diesem Abschnitt wird erklärt, wie die Retina das Licht empfindet und wie das optische Signal an das Gehirn weitergeleitet wird. Schliesslich wird auch besprochen wie das Gehirn durch diese Signale genügend Informationen hat um Entscheidungen zu treffen.
Das Ursprüngliche Signal – Photosensorische Funktion
[Bearbeiten]Sicht fängt ausnahmslos damit an, dass Licht auf die photosensitiven Zellen trifft, welche in der Retina zu finden sind. Licht-absorbierende Pigmente, wie auch verschiedene Enzyme und Transmitter in den Stäbchen und Zapfen der Retina, übernehmen die Umwandlung von visuellen elektromagnetischen Wellen zu elektrischen Impulsen. Dieser Prozess wird photoelektrische Transduktion genannt. Beispielsweise bei den Stäbchen trifft das sichtbare Licht auf das Rhodopsin. Dies sind transmembrane Moleküle welche in den äusseren Membranscheibchen zu finden sind. Jedes Rhodopsin Molekül besteht aus einer Ansammlung von Spiralen, die Opsine genannt werden. Opsine umgeben das 11-cis retinal, der Teil des Moleküls, das durch die eintreffende Energie bzw. Photonen verändert wird. Die Moleküle oder Teile der Molekülen die ihre Struktur aufgrund von eintreffender Energie verändern, werden manchmal als Chromophore bezeichnet. 11-cis retinal wird durch die eintreffende Energie geradegebogen, was es zu all-trans retinal umändert. Dies hat zur Folge, dass die Opsin Spiralen weiter voneinander entfernt werden und spezifische reaktionsfähige Stellen freilegen. Dieses nun ‘aktivierte’ Rhodopsin Molekül wird Metarhodopsin II genannt. Ab diesem Punkt wird die Reaktion stattfinden, auch wenn die Lichtstimulation nicht mehr stattfindet. Metarhodopsin II kann mit ungefähr 100 Molekülen des Gs- Proteins interagieren, um das Signal zu übertragen. Dies führt zu as und Beta nachdem GDP zu GTP konvertiert ist. Das aktivierte as- GTP binden dann an cGMP-Phosphodiesterase (PDE), um den normalen Ionenaustausch zu unterdrücken. Daraus folgt eine tiefe Konzentration von Kationen im Zytosol, also einer Zellpolarisierung.
Die natürliche Lichtelektrische Signalübertragungsreaktion hat ein unglaubliche Verstärkungsfähigkeit. Ein einziges Retinal Moleküle, aktiviert von einem Lichtquantum, kann die Hydrolysierung von bis zu 106 cGMP Molekülen pro Sekunde verursachen.
Phototransduktion
[Bearbeiten]- Ein Lichtphoton interagiert mit der Retinal als Lichtrezeptor. Die Retinal wird isomerisiert, das heisst sie verändert sich von einer 11-cis zu einer all-trans Konfiguration.
- Retinal passt nicht mehr in die Bindungsstelle von Opsin.
- Opsin verändert also seine Konfirmation zu Metarhodopsin II.
- Metarhodopsin II ist unstabil und spaltet sich. Daraus ergibt sich Opsin und all-trans Retinal.
- Opsin aktiviert das regulatorische Protein Transducin. Dies führt dazu, dass sich Transducin von GDP trennt und nun GTP bindet. Die Alpha Untereinheit von Transducin dissoziert von den Beta- und Gamma Untereinheiten, wobei GTP immer noch an die Alpha Untereinheit gebunden bleibt.
- Das Alpha-GTP Komplex aktiviert Phosphodiesterase (PDE).
- PDE spaltet cGMP zu 5’-GMP. Das führt zu einer Verminderung der cGMP Konzentration und dadurch zu einer Schliessung der Natriumkanäle.
- Die Natriumkanalschliessung führt zur Hyperpolarisation der Zelle aufgrund der kontinuierlichen Kaliumströmung.
- Hyperpolarisation führt zur Schliessung der spannungsabhängigen Kalziumkanäle.
- Während der Kalziumpegel sinkt, vermindert sich auch die Freisetzung von Glutamat, da Kalzium benötigt wird für die Fusion der Glutamat-haltigen Vesikel mit der Zellmembran.
- Eine Verminderung der Menge an freigesetztem Glutamat durch die Fotorezeptoren hat die Depolarisation der On-bipolarzellen und Hyperpolarisation der Off-bipolarzellen zur Folge.
Ohne sichtbare elektromagnetische Stimulation, haben die Stäbchenzellen mit ihrem Inhalt von Ionen, Proteinen und anderen Molekülen eine Membranpotentialdifferenz von circa -40mV. Im Vergleich zu anderen Nervenzellen (-65mv) ist das ziemlich hoch. In diesem Stadium wird der Neurotransmitter Glutamat kontinuierlich von den Axon Enden freigesetzt und durch die angrenzenden Bipolarzellen aufgenommen. Durch die einfallenden sichtbaren elektromagnetischen Wellen und dem Ablaufen der zuvor beschriebenen Signalkaskade, sinkt die Potentialdifferenz auf -70mV. Diese Hyperpolarisation der Zelle führt zu einer Verminderung der Menge an freigesetztem Glutamat und somit einer geringeren Aktivität der Bipolarzellen und den weiterführenden Schritten der Signalkaskade.
Ähnliche Prozesse existieren in den Zapfenzellen und in den Lichtempfindlichen Ganglienzellen, jedoch durch andere Opsine. Photopsin I bis III (gelblich-grün, grün und blau-violett) sind in den drei verschiedenen Zapfenzellen zu finden und Melanopsin (blau) kommt in den lichtempfindlichen Ganglienzellen vor.
Signalverarbeitung in der Retina
[Bearbeiten]Verschiedene Bipolarzellen reagieren unterschiedlich auf die Veränderungen der freigesetzten Glutamat Menge. Die sogenannten ON und OFF Bipolarzellen werden genutzt, um den direkten Signalflussweg von Zapfen zu Bipolarzellen zu bilden. Die ON Bipolarzellen werden durch die Stimulation von sichtbaren elektromagnetischen Wellen depolarisiert und die entsprechenden ON Ganglienzellen werden aktiviert. Zudem werden die OFF Bipolarzellen durch diese Stimulation hyperpolarisiert und die OFF Ganglienzellen inhibiert. Das ist der grundlegende Signalweg des direkten Signalflusses. Der laterale Signalfluss startet in den Stäbchen und geht in die Bipolarzellen, die amakrinen Zellen und schliesslich in die OFF Bipolarzellen. Die OFF Bipolarzellen werden durch die Stäbchen-Amakrinzellen inhbiert und die ON Bipolarzellen werden durch eine elektrische Synapse stimuliert. Nach all den zuvor genannten Schritten erreicht das Signal bei die ON oder OFF Ganglienzellen und der gesamte Signalflussweg ist hergestellt.
Die Frequenz des Aktionspotentials (AP) wird erhöht, wenn das Sensorpotential erhöht ist. In anderen Worten, das AP ist abhängig von der Amplitude des Sensorpotentials. Die Region der Ganglienzellen, welche die AP Frequenz beeinflusst, wird rezeptives Feld (RF) genannt. Rund um die Ganglienzellen besteht das RF normalerweise aus zwei Zonen: die zentrale Zone und die Ring-ähnliche periphere Zone. Die Zonen sind während der Anpassung an die sichtbaren elektromagnetischen Wellen unterscheidbar. Eine Stimulation der zentralen Zone durch sichtbare elektromagnetische Wellen kann zu einer Erhöhung der AP Frequenz führen, während die Stimulation der peripheren Zone zu einer Senkung der Frequenz führen kann. Wenn die Lichtquelle abgeschaltet wird, entsteht die Anregung. Der Name ON Feld bezieht sich also auf eine solche Art von Region. Natürlich reagieren die OFF Ganglienzellen des RF genau umgekehrt – deshalb bezeichnet man es als OFF Feld. Die RFs werden durch die Horizontalzellen organisiert. Die Impulse auf der peripheren Zone werden an die zentrale Zone weitergeleitet und es wird der sogenannte Stimulus Kontrast gebildet. Diese Funktion wird dazu führen, dass etwas Dunkles noch dunkler und etwas Helles noch heller erscheint. Wenn das ganze RF dem Licht ausgesetzt ist, wird die zentrale Zone dominieren.
Signalweiterleitung durch den Cortex
[Bearbeiten]Wie bereits erwähnt, konvergieren die Axone der Ganglienzellen an der Papillenfläche der Retina und führen zur Bildung des Sehnervs. Diese Fasern sind in einer spezifischen Reihenfolge innerhalb des Bündels angeordnet. Fasern von der Makula werden im Zentrum positioniert und Fasern der Schläfenseite der Retina machen die Peripherie aus. Wenn die Fasern ausserhalb der Augenhöhle sind, kommt es zu einer Überkreuzung der der Nervenbahnen. Die Fasern der nasalen Hälften der Retina kreuzen zur anderen Seite und gehen von dort aus zum Gehirn. Diejenigen der temporalen Hälften der Retina bleiben und kreuzen sich nicht. Das Kreuzen von einem Teil der Fasern wird optisches Chiasma genannt und die Sehnerven danach werden als Sehbahnen beschrieben. Diese Differenzierung zwischen Sehnerv und Sehbahn wird hauptsächlich gemacht, um zwischen den Nerven mit Fasern von einer Retina und von beiden Retina zu unterscheiden. Diese Kreuzung findet statt, damit die Informationen des rechten Sichtfeldes, welches von beiden Augen produziert wird, nur an die linke Hirnhälfte geleitet werden und umgekehrt. Deshalb werden alle Informationen der rechten Körperhälfte und des rechten Sehfeldes an den linken Teil des Hirns geleitet, was bei Sicht der hintere Teil des Diencephalons ist.
Die Informationen werden von Fasern der Sehbahn zu den Nervenzellen im lateralen Corpus Geniculatum übertragen. Der Corpus Geniculatum macht den zentralen Teil der sichtbaren Lichtsignalverarbeitung aus und befindet sich im Thalamus. Von hier aus gehen die Informationen zu den Nervenzellen des Hinterkopfes bzw. des Occipitallappens in der entsprechenden Hirnhälfte. Verbindungen von der Retina zum Gehirn können in zwei Signalwege unterteilt werden: Parvozelluläre Signalweg und der Magnozelluläre Signalweg. Der parvozelluläre Signalweg ist für Farbe und spezifische Detail zuständig, während der magnozelulläre Signalweg schnelle Bewegungen aufnimmt.
Signale von digitalen Kameras entsprechen ungefähr denjenigen des parvozellulären Signalweges. Um die Antworten des parvozellulären Signalwegs zu stimulieren, haben Wissenschaftler neuromorphische sensorische Systeme. Diese probieren ‘spike-basierte’ Berechnungen in neuralen Systemen nachzuahmen. Dafür verwenden sie das sogennante «Address-Event Representation»-Schema für die Signalvermittlung in die neuromorphischen elektronischen Systeme. [1]
Anatomisch gesehen projizieren die retinalen Magno und Parvo Ganglienzellen auf die zwei ventralen magnozellulären und 4 dorsalen parvozellulären Schichten des lateralen Corpus Geniculatum (engl. Lateral geniculate nucleus - LGN). Jede der sechs LGN Schichten erhaltet Inputs von entweder dem ipsilateralen oder dem kontralateralen Auge, also die Ganglienzellen des linken Auges kreuzen und projizieren zur ersten, vierten und sechsten Schicht des rechten LGN und die Ganglienzellen des rechten Auges, welche ungekreuzt bleiben projizieren zur zweiten, dritten und fünften Schicht. Von da an sind die Informationen des rechten und linken Auges separiert.
Das visuelle Feld wird als eine ebene und komplette Einheit angesehen. Dies bedingt, dass die rechte und die linke Sehrinde gut vernetzt sind. Diese Vernetzung, durch den Corpus Callosum (deutsch: Balken) besteht aus Neuronen, Axonen und Dendriten. Weil die Dendriten an jeweils verwandten Punkten der beiden Hemisphären Synapsen bilden, kann die Stimulation auf einer Seite der Hemisphäre die der Stimulationsort der anderen Hemisphäre voraussagen. Die einzige Ausnahme zu dieser Regel ist die primäre Sehrinde.
Die Synapsen werden durch die Sehbahn in den entsprechenden Schichten des LGNs gebildet. Danach werden die Axone dieser Nervenzellen dritter Ordnung an die Spalten in den beiden Okzipitallappen des Cortex geleitet. Weil die Bänder der weissen Fasern und Axonen der Retinanerven hierdurch gehen, wird es der striärer visueller Kortex genannt. Dies entspricht dem primären visuellen Kortex, der auch als V1 bezeichnet wird. An diesem Punkt konvergieren die Impulse der beiden Augen zu den gemeinsamen kortikalen Neuronen. Dies ermöglicht den kompletten Informationsfluss beider Augen in eine bestimmte Region, wo die Informationen verarbeitet und zur Interpretation genutzt werden können. Mustererkennung ist sehr wichtig für die Funktionen dieses Gehirnteils. Läsionen in diesem Bereich können zu Sichtproblemen führen oder auch zu Blindheit.
Folgendes basiert auf der geordneten Art und Weise, in der die Fasern des optischen Trakts Informationen an den lateralen Corpus Geniculatum weitergeben und danach in den Streifenbereich gelangen. Wenn eine einzige Punktstimulation auf der Retina gefunden wurde, wird die Antwort an einer kleinen Netzhautstell zu finden sein, die sowohl im lateralen Corpus Geniculatum als auch im striären Kortex elektrisch generiert wurde. Dies entspricht einer Art des Punkt-zu-Punkt Signalisierens. Wenn die ganze Retina stimuliert wird, werden die Antworten auf dem lateralen Corpus Geniculatum wie auch auf der grauen Region des striären Kortex aufkommen. Es ist möglich, von diesen Gehirnregionen auf die retinalen bzw. visuellen Felder zu schliessen.
Alle weiteren Schritte dieses Signalwegs gehen über den Rahmen der Informationen dieses Artikels hinaus. Es ist aber sicher zu sagen, dass es viele weitere Schritte und Zentren gibtm um auf spezifische Aufgaben wie Farberkennung, Orientierung, Räumlichkeit, Emotionen und mehr zu fokussieren.
Informationsverarbeitung des Visuellen Systems
[Bearbeiten]Ausgestattet mit einem genaueren Verständnis zu den wichtigsten Konzepten der Signalverarbeitung im visuellen System, wird das Verstehen der aufgenommenen sensorischen Information das letzte Teil des Puzzles bilden. Visuelle Wahrnehmung ist der Prozess, bei welchem die von den Augen aufgenommene Informationen in ein Verständnis des externen Umfelds übersetzt werden. Es macht uns aufmerksam auf die Welt um uns herum und erlaubt uns, sie besser zu verstehen. Basierend auf der visuellen Wahrnehmung, lernen wir Muster, welche wir später im Leben wieder bei der Entscheidungsfindung anwenden können. Kurz gesagt, unser Überleben hängt von dieser Wahrnehmung ab. Das Wahrnehmungsfeld wurde in verschiedene Unterfelder aufgeteilt, da es ein sehr komplexer Prozess ist, welcher viele spezialisierte Mechanismen benötigt, um zu erkennen was gesehen wird. Diese Unterfelder umfassen: Farbwahrnehmung, Bewegungswahrnehmung, Tiefenwahrnehmung und Gesichtserkennung.
Tiefe Hierarchien im visuellen Kortex von Primaten
[Bearbeiten]Trotz der immer grösser werdenden Rechenleistung von elektrischen Systemen, gibt es nach wie vor viele Aufgaben, in welchen das menschliche und tierische Gehirn den Computern weit überlegen sind. Ein Beispiel dafür ist die Wahrnehmung und Einordnung von Informationen. Der klassische Computer ist ein Zahlenakrobat, denn er kann unglaublich viele Rechnungen in minimaler Zeit durchführen. Was ihm jedoch fehlt, ist die Fähigkeit die Information, mit welcher er arbeitet, einzuordnen. Wenn zum Beispiel eine Kamera mit Ihrem Computer verbunden ist, wird das Bild als ein Gitter voller Pixel, also ein 2-dimensionaler Vektor von Zahlen, wahrgenommen. Ein Mensch hingegen würde sofort die Geometrie der Szene, die Objekte im Bild und eventuell auch die Handlung des Bildes wahrnehmen. Diese Fähigkeit ist uns gegeben durch die biologische Maschine – das visuelle System im Gehirn. Es verarbeitet alles, was wir sehen auf hierarchische Art und Weise. Normalerweis beginnt diese Verarbeitung mit den einfacheren Eigenschaften und arbeitet sich zu den komplexeren bis hin zur Einordnung der Objekte in Kategorien durch. Das visuelle System hat also eine tief verankerte Hierarchie. Diese Hierarchie des primaten visuellen Systems hat viele Informatiker dazu inspieriert, künstliche Modelle von Netzwerken zu entwerfen. Diese beinhalten ebenfalls mehrere Schichten, welche immer höhere Generalisierungen von den aufgenommenen Daten darstellen.
Ungefähr die Hälfte des menschlichen Neocortex ist der Sehkraft gewidmet. Die Verarbeitung von visuellen Informationen findet über mindestens 10 funktionellen Ebenen statt. Die Neuronen der frühen visuellen Bereiche extrahieren einfache Bild Eigenschaften über kleine lokale Regionen des visuellen Feldes. Die Neuronen reagieren, während die Informationen an höhere visuelle Bereiche weitergegeben werden, auf immer komplexere Eigenschaften. Die Darstellung wird immer wie unveränderlicher und es wird weniger auf genaue Angaben wie Grösse, Anordnung und Position geachtet. Zusätzlich nimmt die Grösse vom Wahrnehmungsfeld der Neuronen zu, was dafürspricht, dass nun eher das globale Bild von Relevanz ist. Die hierarchische Struktur erlaubt effizientes Berechnen, was bedeutet, dass die höheren Bereiche dieselben Informationen benutzen können, wie bereits in tieferen Regionen benutzt wurden. Die generische Szenenbeschreibung welche in den ersten visuellen Bereichen gemacht wurde, wird später von weiteren Bereichen genutzt für Dinge wie Objekt Erkennung, Einordnung, Greifen, Manipulieren, Bewegungsplanung, etc.
Subkortikales Sehen
[Bearbeiten]Das neuronale Verarbeiten der visuellen Informationen beginnt bereits bevor die kortikalen Strukturen erreicht werden. Photorezeptoren auf der Retina erkennen Licht und senden Signale an die retinalen Ganglion Zellen. Das rezeptive Feld eines Fotorezeptors ist 1/100 eines Grads (ein 1 Grad grosses rezeptives Feld ist circa die Grösse eines Daumens, wenn der Arm vor dem Gesicht ausgestreckt ist). Die Anzahl der Inputs einer Ganglionzelle und somit die Grösse des rezeptiven Feldes is ortsabhängig. Im Zentrum der Retina stammen Signale von zum Teil lediglich 5 Rezeptoren während in der Peripherie eine einzige Zelle mehrere Tausend Inputs haben kann. Dies impliziert, dass die höchste räumliche Auflösung ist also im Zentrum der Retina, der sogenannten Fovea. Aufgrund dieser Eigenschaft von Primaten, haben sie einen Blick-Kontrollmechanismus, der die Sicht auf die Objekte, die von Interesse sind, steuert.
Ganglionzellen sind spezifisch ausgerichtet, um gewisse Eigenschaften des Bildes, wie Helligkeit, Kontrast, Farbkontrast, Richtung und Geschwindigkeit zu entdecken. All diese primären Eigenschaften werden später in der Verarbeitung erneut benutzt. Wenn es visuelle Stimuli gibt, die von den Ganglionzellen nicht erkannt werden, werden sie auch nicht für die kortikale Verarbeitung zur Verfügung stehen.
Ganglionzellen projizieren auf eine Region im Thalamus, die Corpus geniculatum laterale (LGN) genannt wird. Von dort werden die Informationen dann in den Kortex weitergegeben. Bis jetzt ist nicht bekannt, was im LGN berechnet werden könnte. Es herrscht fast eine Eins-zu-eins-Korrespondenz zwischen retinalen Ganglionzellen und LGN Zellen. Jedoch kommen nur 5% des Inputs in den LGN von der Retina, während alle anderen Informationen kortikale Feedback Projektionen sind. Auch wenn das visuelle System oft als Feed-Forward System betrachtet wird, sind die wiederkehrenden Feedback Verbindungen, wie auch die lateralen Verbindungen wichtige Eigenschaften, die im visuellen Kortex gesehen sind. Die Funktion des Feedbacks ist bis zum jetzigen Zeitpunkt noch nicht komplett geklärt, aber es wird vermutet, dass es zu Abläufen wie Aufmerksamkeit, Erwartungen, Vorstellungen und einfüllen von fehlenden Informationen gebraucht wird.
Kortikales Sehen
[Bearbeiten]Der visuelle Kortex kann in drei Teile gegliedert werden: okzipital, dorsal und ventral. Der okzipitale Teil empfängt Informationen vom lateralen Corpus Geniculatum (LCG) und sendet diese an die dorsalen und ventralen Pfade. Der okzipitale Teil beinhaltet V1-V4 und MT, welche die verschiedenen Aspekte visueller Informationen verarbeiten und eine allgemeine Szene zur Darstellung bringen. Der ventrale Pfad ist involviert in Objekterkennung und Kategorisierung.
V1 ist die erste kortikale Region, die visuelle Informationen verarbeitet. Sie ist sensible auf Kanten, Gitter, Linienenden, Bewegung, Rotation, Farbe und Winkelunterschiede von Projektionen auf die linke und rechte Retina. Das einfachste Beispiel der hierarchischen Bottom-Up Verarbeitung ist die lineare Kombination von Inputs von mehreren Ganglienzellen mit zentralem rundherum rezeptivem Feld, was zu einer Repräsentation von einem Balken führt. Dies wird durch die simplen Zellen des V1 erreicht und wurde erstmals durch die berühmten Neurowissenschaftler Hubel und Wiesel beschrieben.[2] Diese Art von Informationsintegration impliziert, dass einfache Zellen auf die exakte Position des Balkens reagieren und ein ziemlich kleines rezeptives Feld (RF) haben. Die komplexen Zellen des V1 erhalten Inputs von einfachen Zellen. Während diese zwar auf linear orientierte Muster reagieren, sind sie nicht sensibilisiert zur Erkennung der exakten Position eines Balkens und haben ein grösseres RF. Die Berechnung in diesem Schritt könnte ein MAX-ähnlicher Vorgang sein, dessen Rückmeldungen ähnliche Amplituden erreichen, wie die Rückmeldungen betreffend die einzelnen Stimuli. Einige einfache und komplexe Zellen können auch die Enden des Balkens erkennen und ein Bruchteil der V1 Zellen ist auch auf lokale Bewegungen innerhalb ihres RF sensibilisiert.
Region V2 führt zu anspruchsvolleren Kontur Erkennungen wie zum Beispiel die konsistenzdefinierte Kontur, illusionäre Kontur und Konturen mit Grenzüberschreitungen. V2 basiert auf der absoluten Unterschiedserkennung im V1 und weist Zellen auf, die sensible sind zu relativen Unterschieden. Der relative Unterschied ist die Differenz zwischen den absoluten Unterschieden von zwei Punkten im Raum. Region V4 erhält Inputs von V2 und V3. Es ist sehr wenig Wissen vorhanden über die Berechnungen, die in V3 stattfinden. V4 enthält Neuronen, die auf Konturen mit verschiedenen Krümmungen und Spitzen mit spezifischen Winkeln reagieren. Eine weitere wichtige Eigenschaft ist die Kodierung für die Farbe, die gegenüber der Leuchtdichte invariant ist. Dies ist das Gegenteil von V1 Neuronen, denn die reagieren auf entgegengesetzte Farben entlang der beiden Farbachsen rot-grün und gelb-blau anstelle von der eigentlichen Farbe. V4 gibt auch Outputs zum ventralen Pfad, zum inferioren temporalen Cortex (IT). Es wurde gezeigt, dass Läsionen in dieser Gegend zu Schwierigkeiten bei der Objekterkennung führen.
Der Inferiore Temporale Kortex (IT): Objekt Erkennung
[Bearbeiten]Der IT ist in zwei Regionen untereilt: TEO und TE. TEO integriert Informationen über die Form und relative Position von mehreren Konturelementen und hat hauptsächlich Zellen, welche auf eine Kombination dieser beiden Dinge reagieren. Die Grösse des rezeptiven Feldes des TEOs ist circa 3-5 Grad. TE enthält Zellen die wesentlich grössere RF haben (10-20 Grad) und auf Gesichter, Hände und komplexe Konfigurationen reagieren. Zellen in TE reagieren auf visuelle Merkmale, die eine einfachere Verallgemeinerung des interessierenden Objekts darstellen, jedoch komplexer sind als einfache Balken oder Punkte. Dies wurde mittels einer Stimulus-Reduktions Methode durch Tanaka et al. [3] gezeigt. Dabei wird die erste Reaktion auf ein Objekt gemessen und danach wird das Objekt durch eine einfachere Repräsentation ersetzt bis das Ganze auf das kritische Merkmal, auf welches die TE Neuronen reagieren, reduziert ist.
Es scheint, dass die Neuronen im IT verschiedene Merkmale mittlerer Komplexität von niedrigeren Ebenen im ventralen Strom zusammenführen, um Modelle von Objektteilen zu erstellen. Die Neuronen aus dem TE, die auf bestimmte Objekte reagieren, müssen zwei widersprüchliche Voraussetzungen erfüllen - zum einen Empfindlichkeit und zum anderen Invarianz. Sie müssen anhand der Empfindlichkeit gegenüber Merkmalen in den Netzhautbildern zwischen verschiedenen Objekten unterscheiden. Allerdings kann ein Objekt von diversen Seiten von unterschiedlichen Distanzen und zu unterschiedlichen Lichtverhältnissen betrachten, was jeweils zu unterschiedlichen Bildern desselben Objekts auf der Retina führt. Um alle diese Bilder als gleichwertig zu behandeln, müssen unveränderliche Merkmale abgeleitet werden, die gegenüber bestimmten Transformationen, wie z. B. Änderungen der Position, Beleuchtung, Größe der Netzhaut usw., robust sind. Neuronen in der TE Gegend sind invariant gegenüber Position, Grösse, partielle Okklusion und Beleuchtungsrichtung. Es hat sich gezeigt, dass die Rotation in der Tiefe die schwächste Invarianz aufweist, sofern das Objekt kein menschliches Gesicht ist.
In der TE Gegend sind die Objekt Kategorien noch nicht präsent - Neuronen reagieren auf die meisten, aber nicht auf alle Objekte aus derselben Kategorie (z.B. bei Bildern von Bäumen). Zudem kann ein Neuron auch auf zwei Inputs aus verschiedenen Kategorien reagieren (z.B. Bilder von Bäumen und Bilder von nicht-Bäumen). Objekterkennung und -klassifizierung umfasst höchstwahrscheinlich Neuronen aus diversen TE-Neuronen Populationen sowie den Empfang von zusätzlichen Inputs aus anderen Hirngegenden, z.B. denjenigen, die dafür verantwortlich sind, den Kontext einer Szene zu verstehen. Aktuelle Ausleseexperimente haben gezeigt, dass statistische Klassifikatoren (z.B. support vector machines (SVM)) darauf trainiert werden können, Objekte basierend auf den Antworten der kleineren TE-Neuronen zu klassifizieren. Daher kann eine TE-Neuronen Population verlässlich auf eine Objektkategorie hinweisen, wenn man die kombinierte Aktivität der einzelnen Neuronen betrachtet. Interessanterweise gibt es auch Berichte, dass es hochsensible selektive Neuronen im medialen Temporallappen gebe, die auf ganz bestimmte Reize reagieren wie z.B. der schiefe Turm von Pisa auf diversen Bildern oder das Gesicht einer bestimmten Person.
Lernen im Visuellen System [4] [5] [6]
[Bearbeiten]Lernen kann die visuelle Merkmalsselektivität von Neuronen verändern, wobei der Lerneffekt auf höheren Hierarchieebenen stärker wird. Es gibt keine Hinweise darauf, dass in der Retina gelernt wird. Zudem scheinen die gelernten Orientierungskarten (engl. orientation maps) weitgehend genetisch vorbestimmt zu sein. Trotzdem verbessert sich die Richtungskodierung in V1 Neuronen, wenn man die Richtungsidentifizierung übt, indem die Steigung der Tuning-Kurve gesteigert wird. Ähnliche, aber grössere Effekte wurden in V4 festgestellt. In der TE Gegend hat visuelles Training nur kleine physiologische Effekte auf die visuelle Wahrnehmung, sowohl auf der Ebene einer einzigen Zelle als auch in einem fMRI. Das Verwandeln eines Objekts in ein anderes Objekt verstärkt ihre wahrgenommene Ähnlichkeit. Insgesamt scheint es, dass sogar der visuelle Kortex eines Erwachsenen beträchtlich plastisch ist, und das Plastizitätsniveau kann signifikant erhöht werden, z. B. durch Verabreichung spezifischer Arzneimittel oder durch Leben in einer angereicherten Umgebung.
Deep Neural Networks
[Bearbeiten]Ähnlich wie bei den tiefen Hierarchien des visuellen Systems von Primaten, versuchen Deep Learning (DL) Architekturen, Abstraktionen der Eingabedaten auf hoher Ebene unter Verwendung mehrerer Ebenen nichtlinearer Transformationen zu modellieren. Das von Hubel und Wiesel präsentierte Modell, bei welchem Informationen in einer Kaskade von der Retina und des LGN zu einfachen Zellen und komplexen Zellen in V1 propagiert werden, inspirierte die Kreation der ersten DL Architektur, dem ‘neocognitron’ [7] , einem mehrschichtigen künstlichen neuronalen Netzwerk. Dies wurde für verschiedene Mustererkennungsaufgaben, inkl. Handschriftenerkennung, genutzt. Allerdings hat man enorm viel Zeit für das Trainieren des Netzwerks gebraucht (mehrere Tage). Deep Learning hat nach seiner Entstehung in den 1980-er Jahren bis Mitte der 2000-er Jahre nicht viel Aufmerksamkeit gekriegt, bis dann mehr digitale Daten zur Verfügung standen und schnellere Trainingsalgorithmen entwickelt wurden. Tiefe neuronale Netze haben sich bei Aufgaben als sehr effektiv erwiesen, die vor nicht allzu langer Zeit nur für Menschen möglich erschienen, wie das Erkennen der Gesichter bestimmter Personen auf Fotos, das Verstehen der menschlichen Sprache (in gewissem Maße) und das Übersetzen von Texten aus Fremdsprachen. Außerdem haben sie sich als grossartige Assistenz in der Industrie und der Wissenschaft gezeigt, wo sie eingesetzt werden, um potentielle Patienten für Medikamente zu bestimmen, oder echte neuronale Netzwerke im Gehirn zu bestimmen oder die Funktionen von Proteinen vorherzusagen. Es muss an dieser Stelle erwähnt werden, dass Deep Learning nur grob vom menschlichen Gehirn inspiriert wurde und viel mehr eine Errungenschaft auf dem Gebiet der Informatik / des maschinellen Lernens als der Neurowissenschaften darstellt. Die Hauptparallelen bestehen darin, dass tiefe neuronale Netzwerke aus mehreren Einheiten bestehen, die Input Informationen in einer non-linearen Art und Weise integrieren (Neuronen) und sie Signale zusenden (Synapsen), und dass es unterschiedliche Ebenen der abstrakten Darstellung der Daten gibt. Die tatsächlichen Algorithmen, die für das Lernen (Trainieren) des künstlichen neuronalen Netzwerkes eingesetzt werden, und die mathematische Beschreibung der ‘Neuronen’ unterscheiden sich stark von den tatsächlichen Vorgängen, die im Gehirn stattfinden. Aus diesem Grund kann die Forschung im Bereich des Deep Learnings nur begrenzte Einblicke in das Gehirn geben, obwohl sie die künstliche Intelligenz enorm vorangetrieben hat.
Unter folgenden Referenzen findet man einen Überblick über den Status Quo der Deep Learning-Forschung. [8]
Papers zu den tiefen Hierarchien im visuellen System findet man unter folgenden Referenzen. [9] [10]
Referenzen
[Bearbeiten]- ↑ Liu, S. C., & Delbruck, T. (2010). Neuromorphic sensory systems. Current opinion in neurobiology, 20(3), 288-295.
- ↑ Hubel, D. H., & Wiesel, T. N. (1962). Receptive fields, binocular interaction and functional architecture in the cat's visual cortex. The Journal of physiology, 160(1), 106-154.
- ↑ Tanaka, K. (1996). Inferotemporal cortex and object vision. Annual review of neuroscience, 19(1), 109-139.
- ↑ Li, N., & DiCarlo, J. J. (2010). Unsupervised natural visual experience rapidly reshapes size-invariant object representation in inferior temporal cortex. Neuron, 67(6), 1062-1075.
- ↑ Raiguel, S., Vogels, R., Mysore, S. G., & Orban, G. A. (2006). Learning to see the difference specifically alters the most informative V4 neurons. Journal of Neuroscience, 26(24), 6589-6602.
- ↑ Schoups, A., Vogels, R., Qian, N., & Orban, G. (2001). Practising orientation identification improves orientation coding in V1 neurons. Nature, 412(6846), 549.
- ↑ Ausführliche Neocognitron-Ausarbeitung auf linux-related.de (PDF-Datei; 1,10 MB)
- ↑ Jones, Nicola. "Computer science: The learning machines." Nature News 505.7482 (2014): 146.
- ↑ Kruger, N., Janssen, P., Kalkan, S., Lappe, M., Leonardis, A., Piater, J., ... & Wiskott, L. (2012). Deep hierarchies in the primate visual cortex: What can we learn for computer vision?. IEEE transactions on pattern analysis and machine intelligence, 35(8), 1847-1871.
- ↑ Riesenhuber, Maximilian, and Tomaso Poggio. "Hierarchical models of object recognition in cortex." Nature neuroscience 2.11 (1999): 1019.