ANZEIGE
"Im Alltag bewegen wir unsere Augen nahezu ununterbrochen", sagt Prof. Dr. Fred Hamker, Inhaber der Professur Künstliche Intelligenz an der TU Chemnitz. Das hat einen Vorteil, da der Mensch den Teil der Szene, der sich im Zentrum des Blickfeldes befindet, besonders gut erkennen kann, weil dort das Sehen am schärfsten ist. "Der Nachteil der fortlaufenden Augenbewegungen ist aber, dass das Gehirn eine nie endende Folge von kleinen scharfen Ausschnitten der Welt zu sehen bekommt, aus denen es ein Bild des großen Ganzen zusammensetzen muss", sagt Hamker und erklärt: "Denn normalerweise bemerken wir nicht, dass wir nur kleine Ausschnitte der Welt sehen, sondern haben den Eindruck, stets die ganze Szene vor unseren Augen zu haben." Die Aufgabe, die das Gehirn dabei lösen muss, nennen Forscher das Problem der visuellen Stabilität. Prof. Hamker und sein Mitarbeiter Arnold Ziesche versuchen, den Mechanismus zu verstehen, mit dem das Gehirn dieses Problem löst. Die Ergebnisse können die Grundlage bieten, um Robotern und digitalen Menschmodellen beizubringen, ihre Umwelt realitätsnah wahrzunehmen und mit ihr zu interagieren.
Die Chemnitzer Informatiker haben eine Computersimulation von dem Gehirnareal entwickelt, von dem man vermutet, dass es diese Berechnungen ausführt. "Dabei haben wir großen Wert darauf gelegt, dass die Simulation im Einklang mit bisherigen Messungen von Neurowissenschaftlern und Psychologen ist, die sich mit diesem Problem beschäftigen", betont Hamker. Da sich ein lebendes Gehirn nicht bis in das letzte Detail untersuchen lässt, können die beiden Forscher stattdessen ihr Computerabbild des Gehirnareals studieren. Dabei untersuchten sie einen raffinierten Trick des Gehirns: Es kann Augenbewegungen kurz bevor sie anfangen schon voraussehen, weil es von einem anderen Gehirnareal, das die Augenbewegung plant, bereits vorab darüber informiert wird. Mit dieser Vorabinformation kann sich das Gehirnareal auf die Veränderung des Bildausschnitts vorbereiten und alle Bildinformationen an der richtigen Stelle in der Welt verorten.
Zu ihren aktuellen Forschungsergebnissen haben die Chemnitzer Wissenschaftler einen Beitrag im "Journal of Neuroscience" veröffentlicht. Beschrieben wird ein Computermodell, dem Versuche von Psychologen, Medizinern und Neurowissenschaftlern bei absoluter Dunkelheit zugrunde liegen. Die Testpersonen mussten eine festgelegte Augenbewegung ausführen, während der Lichtreize angezeigt wurden, die sie dann im Raum verorten sollten. Die Versuche wurden im Dunkeln durchgeführt, damit die Teilnehmer keine Bezugspunkte hatten, um die dann eingeblendeten Lichtreize in Relation zu setzen. Die Lokalisierung der Reize durch die Testpersonen wich bei aktuellen Versuchen nicht mehr als 13 Grad von der Realität ab, egal wie weit die auszuführende Augenbewegung war. "Das entspricht nicht den Vorhersagen durch bisherige Modelle, weshalb wir ein neues Modell vorschlagen, mit dem sich auch diese Beobachtung erklären lässt", so Hamker. Auch hier konnten die Informatiker den Schluss ziehen, dass da s Gehirn die folgende Augenbewegung schon voraussieht und in der Wahrnehmung der Realität berücksichtigt.
Der Forschung liegt das Projekt "Visuospatial-cognition" zugrunde, das das Bundesministerium für Bildung und Forschung bis 2010 für drei Jahre gefördert hat. Die Chemnitzer Informatiker arbeiteten in diesem Verbundprojekt gemeinsam mit Psychologen und Medizinern. Als nächstes haben sich die TU-Forscher vorgenommen, zu untersuchen, wie das Gehirn die räumlichen Beziehungen der gesehenen Gegenstände untereinander verarbeitet. "Dazu werden wir unsere Computersimulation deutlich vergrößern müssen. Unser Ziel ist es, ein zusammenhängendes Bild aller Vorgänge, die beim Sehen eine Rolle spielen, zu konstruieren", sagt Hamker.