go back

Konzeptionelle Modellierung geometrischer Invarianzen in der visuellen Wahrnehmung von Primaten

Rüdiger Kupper, "Konzeptionelle Modellierung geometrischer Invarianzen in der visuellen Wahrnehmung von Primaten", 2004.

Abstract

Kurzfassung in Deutsch: Unser Sehsinn vermittelt uns eine stabile Wahrnehmung der Umwelt. Objekte darin erkennen wir unabhängig von der Position, die wir ihnen gegenüber einnehmen. Diese invariante Wahrnehmung ist im Rahmen der verfügbaren neuronalen Modelle nur mit Einschränkungen zu erklären. Die Standardmodelle basieren auf einer hierarchischen Anordnung von Nervenzellen, deren Ziel es ist, spezifische neuronale Antworten für komplexe visuelle Reize aus Antworten auf einfache Reizkomponenten zu konstruieren. Ein wesentliches Konzept ist dabei die neuronale Oder-Bildung (Complex-Bildung) durch konvergente Verschaltung. Die Generierung von Invarianz für bestimmte Reizvariationen läuft hierbei der Formierung reizspezifischer Antworten entgegen – auf Ebene des Signalflusses im Netzwerk, wie auch als Denkmodell. Die klassischen Modelle zur invarianten visuellen Formerkennung weisen daher Schwächen auf, etwa das Binde-Problem oder die Ununterscheidbarkeit von Objekten mit überlappenden Repräsentantenmengen. Die vorliegende Arbeit nähert sich dieser Problematik vom Blickwinkel der konzeptionellen Modellierung. Ein lebendiges Individuum erfährt seine Umwelt aktiv: Äußere physikalisch-körperliche Umstände beeinflussen die Verarbeitung im visuellen System. Ich formuliere hier das Konzept der situativ gesteuerten Complex-Bildung, das auf einer Steuerung der Übertragungseigenschaften einzelner Neuronen durch externe Parameter beruht. Seine Leistungsfähigkeit demonstriere ich in zwei Modellen zur invarianten visuellen Verarbeitung, der neuronalen retinalen Schlupfkorrektur und der entfernungsinvarianten Objektrepräsentation. Die Modelle überwinden entscheidende Probleme der klassischen Modellierung, erfordern jedoch einen erhöhten neuronalen Aufwand. Im Falle des Entfernungsinvarianzmodells führt der Einsatz der situativ gesteuerten Complex-Bildung zur Vorhersage einer neuartigen Zellklasse, den Entfernungs-Complex-Zellen. Neuronen mit teilweise ähnlichen Codierungseigenschaften wurden in jüngster Zeit experimentell nachgewiesen. In beiden Modellen wird durch die situativ gesteuerte Complex-Bildung eine Szenenrepräsentation generiert, die vom verwendeten Steuerparameter unabhängig ist. Es ist zu erwarten, daß auf gleiche Weise Invarianz auch gegenüber anderen äußeren Bedingungen erzeugt werden kann. Die situativ gesteuerte Complex-Bildung erweist sich so als universell einsetzbares Werkzeug zur konzeptionellen Modellierung neuronaler Invarianzen. Damit liefert sie auch ein effektives Denkmodell für das weitere Verständnis kortikaler Verarbeitung. Kurzfassung in Englisch: Our sense of vision conveys a stable percept of the environment. We can recognize objects regardless of the viewpoint we take. Available neural models can only partly explain this invariant perception. Standard models are based on hierarchic arrangements of nerve cells. They aim at constructing specific neural responses to complex visual stimuli from responses to simple stimulus components. A main concept is the neural realisation of logical OR operations by convergent projections (complex-formation). However, generation of invariance to certain stimulus variations is in conflict with the formation of stimulus specific responses – both at the signal level, and as a model of thinking. Consequently, classical models of invariant visual shape perception show weaknesses, like the binding problem, and the inability to distinguish objects with overlapping sets of retinal projections. I present a conceptual modelling approach to the issue. Living beings actively explore their environment: External physical conditions do influence processing in the visual system. Here, I formulate the concept of situation controlled complex-formation, based on the fact that external parameters exert control on neural transfer properties. As an application of this concept, I present two models of invariant visual processing: (1) neural retinal slip correction, and (2) distance invariant representation of visual objects. My models overcome substantial problems of classical modelling, at the cost of increased neural resources. For the model of distance invariance, the concept of situation controlled complex-formation predicts a new cell class, the distance complex cells. Recent experiments report the finding of neurons with similar properties. In both models, situation controlled complex-formation generates scene representations, which are independent of the controlling parameter. Most probably, the same method can produce invariance to other external conditions, too. Situation controlled complex-formation hence presents a universal tool for conceptual modelling of neural invariances. Moreover, it is an effective model of thinking in our understanding of cortical processing.



Download Bibtex file Per Mail Request

Search