News

Die Gedächtnismaschine

05.09.2000

Noch ist es ein weiter Weg zur künstlichen Intelligenz: Denken und Lernen sind Fähigkeiten, in denen der Mensch anderen Lebewesen überlegen ist. Doch wie er das tut, ist immer noch ein Geheimnis. Allerdings gibt es vielversprechende Ansätze, die Fähigkeiten des menschlichen Gehirns auf Computer zu übertragen.

Die Boltzmann-Maschine zählt zu den künstlichen neuronalen Netzen, deren Struktur und Funktion sich an den Nervenzellen lebender Organismen orientieren. Sie ist ein mathematisches Modell, mit dem simuliert wird, wie durch die Aktivität von Neuronen eine komplexe Umwelt erfasst wird.

Sehen etwa ist ein Prozess, in dem Licht-Photonen Nervenzellen aktivieren. Im Modell gibt der Forscher numerische Werte (1 für hell, 0 für dunkel, 0,5 für grau) in das künstliche kognitive System ein und aktiviert so die Eingabeneuronen.

Ähnlich dem Gehirn, wo alle Neuronen durch unterschiedlich starke synaptische Verbindungen miteinander verkoppelt sind, wird im Modell diese Koppelung realisiert, indem Verbindungen zwischen Neuronen unterschiedlich gewichtet werden. Dadurch können Eingabeneurone ihre Aktivierung an innere Neuronen weitergeben, zu denen eine starke Verbindung besteht. Neurone, die viel Aktivierung erhalten, werden mit großer Wahrscheinlichkeit selbst aktiv. Die Aktivierungszustände unterliegen einer Zufallsverteilung, der Boltzmannschen Verteilung.

Cornelius Weber von der Universität Berlin hat die Boltzmann-Maschine weiterentwickelt, indem er den klassischen Aktivierungszuständen (+1 und -1) die Aktivierung Null zugefügt hat - innere Neurone können nun auch inaktiv sein. Damit kann Weber den Fragen nachgehen, wie ein Bild wiedergegeben wird, wenn nur wenige innere Neurone aktiv sind und warum Neurone im visuellen Areal der Großhirnrinde aktiv werden, wenn sie einen bestimmten Helligkeitskontrast wahrnehmen.

Ziel ist das Verständnis, auf welche Weise Neurone Information repräsentieren. Eine besondere Rolle spielt dabei das Lernen der Verbindungsstärken. Solange die Daten anliegen, die Eingabeneurone also "das Bild sehen" (Wachphase), verstärken gerade aktive Neurone ihre Verbindungen. Häufige Aktivitätszustände werden stabilisiert (Hebbsches Lernen). Werden keine Daten eingegeben (Schlafphase), werden Neurone spontan aktiv (anti-Hebbsches Lernen).

Durch die Einführung der Aktivierung Null entstehen Neurone, die durch Helligkeitskontraste aktiviert werden. Dadurch entstehen biologisch plausible Resultate, mit denen Lernmechanismen verstanden werden können.

© medizin.at

 

home

newsroom
allgemein
wissenschaft
hintergrund

links
österreich
international
journale
abstracts

fragen
themenliste

update


medizin.at
editorial
kommentar

kontakt
redaktion
herausgeber
medieninfo

partner

help

 

© treAngeli, 1999.