Neuroinformatik
aus Wikipedia, der freien Enzyklopädie
Die Neuroinformatik ist ein Teilgebiet der Informatik, das sich mit der Informationsverarbeitung in neuronalen Systemen befasst. Die Neuroinformatik sucht nach Methoden und Anwendungen, um neuronale biologische Informationssysteme auf technische Informationssysteme abzubilden - sie bezieht sich somit gleichermaßen auf biologische neuronale Netze wie auf simulierte Künstliche neuronale Netze.
Bei der Neuroinformatik handelt es sich um ein stark interdisziplinäres Forschungsgebiet im Schnittbereich zwischen KI-Forschung und Kognitionswissenschaft.
Im Gegensatz zu der Künstlichen Intelligenz, deren Ziel es ist, Maschinen zu entwickeln, die sich im Ergebnis "intelligent" verhalten, geht es der Neuroinformatik mehr um die innere Arbeitsweise des Gehirns. Dessen Arbeitsweise wird untersucht, indem man seine Grundbausteine, Neuronen und Synapsen und deren Verschaltung simuliert.
Inhaltsverzeichnis |
[Bearbeiten] Teilgebiete der Neuroinformatik
Neuronale Methoden werden vor allem dann eingesetzt, wenn es darum geht aus schlechten oder verrauschten Daten Informationen zu gewinnen, aber auch Algorithmen die sich neuen Situationen anpassen, also lernen, sind typisch für die Neuroinformatik, dabei unterscheidet man grundsätzlich überwachtes Lernen und unüberwachtes Lernen, ein Kompromiss zwischen beiden Techniken ist das Reinforcement-Lernen. Assoziativspeicher sind eine besondere Anwendung neuronaler Methoden, und damit oft Forschungsgegenstand der Neuroinformatik. Viele Anwendungen für künstliche neuronale Netze finden sich auch in der Mustererkennung und vor allem im Bildverstehen.
[Bearbeiten] Universitäten
Die Neuroinformatik ist ein relativ junger und kleiner Teil der Informatik, dennoch finden sich an vielen Universitäten Institute, Abteilungen oder Arbeitsgruppen für Neuroinformatik. Die folgende Liste soll diese Universitäten auflisten, erhebt aber bislang keinen Anspruch auf Vollständigkeit:
[Bearbeiten] Deutschland
- Humboldt-Universität zu Berlin
- Technische Universität Berlin
- Universität Bielefeld
- Ruhr-Universität Bochum
- Universität Bonn
- Universität Bremen
- Universität Kassel
- Universität Ulm
- Technische Universität Ilmenau
- Universität Osnabrück
- Universität Leipzig
- Universität Lübeck
- Technische Universität Dresden
[Bearbeiten] Schweiz
- Universität Zürich (und ETHZ)
[Bearbeiten] Biologische Grundlagen neuronaler Netze
Neurone (zu deutsch auch Nervenzellen) finden sich überall im Körper, besonders gehäuft treten sie jedoch im Gehirn auf; fast alle höheren Tiere verfügen über ein Gehirn. Auf frischen Schnitten durch das Gehirn findet man eine rötlichbraune Schicht, die sogenannte graue Substanz und eine weißliche Schicht, die weiße Substanz.
Jedes Neuron besteht aus drei Teilen:
- dem Soma
- dem Dendritenbaum
- dem Axon
Die Dendriten und Axone sind zwei verschiedenen Arten von Fortsätzen, die vom Zellkern abgehen. Zumeist entspringen an jedem Zellkern eine Vielzahl von Dendriten, die sich zu einem Baum verzweigen, aber nur ein einzelnes Axon. Die Dendriten und Zellkerne liegen dabei ausschließlich in der grauen Substanz, in der es auch einige wenige Axone gibt, jedoch nur solche die nicht von einer Myelinschicht überzogen sind.
In der weißen Substanz verlaufen nur myelinisierte Axone. Da Myelinscheiden aus Zellmembranen bestehen, die viele Lipide enthalten, ist der Fettanteil relativ hoch und die Schicht erscheint weißlich.
Zwei Neurone sind über Synaptische Kopplungen miteinander verbunden. Synapsen sind die Orte an denen Erregung von einem Neuron in ein anderes übergeht. Die elektrische Erregung wird dabei entweder chemisch, mittels eines Neurotransmitters oder elektrisch übertragen. Der Abstand der bei der chemischen Synapse überbrückt wird, der Synaptische Spalt, ist 20-30 nm breit. Man unterscheidet hemmende inhibitorische Synapsen und erregende exzitatorische Synapsen (excitatorische Synapsen). In der Nervenzelle werden die über die Synapsen herangetragenden Erregungen verrechnet, wird dabei eine bestimmte Reizschwelle überschritten, so wird im Neuron ein Aktionspotenzial ausgelöst, das sich über der Membran der Nervenzelle aufbaut.
[Bearbeiten] Modellierung neuronaler Netze
Es gibt viele verschiedene Modelle, um Neuronale Netze zu modellieren.
- Das genaueste Modell ist das Kompartimentmodell, bei dem sowohl die Morphologie, als auch dynamische Eigenschaften einzelner Neuronen in die Simulation eingehen.
- Ein weiteres Modell ist das Hodgkin-Huxley-Modell, dass auf die englischen Biochemiker Alan Lloyd Hodgkin und Andrew Fielding Huxley zurückgeht. Dieses Modell abstrahiert von der Morphologie der Neuronen, erlaubt es aber noch, einzelne Aktionspotenziale zu simulieren.
- Wesentlich vereinfacht ist das sogenannte Kontinuierliche Grundmodell, oder die diskretisierte Fassung desselben, das Diskrete Grundmodell. In diesen Modellen ist es nicht möglich einzelne Aktionspotenziale zu modellieren, anstelle dessen kommt eine Transferfunktion zum Einsatz.
- Das einfachste Modell ist aber die von Warren McCulloch und Walter Pitts im Jahre 1943 vorgeschlagene McCulloch-Pitts-Zelle. Beide wollten ein vereinfachtes Modell realer Vorgänge in neuronalen Strukturen entwerfen, um zu klären, ob das Gehirn die Turing berechenbaren Funktionen wirklich berechnen kann.
Es gibt aber auch viele andere Arten Künstlicher neuronaler Netze:
Netze mit Lehrer
- Perzeptron (Frank Rosenblatt) und vor allem das Multi-Layer-Perzeptron (MLP)
- Hetero-Assoziative-Netze
- Backpropagation
- Radiale-Basisfunktionen-Netze
Netze mit Konkurrenz
- Self-Organizing Maps (werden auch als Kohonenkarten, nach Teuvo Kohonen, bezeichnet)
- K-Means Clusteranalyse
- Learning Vector Quantization (LVQ)
- Adaptive Resonanz Theorie (ART)
Netze mit Rückkopplung
- Hopfield-Netze (John Hopfield)
- Auto-Assoziation
- Boltzmann-Maschine (Terrence J. Sejnowski, Geoffrey Hinton)
[Bearbeiten] Literatur
- Raúl Rojas: Theorie der neuronalen Netze, Springer-Lehrbuch, Berlin, 1996, ISBN 3540563539
- R. Beale und T. Jackson: Neural Computing an Introduction, Adam Hilger, Bristol, 1990
- JA. Hertz, A. Krogh und RG. Palmer: Introduction to the Theory of Neural Computation, Addison-Wesley, 1991
- P.D. Wassermann: Advanced methods in neural Computing, Van Nostrand Reinhold, New York, 1993, ISBN 0442004613
- A. Zell: Simulation neuronaler Netze, Addison Wesley, 1994
- B. Lenze: Einführung in die Mathematik neuronaler Netze, Logos Verlag, Berlin, 2003, ISBN 3897220210
- Simon Haykin: Neural Networks - A Comprehensive Foundation , Prentice Hall, 6th July 1998, ISBN 0131471392
- Christof Koch: Biophysics of Computation: Information Processing in Single Neurons, Oxford U. Press, (1999), ISBN 0195181999
[Bearbeiten] Weblinks
- Beispiele: HTW Dresden - eine Menge studentische Arbeiten zu verschiedenen Themen.