Zum Hauptinhalt

Was sind künstliche Neuronen?

Ein künstliches Neuron imitiert biologische Neuronen und bildet, wie der Name vermuten lässt, das Fundament der künstlichen neuronalen Netze. Sowohl künstliche als auch biologische Neuronen sind in der Lage, Informationen aus mehreren Quellen, also mehrere Eingabegrößen, aufzunehmen, zu verarbeiten und daraus einen Ausgabewert zu generieren. Neuronen sind also nichts anderes als Funktionen, welche Eingabegrößen zu Ausgabegrößen verarbeiten, oder aus x ein f(x) machen. Im Beispiel zur linearen Regression haben wir uns das erste künstliche Neuron gebastelt, ohne zu wissen, was ein solches Neuron überhaupt ist bzw. bewirken soll. Hierbei hatte das Neuron bzw. die Geradengleichung nur eine Eingabe- und eine Ausgabegröße. Neuronen können aber, wie die biologischen Neuronen, auch mehrere Eingabegrößen aufnehmen, siehe die folgende Abbildung (idealisiert), mit den Eingabegrößen I und den Ausgabegrößen O.

edu sharing object

In der oben stehenden Grafik siehst du den Aufbau eines Neurons inklusive Synapsen, Zellkörper, Zellkern, Dendriten und Axon, sowie ein Schaubild der Funktion mit Eingabe- und Ausgabegrößen.

Im Beispiel mit der Durchführung einer Veranstaltung und den teilnehmenden Personen, könnte auch die Größe des gemieteten Raumes, die Qualität des Catering und weiteres als Eingabegrößen aufgenommen und verarbeitet werden. Jede Eingabegröße kann dabei unterschiedlich gewichtet werden. Eventuell macht die Anzahl der teilnehmenden Personen 80% der Kosten aus, der Rest dann entsprechend weniger. Nimmt man nun die Werte der Eingabegrößen, können diese mit den entsprechenden Gewichtungen multipliziert und anschließend im Neuron verarbeitet werden, siehe folgende Abbildung. Hierbei tritt ebenfalls wieder die Aktivierungsfunktion auf, welche entscheidet, ab wann das Neuron quasi feuert und einen Wert weitergibt.

edu sharing object

Schaubild der Funktionsweise eines Neurons: Dabei sind die Eingabegrößen über eine jeweilige Gewichtung mit der Übertragungsfunktion verbunden. Diese ist wiederumg über die Netzeingabe mit der Aktivierungsfunktion verbunden ist, welche durch einen Schwellwert gesteuert wird, und die Aktivierung ausgibt.

Sauber mathematisch kann ein Neuron durch die folgende Funktion ausgedrückt werden.

edu sharing object

Dabei sind phi die Aktivierungsfunktion, w die Gewichtungsfaktoren je Eingabewert, x die Eingabewerte und b der sogenannte Bias, bei dem Beispiel der linearen Regression äquivalent zur Achsenverschiebung. Die Größen w und x können hierbei auch als Vektoren auftreten und dadurch eine Vielzahl an Eingabewerten entsprechen.
Und voila, wir haben das erste Neuron gebastelt und verstanden. Die Geradengleichung der linearen Regression wurde also in die Gleichung eines Neurons überführt und potenziell für mehrere Eingabegrößen erweitert. Doch wie spielt ein Neuron mit anderen zusammen? Das finden wir im nächsten Abschnitt über die (künstlichen) neuronalen Netze heraus.