Du bist aktuell im Gastmodus. Logge dich ein oder registriere dich, um die HOOU-Plattform komplett zu nutzen.
Deine Vorteile bei einer Anmeldung:
- Schreibe Beiträge, chatte mit anderen und nutze unsere Foren, um dich auszutauschen.
- In einigen Lernangeboten bestätigen wir dir die Teilnahme.
Neuronale Netze kurz erklärt
Kursthemen
-
Warum beschäftigen wir uns allgemein mit künstlichen neuronalen Netzen? Was ist der Grund dafür, dass diese neuronalen Netze immer häufiger für verschiedene Aufgaben verwendet werden und ihnen so ein großes Potenzial zugetraut wird? Der Grund dafür ist recht einfach: Unser Ziel ist es, für fast alle Anwendungsfälle eine Funktion zu finden, die uns Zusammenhänge zwischen Größen darstellen kann. Je komplizierter die Fragestellung, desto komplizierter meistens auch die Funktion zur Darstellung dieser Zusammenhänge. Neuronale Netze sind nur sehr gute Annäherungen, sogenannte Approximatoren, für alle möglichen Funktionen.
-
Häufig gibt es Fragestellungen, in deren Kern es darum geht, Zusammenhänge zwischen zwei Größen zu verstehen. Wenn eine dieser Größen von uns verändert werden kann und eine zweite Größe, die von der ersten Größe beeinflusst wird, nicht direkt von uns verändert werden kann, so spricht man von einer unabhängigen Variable bei der ersten Größe und einer abhängigen Variable bei der zweiten Größe. Dies schauen wir uns in diesem Abschnitt genauer an.
-
Ein künstliches Neuron imitiert biologische Neuronen und bildet, wie der Name vermuten lässt, das Fundament der künstlichen neuronalen Netze. Um diese künstlichen Neuronen geht es in diesem Abschnitt, da sie die Grundlage für künstliche neuronale Netze bilden.
-
Ein Neuron nimmt also mehrere Eingabewerte auf, multipliziert diese mit jeweils einem unterschiedlichen Gewichtungsfaktor und hat dazu noch eine konstante Verschiebung über den Bias mit drin. Im Grunde steckt dahinter relativ einfache Mathematik (keine Exponentialfunktionen usw.). Aber wieso sind denn jetzt die neuronalen Netze in aller Munde und so leistungsfähig? Im Endeffekt, weil viel manchmal dann doch viel hilft. Und zwar viele Neuronen die miteinander verknüpft sind. Der Ausgabewert eines Neurons (mit der relativ leichten internen Berechnung) ist dann gleichzeitig der Eingabewert des nächsten Neurons. Wenn wir davon mehrere Neuronen neben- und hintereinander schalten, dann bekommen wir ein (künstliches) neuronales Netz.
-
Künstliche neuronale Netze, als ein Werkzeug im Bereich der künstlichen Intelligenz, können lernen. Doch was bedeutet lernen dabei? Der Begriff lernen suggeriert etwas eigenständiges, eine inhärente Fähigkeit des KNN. Was eigentlich gemeint ist, ist die Eigenschaft von KNN, dass diese trainiert werden können, um von Menschen gestellte Aufgaben zu erfüllen bzw. um die Zusammenhänge zwischen Eingabe- und Ausgabewerten darstellen zu können. Der Trainingsprozess formt quasi das KNN, damit es anschließend eine Aufgabe erfüllen kann. Durch den Trainingsprozess kann ein KNN für viele Aufgaben, also für viele Zusammenhänge, trainiert werden. Doch wie findet dieser Trainingsprozess statt?
-
Der Trainingsprozess von künstlichen neuronalen Netzen (KNN) weist natürlich mehrere Einstellungsmöglichkeiten auf, die sogenannten Hyperparameter. Um diese soll es in diesem Abschnitt gehen.
-
Nachdem wir nun die künstlichen neuronalen Netze (KNN), den Trainingsprozess und die dafür entscheidenden Hyperparameter erarbeitet haben, folgt nun die Frage nach den Daten. Welche Daten werden verwendet für das Training eines KNN, wie können wir sicherstellen, dass das Training erfolgreich war, und final dann auch das KNN anwenden?
-
Wir haben jetzt gemeinsam erarbeitet, woraus künstliche neuronale Netze (KNN) bestehen, wie diese aus Eingabewerten entsprechende Ausgabewerte berechnen und wie die Gewichtungsfaktoren der Neuronen im KNN trainiert werden können, um Zusammenhänge zwischen Eingabe- und Ausgabewerten lernen zu können. Jetzt stellt sich die Frage, wofür können denn KNN angewendet werden? Und wo werden KNN heutzutage bereits im Alltag verwendet?