1.2 KI-Typen: Schwache vs. starke KI
KI wirkt oft magisch, aber hinter den Kulissen arbeiten Wahrscheinlichkeiten und gigantische Datenmengen. Also wie weit kann KI denken?
Leitfrage: Was ist möglich?
Die grundlegendste Unterscheidung bei KI-Systemen betrifft ihren Fähigkeitsumfang:
-
Schwache (oder enge) KI ist auf klar umrissene Aufgaben beschränkt. Sie folgt festen Regeln und reagiert auf definierte Eingaben – etwa bei der Transkription von Vorlesungen, der Plagiatserkennung, Raumplanung oder Modellierung komplexer Systeme. Solche Systeme funktionieren nur in ihrem Spezialgebiet – kreativ oder flexibel sind sie nicht. Alle heute eingesetzten KI-Anwendungen gehören in diese Kategorie.
-
Starke (oder allgemeine) KI könnte dagegen eigenständig Aufgaben erkennen, sich Wissen aneignen, Probleme analysieren und kreative Lösungen entwickeln. Solche Systeme existieren bisher nicht, auch wenn fortgeschrittene Chat-Assistenten diesem Ideal näherkommen.
Oft wird zusätzlich zwischen Artificial General Intelligence (AGI) – also menschenähnlicher Intelligenz – und einer hypothetischen Artificial Superintelligence (ASI) unterschieden, die menschliche Fähigkeiten weit übertrifft. Diese Konzepte sind theoretisch und insbesondere die "Superintelligenz" problematisch, denn: Auch enge KIs übertreffen den Menschen bereits in bestimmten Einzelleistungen (z. B. Rechenleistung).
📌 Praxisrelevanz: Diese Unterscheidung schützt vor überzogenen Erwartungen. Eine KI zur Prüfungsanmeldung wird nie "mitdenken", sondern nur vordefinierte Muster abbilden.
Lernparadigmen: Wie KI lernt
Maschinelles Lernen (ML) lässt sich in drei grundlegende Paradigmen unterteilen:
Überwachtes Lernen
Modelle werden mit gelabelten Daten trainiert – also mit Eingaben, denen jeweils ein erwarteter Ausgabewert zugeordnet ist. Ziel ist es, neue Eingaben korrekt vorherzusagen. Während des Trainingsvorgangs entwickelt der Algorithmus Funktionen, die immer besser in der Lage sind, für neue, noch nicht gesehene Daten den erwarteten Wert zu bestimmen.
📌 Beispiel: Vorhersage des Studienerfolgs auf Basis historischer Leistungsdaten.
Unüberwachtes Lernen
Hier arbeiten Modelle mit ungelabelten Daten. Algorithmen identifizieren Muster, Gruppen oder Strukturen selbstständig (z.B. Interessen, Fächer oder Zahlenwerte). Während des Trainingsvorgangs lernen Algorithmen Beziehungen zwischen diesen Daten: Gemeinsamkeiten und Unterschiede.
📌 Beispiel: Clusterbildung von Studierenden nach Interessen zur Empfehlung personalisierter Lerninhalte. Das heißt: Studierende werden anhand ihrer übereinstimmenden oder sich unterscheidenden Interessen gruppiert. Sie können dann Lerninhalte aus der Interessengruppe, zu der sie gehören, empfohlen bekommen, die sie bisher nicht selbst angegeben haben.
Bestärkendes Lernen (Reinforcement Learning)
Ein sogenannter Agent interagiert mit einer Umgebung, probiert Aktionen aus und lernt über Belohnungen oder Strafen. Ziel ist es, Strategien zu entwickeln, die langfristig die höchste Belohnung bringen. Training und Anwendung lassen sich nicht immer so sauber trennen wie beim überwachten und unüberwachten Lernen, sondern ergeben sich aus der Interaktion des Agenten mit der echten Welt: Zu Beginn werden zufällige Handlungen ausprobiert, man spricht von Erkunden (engl. exploration). Sobald der Agent gelernt hat, was funktioniert, konzentriert er sich zunehmend auf Handlungen, die mehr Lohn versprechen, man spricht von Ausnutzen (engl. exploitation).
📌 Beispiel: Lernpfadgenerator. Ein Agent wählt Themen/Konzepte für Lernpfade von Studierenden aus und erhält je nach deren Erfolg oder Misserfolg Belohnung oder Strafe.
Mischformen und Kombinationen
Neben den klassischen Paradigmen gibt es Mischformen:
-
Halbüberwachtes Lernen: Nur ein Teil der Daten ist gelabelt. Das Modell lernt zunächst an diesen, vergibt dann automatisch Labels für die übrigen.
-
Selbstüberwachtes Lernen: Das Modell erzeugt durch Algorithmen Trainingsdaten (Labels) selbst.
- Transferlernen: Ein vortrainiertes Modell, das z.B. schon gut darin ist, Bilder zu erkennen, wird für eine neue, spezialisierte Aufgabe weiterverwendet, um etwa Bilder noch besser zu kategorisieren.
Beim Training vieler Verfahren kommen Kombinationen zur Anwendung. Z.B. besteht das Training von Chat-Assistenten wie ChatGPT aus mehreren Schritten. Im Vortraining wird aus sehr großen Textmengen durch selbstüberwachtes Lernen ein grundlegendes Sprachverständnis entwickelt.
Im anschließenden Feintuning werden Modelle mit typischen Dialogbeispielen konfrontiert, um zu lernen, wie Konversationen funktionieren. Und in einem weiteren Schritt kann bestärkendes Lernen mit Live-Feedback von Menschen verwendet werden, um Antworten zu bewerten, was die Konversationsfähigkeit weiter verbessert.
Hier eine Übersicht der Lernformen und der ihnen zugrundeliegenden Muster sowie Beispiele aus dem Hochschulkontext:
Lernform |
Mechanismus |
Hochschul-Beispiel |
Überwachtes Lernen |
Lernen aus gelabelten Daten |
Studienerfolg prognostizieren |
Unüberwachtes Lernen |
Lernen aus ungelabelten Daten |
Forschungsdaten thematisch clustern |
Bestärkendes Lernen |
Belohnung für erfolgreiche Aktion |
Energiemanagement in Campus-Gebäuden optimieren |
Selbstüberwachtes Lernen |
selbständiges Labeln und Lernen von Strukturen |
Training generativer Sprachmodelle wie ChatGPT mit öffentlichen Texten |
Von der Problemstellung zur passenden Methode
Die Lernformen untergliedern sich weiter nach den unterschiedlichen ML-Verfahren (ML = Maschinelles Lernen), die mit Hilfe von konkreten Algorithmen gelöst werden können.
Die folgende Tabelle zeigt eine Übersicht von Beispielproblemen aus dem Hochschulkontext sowie die Lernform, ein Beispiel für ein ML-Verfahren und welches Ziel damit jeweils erreicht werden kann:
Beispielproblem aus dem Hochschulkontext |
Lernform |
ML-Verfahren |
Ziel |
Studienerfolg prognostizieren, Studienabbruchraten vorhersagen |
Überwachtes Lernen |
Regression |
Prognose |
Plagiate erkennen, Prüfungen automatisch bewerten |
Überwachtes Lernen |
Klassifikation |
Einordnen |
Forschungsprojekten clustern, Lerntypen erkennen |
Unüberwachtes Lernen |
Clustering |
Gruppieren |
Evaluationsdaten visualisieren, Lernplattformdaten vereinfachen |
Unüberwachtes Lernen |
Dimensionsreduktion, Feature-Engineering |
Vereinfachen / Visualisieren |
Auffällige Prüfungsergebnisse oder ungewöhnliches Lernverhalten erkennen |
Unüberwachtes Lernen |
Anomalieerkennung |
Abweichungen erkennen |
Raumplanung optimieren, Ressourcenallokation |
Bestärkendes Lernen (RL) |
Entscheidungsoptimierung |
Entscheiden |
Texte übersetzen, Transkriptionen erstellen, Schlüsselinformation extrahieren |
Überwachtes oder Selbstüberwachtes Lernen |
Sequenz-zu-Sequenz-Modelle, Feature-Extraktion |
Übersetzen oder Extrahieren |
Automatisch Inhalte generieren |
Selbstüberwachtes Lernen (meist) |
Generatives Lernen |
Inhalte erzeugen |
Der Weg zu einer konkreten Anwendung kann entweder von einer Problemstellung ausgehen oder sich aus der Betrachtung vorhandener Daten entwickeln. Die Beispiele zeigen, wie aus einem Problem Ziel, Lernform und ML-Verfahren abgeleitet werden. Es ist auch denkbar, vorhandene Daten zu betrachten, um zu überlegen, welche Probleme sich damit lösen ließen.
Kategorisierung nach Denkansätzen: Die "Five Tribes" des Maschinellen Lernens
Eine weitere Gliederungsmöglichkeit von ML-Verfahren orientiert sich an der Art der technischen Implementation. Diese Idee greift die Kategorisierung der Five Tribes von Pedro Domingos in The Master Algorithm auf. Er unterscheidet ML-Ansätze nach den Denkmodellen, die ihnen zugrunde liegen:
Denkschule |
Kernidee |
Algorithmen |
Beispielanwendungen |
Symbolisten |
Lernen durch logische Regeln und symbolische Ableitung |
Entscheidungsbäume, Induktive Logikprogrammierung |
Expertensysteme, Regelbasierte Diagnosesysteme |
Konnektionisten |
Lernen durch künstliche neuronale Netze, inspiriert vom menschlichen Gehirn |
Künstliche neuronale Netze, Deep Learning, Backpropagation |
Bild- und Spracherkennung, autonome Systeme |
Evolutionäre |
Lernen durch evolutionäre Prozesse wie Mutation und Selektion |
Genetische Algorithmen, Evolutionsstrategien |
Robotik, Optimierungsprobleme, Spielstrategien |
Bayesianer |
Lernen durch probabilistische Inferenz und Bayes'sche Statistik |
Naive Bayes, Bayes'sche Netzwerke, Markov-Modelle |
Spamfilter, Risikobewertung, medizinische Diagnostik |
Analogiker |
Lernen durch Ähnlichkeitsvergleiche und Analogiebildung |
K-Nearest Neighbors, Support Vector Machines |
Empfehlungssysteme, Mustererkennung, Klassifikationsprobleme |
Im kommenden Abschnitt betrachten wir insbesondere neuronale Netze genauer. Wir schauen uns in dem Zuge aber auch exemplarisch an, wie ein ML-Modell konkret entsteht. Anschließend gehen wir auf die Besonderheiten moderner tiefer neuronaler Netze ein, die zu den modernen Chat-Assistenten führen.
💡 Lernzusammenfassung Kapitel 1.2: Formen Künstlicher Intelligenz
- Schwache vs. starke KI: Während schwache KI spezifische Aufgaben nach festen Regeln löst, beschreibt starke KI die theoretische Fähigkeit, eigenständig Probleme zu erkennen und kreativ zu lösen – ein Ideal, das aktuell noch nicht erreicht ist.
- Lernparadigmen in der KI: Maschinelles Lernen erfolgt z. B. überwacht (mit Labels), unüberwacht (ohne Labels) oder bestärkend (mit Belohnungssystemen). Moderne KI kombiniert häufig mehrere dieser Paradigmen.
- Vielfalt der Methoden: ML-Verfahren lassen sich nach Lernzielen, technischen Mechanismen (z. B. neuronale Netze, symbolische Logik) und konkreten Hochschul-Anwendungen unterscheiden – von Plagiatserkennung bis zur Ressourcenplanung.