1.5 Vertiefung: Geschichte der Künstlichen Intelligenz
Die Idee, menschliches Denken maschinell nachzubilden, ist älter als der Computer selbst – und hat Wurzeln, die bis in die Antike zurückreichen.
In diesem Kapitel blicken wir auf die Geschichte der Künstlichen Intelligenz. Sie beginnt früher, als viele denken.
Antike bis 1950: Von mechanischem Denken zur Digitaltechnik
Bereits im 2. Jahrhundert v. Chr. wurde mit dem Antikythera-Mechanismus ein komplexes Rechengerät konstruiert, das astronomische Zyklen abbilden konnte – ein früher Vorläufer automatisierter Informationsverarbeitung.
Mit dem ENIAC (1945), einem der ersten digitalen Großrechner, begann das Computerzeitalter. Rechenaufgaben, für die zuvor Monate nötig waren – wie etwa die Berechnung ballistischer Flugbahnen, konnten nun automatisiert und in Stunden gelöst werden.
1950er–1960er: Der Begriff "Künstliche Intelligenz" entsteht
-
1950: Alan Turing schlägt den "Turing-Test" vor – eine erste Operationalisierung maschineller Intelligenz.
-
1956: Auf der Dartmouth-Konferenz prägt John McCarthy den Begriff "Artificial Intelligence" – das Forschungsfeld KI ist geboren.
Die frühe KI war geprägt von großen Visionen:
-
Frank Rosenblatt entwickelt 1957 das Perceptron, das als erstes künstliches Neuron einfache Muster erkennen kann.
-
Gleichzeitig entstehen symbolische KI-Systeme wie der General Problem Solver von Herbert Simon und Allen Newell (1957), der formale Probleme durch logische Schlussfolgerungen lösen könnte, und ELIZA (1966), ein früher Chatbot von Joseph Weizenbaum.
Doch bereits 1969 veröffentlichen Minsky und Papert ihre Kritik am Perceptron – sie zeigen, dass einfache neuronale Netze bestimmte logische Funktionen nicht abbilden können. Die Folge: der erste KI-Winter – mit sinkender Finanzierung und stagnierender Forschung.
1970er–1980er: Expertensysteme und symbolische Logik
Die Hoffnung richtet sich nun auf Expertensysteme, die mit umfangreichen Regelwerken arbeiten:
-
MYCIN: medizinische Diagnostik
-
DENDRAL: chemische Analyse
-
PROSPECTOR: geologische Exploration
Zwar entstehen erste kommerzielle Anwendungen (z. B. Credit Scoring, Schachprogramme), doch die Systeme sind teuer, unflexibel und schwer wartbar. Auch tiefere neuronale Netze lassen sich mangels Rechenleistung noch nicht effektiv trainieren.
1986: Durchbruch beim Training neuronaler Netze
Mit dem Backpropagation-Algorithmus (David Rumelhart, Geoffrey Hinton, Ronald Williams) wird das Training mehrschichtiger (tiefer) neuronaler Netze möglich. Dennoch folgt in den 1990er Jahren ein zweiter KI-Winter, da praktische Erfolge weiterhin ausbleiben, da die nötige Rechenkapazität fehlte.
1990er–2000er: Aufstieg des Maschinellen Lernens
Neue Verfahren und mehr Rechenleistung bringen das Maschinelle Lernen voran:
-
Deep Blue (IBM) besiegt 1997 Schachweltmeister Garri Kasparov.
-
Spamfilter, Handschrifterkennung, Gesichtserkennung und Empfehlungssysteme im Shopping ("Andere Kunden kauften auch") halten Einzug in den Alltag.
-
Yann LeCun demonstriert mit LeNet (1989) den Nutzen konvolutioneller neuronaler Netze.
-
LSTM (Hochreiter & Schmidhuber, 1997) ermöglichen "Gedächtnis" in neuronalen Netzen – wichtig für Sprache und Zeitreihen.
2006–2012: Beginn der Deep-Learning-Revolution
-
Geoffrey Hinton zeigt mit Deep Belief Networks (2006), dass tiefe Netze effektiv trainierbar sind.
-
Der große Durchbruch folgt 2012 mit AlexNet (Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton) – ein tiefes neuronales Netz, das bei der ImageNet Challenge klar dominiert.
→ Kombination aus mehr Daten, GPUs und neuen Algorithmen ermöglicht den Durchbruch.
2010er: Sprachassistenten, GANs und Fortschritte
-
Siri (2011), Alexa (2014) und bessere Übersetzungssysteme werden marktreif.
-
Generative Adversarial Networks (GANs) (Ian Goodfellow, 2014) revolutionieren die realistische Bildererzeugung.
-
KI-Systeme werden zunehmend alltagstauglich – auch für kreative Aufgaben.
Ab 2017: LLMs und die Transformer-Ära
Die wichtigste Neuerung:
Transformer-Architektur (Google, 2017) – sie verarbeitet Sprachkontext effizienter als je zuvor.
Darauf basieren moderne Large Language Models (LLMs) wie:
-
GPT-3 von OpenAI (2020) – Textgenerierung auf hohem Niveau
-
DALL·E (2021) – Bildgenerierung aus Text
-
DeepL (2020) – KI-basierte Übersetzung
-
Claude, Gemini, LLaMA (2023/2024) – multimodale KI-Modelle, die Text und Bild gleichermaßen verarbeiten können
Diese Modelle markieren den Übergang zur generativen KI: Systeme, die nicht nur analysieren, sondern selbst Inhalte produzieren – Texte, Bilder, Musik oder Programmcode.
2025: KI in der Breite – auch an Hochschulen
KI ist heute allgegenwärtig:
-
In Suchmaschinen, Sprachassistenten und Empfehlungssystemen
-
In der Forschung: z.B. bei AlphaFold zur Vorhersage von Proteinstrukturen
-
In der Hochschullehre: etwa bei automatisiertem Feedback, Lernanalyse-Tools oder Datenauswertung in Forschungsprojekten
Die wichtigsten Meilensteine in der Entwicklung von neuronalen Netzen, Deep Learning und LLMs im Überblick:
Warum Geschichte wichtig ist
Für den Hochschulkontext ist es essenziell, die historische Entwicklung von KI zu kennen:
-
Um ethische Debatten, Regulierungsfragen und technologische Versprechen besser einordnen zu können
-
Um zu erkennen, dass "Intelligenz" in KI metaphorisch gemeint ist:
KI hat kein Bewusstsein – sie erkennt Muster, keine Bedeutungen.
Doch ihre Entscheidungen wirken real – und müssen kritisch begleitet werden.
Theorie - Geschichte der KI, Teil 1
CC-Namensnennung 4.0 International: Autorin Joana Grah
Heine Center for Artificial Intelligence and Data Science (HeiCAD), Heinrich-Heine-Universität Düsseldorf (HHU), ORCA.nrw
• https://www.iph-hannover.de/de/dienstleistungen/data-science/neuronale-netze
• https://www.welytics.ai/blog/2019-09-15-geschichte-ki-teil2
• https://en.wikipedia.org/wiki/Timeline_of_machine_learning
• https://holypython.com/knn/k-nearest-neighbor-knn-history
• https://en.wikipedia.org/wiki/Computer_chess
• https://mebis.bycs.de/beitrag/ki-geschichte-der-ki