Künstliche Intelligenz ist heute allgegenwärtig. Texte werden automatisch generiert, medizinische Bilder analysiert und Entscheidungen vorbereitet, die früher ausschließlich Menschen vorbehalten waren. Dabei entsteht leicht der Eindruck, KI sei eine sehr junge Technologie.
Tatsächlich reichen die grundlegenden Ideen hinter künstlicher Intelligenz jedoch viele Jahrzehnte zurück. Wer verstehen möchte, was KI heute leisten kann – und wo ihre Grenzen liegen –, sollte ihre Entstehungsgeschichte kennen. Genau darum geht es in diesem Artikel.
Warum ein Blick zurück hilft
Aktuelle KI-Systeme wirken oft beeindruckend, manchmal sogar irritierend. Doch viele heutige Diskussionen rund um „Verstehen“, Fehleranfälligkeit oder Kontrolle sind keineswegs neu. Sie wurden bereits gestellt, lange bevor es leistungsfähige Computer oder große Datenmengen gab.
Die Geschichte der KI hilft dabei, den heutigen Hype einzuordnen und realistische Erwartungen zu entwickeln.
Alan Turing und die Frage nach maschineller Intelligenz
Einen zentralen Ausgangspunkt lieferte der britische Mathematiker Alan Turing. Bereits im Jahr 1950 stellte er in seinem Aufsatz „Computing Machinery and Intelligence“ die damals provokante Frage:
Können Maschinen denken?
Statt sich auf philosophische Definitionen einzulassen, schlug Turing einen praktischen Ansatz vor. Sein sogenanntes Imitationsspiel, später als Turing-Test bekannt, prüft, ob eine Maschine in einem schriftlichen Dialog nicht mehr zuverlässig von einem Menschen zu unterscheiden ist.
Turings entscheidende Idee war dabei weniger der Test selbst als die zugrunde liegende Denkweise:
Intelligenz wird über beobachtbares Verhalten definiert, nicht über Bewusstsein oder Verständnis. Dieser funktionale Ansatz prägt die KI-Forschung bis heute.
Die Dartmouth Conference: Der offizielle Startpunkt der KI
Im Sommer 1956 trafen sich am Dartmouth College mehrere Wissenschaftler, darunter John McCarthy, Marvin Minsky, Claude Shannon and Nathaniel Rochester, zu einem gemeinsamen Forschungsprojekt. In ihrem Antrag tauchte erstmals systematisch der Begriff „Artificial Intelligence“ auf.
Die zentrale Annahme war ambitioniert:
Jeder Aspekt menschlicher Intelligenz lasse sich so genau beschreiben, dass eine Maschine ihn simulieren könne.
Die Ziele reichten von maschineller Sprachverarbeitung über Problemlösung bis hin zur Selbstverbesserung von Systemen. Mit dieser Konferenz wurde KI erstmals als eigenständiges wissenschaftliches Forschungsfeld etabliert – und der Grundstein für Jahrzehnte intensiver Forschung gelegt.
Symbolische KI: Intelligenz als Regelwerk
Die frühe KI-Forschung folgte vor allem einem Ansatz, der heute als symbolische KI bezeichnet wird. Intelligenz wurde als Verarbeitung von Symbolen verstanden, die nach klar definierten Regeln miteinander verknüpft sind.
Solche Systeme kamen unter anderem in folgenden Bereichen zum Einsatz:
- Schach- und Logikprogrammen
- Planungs- und Suchalgorithmen
- Expertensystemen, etwa in der Medizin
Ein bekanntes Beispiel ist das medizinische System MYCIN, das in den 1970er-Jahren Ärzte bei der Auswahl von Antibiotika unterstützte. In klar abgegrenzten Anwendungsfällen funktionierten diese Systeme erstaunlich gut.
Warum frühe KI an ihre Grenzen stieß
Mit zunehmender Komplexität der Aufgaben zeigten sich jedoch deutliche Schwächen:
- Die reale Welt lässt sich nicht vollständig in Regeln fassen
- Wissen musste manuell gepflegt werden
- Lernen aus Erfahrung war kaum möglich
Diese Einschränkungen führten mehrfach zu enttäuschten Erwartungen. In den 1970er-, 1980er- und 1990er-Jahren kam es zu sogenannten KI-Wintern, in denen Fördergelder zurückgingen und die Euphorie deutlich abkühlte.
Der Wendepunkt: Von Regeln zu Daten
Der entscheidende Fortschritt kam mit einem Paradigmenwechsel. Statt Intelligenz ausschließlich über Regeln abzubilden, rückten Daten, statistische Methoden and Lernalgorithmen in den Mittelpunkt.
Drei Entwicklungen waren dabei ausschlaggebend:
- stark wachsende Datenmengen
- deutlich höhere Rechenleistung
- neue Lernverfahren im Bereich Machine Learning
Moderne KI-Systeme lernen, indem sie Muster in Daten erkennen. Sie simulieren intelligentes Verhalten, ohne im menschlichen Sinne zu verstehen, was sie tun – ein Gedanke, der bereits in Turings Arbeiten angelegt war.
Warum die Geschichte der KI heute relevant ist
Viele heutige Herausforderungen moderner KI lassen sich historisch erklären. Fragen nach Fehlern, Verzerrungen oder Verantwortlichkeit sind keine neuen Probleme, sondern begleiten die KI-Forschung seit ihren Anfängen.
Wer die Geschichte kennt, kann besser einschätzen:
- warum KI-Systeme überzeugend wirken, aber irren können
- weshalb Halluzinationen auftreten
- warum Datenqualität entscheidend ist
- weshalb vollständige Kontrolle unrealistisch bleibt
Fazit: Was wir aus der Geschichte der KI lernen können
- KI ist keine neue Idee, sondern ein jahrzehntelanges Forschungsprojekt
- Alan Turing prägte den funktionalen Blick auf Intelligenz
- Die Dartmouth Conference markiert den Startpunkt der KI-Forschung
- Frühe KI war regelbasiert und stark begrenzt
- Moderne KI basiert auf Lernen aus Daten, nicht auf Verständnis
Dieser Artikel gehört zur KI-Reihe im XPOMET-Podcast.
In der nächsten Episode geht es um die Grundlagen der Gegenwart:
Was ist KI eigentlich? Grundbegriffe, Modelle und Denkweisen.
Hier geht es zum Podcast: https://open.spotify.com/episode/4heaPEjjQaKxvM39WWp0ah?si=wN0yO3pbQD2F6PjXhyJvrA
