Am Anfang war das Perzeptron
von Victor Chaix, Auguste Lehuger und Zako Sapey-Triomphe
Im Jahr 1956 traf sich in Dartmouth, im US-Staat New-Hampshire, eine Gruppe von Mathematikern zum „Dartmouth Summer Research Project on Artificial Intelligence“. In der Folge bürgerte sich der Begriff „künstliche Intelligenz“ (KI) als Bezeichnung für Systeme ein, die das menschliche Denken simulieren. Etabliert wurde er vom Logiker und Informatiker John McCarthy, um sich von Norbert Wiener und den Kybernetikern abzugrenzen, die damals für die Automatisierung von Industrieprozessen viel Aufmerksamkeit und Mittel bekamen.1
Anders als die Kybernetiker, die sich in der antiken Philosophie und den Biowissenschaften auskannten, ließen sich die Teilnehmenden des Seminars in Dartmouth von liberalen Wirtschaftstheorien inspirieren. Von Beginn an widmeten sie sich ihrem neuen Forschungsfeld unter der Prämisse, dass „der Geist etwas Geordnetes sei, im individuellen Gehirn lebe und einer zuverlässigen impliziten ‚Logik‘ folge, die sich mit computergestützten, aus der Beobachtung des Sozialgeschehens abgeleiteten Modellen überzeugend nachbilden ließe.“2
Methodisch orientierten sich die KI-Pioniere an den orthodoxen Wirtschaftswissenschaften: Von der Modellvorstellung des rational handelnden Individuums schlossen sie auf menschliche Verhaltensweisen. Herbert Simon, einer der frühen KI-Forscher, war Ökonom und schöpfte aus den Arbeiten Adam Smiths über Verwaltung und Entscheidungsprozesse, um das zu begründen, was zum „symbolischen Paradigma“ der KI-Forschung werden sollte: das Entwickeln von Systemen, die von Spezialisten aufgestellte Regelwerke für die Entscheidungsfindung miteinander verknüpften.
Das von dem Psychologen Frank Rosenblatt entwickelte „Perzeptron“, Vorläufer der „neuronalen Netze“ und Markenzeichen des „konnektionistischen Paradigmas“, knüpfte an Friedrich Hayeks Untersuchungen über Marktstrukturen an, in denen sich dezentral und spontan eine Ordnung herausbildet. Nach diesem Vorbild sollte auch die künstliche Intelligenz eine natürliche Ordnung hervorbringen, mit der die Welt sich auf statistischer Grundlage effizienter, funktionaler und rationeller organisieren ließe als durch einzelne Menschen oder durch Kollektivinstanzen wie den Staat.
Wirtschaftswissenschaft und KI, die in der Informatik oft als Gegensätze aufgefasst werden, beruhen auf denselben Axiomen. Nach Auffassung des Philosophen Mathieu Triclot ist es der vage Begriff der „Information“, der die Grundlage bildete für die Analogisierung so unterschiedlicher Dinge wie Maschinen und Lebewesen, Computern und Gehirnen, politischer Ökonomie und Metaphysik.
Diese Analogisierung stand übrigens im Widerspruch zu den Vorstellungen der Kybernetiker und Informatikpioniere wie John von Neumann, die argumentierten, dass sich die Informationsverarbeitung im Gehirn grundlegend von der in einem Computer unterscheidet. Prominente heutige Vertreter der konnektionistischen KI sind Yoshua Bengio und Yann LeCun, die beide 2018 mit dem Turing Award ausgezeichnet wurden. Bengio, Informatikprofessor in Montreal, ruft nach Regulierung und warnt beharrlich vor den Gefahren einer ungezügelten KI-Entwicklung.
LeCun, Vizepräsident und KI-Chef von Meta (ehemals Facebook), versucht eher zu beruhigen, wobei er möglicherweise die Interessen seines Konzerns im Sinn hat. Bengio und LeCun vertreten oft gegensätzliche Standpunkte, haben aber eines gemeinsam: ein kalkulatorisches und individualisierendes Verständnis von menschlicher Intelligenz. Damit stehen sie in der direkten Nachfolge von McCarthy und Rosenblatt.
Heute spielt KI wirtschaftlich, intellektuell, militärisch und sogar philosophisch eine zentrale Rolle. Dabei wird sie meist als grandioser Höhepunkt des menschlichen Denkens präsentiert und nicht etwa als missratener Sprössling des amerikanischen Individualismus.
Gegen Ende der 1980er Jahre wurde die KI-Forschung in den USA für längere Zeit auf Eis gelegt. Schon der Begriff „künstliche Intelligenz“ vergraulte die Geldgeber, weswegen man den Namen „Advanced Algorithmics“ bevorzugte. Etwa zur gleichen Zeit entwickelten sowjetische Wissenschaftler einen Ansatz, der sich von dem ihrer Kollegen im Westen unterschied. Sie hatten eine andere ideologische Schule durchlaufen und lehnten die Vorstellung einer denkenden Maschine ab, die das rationale Verhalten eines individuellen Akteurs nachahmt. Für sie war die menschliche Intelligenz eine soziale und kulturelle Fähigkeit, die sich in unzähligen zwischenmenschlichen Interaktionen entfaltet.

Abschied von der Cyberdemokratie
McCarthy und seine Kollegen verankerten mit ihrem Versuch, individuelle Denkvorgänge nachzubilden, die KI in der Ideologie des freien Markts und der Kognitionswissenschaften. Die „sowjetische“ KI dagegen wollte die Intelligenz von Makrostrukturen nachbilden, die für das menschliche Verstehen zu komplex sind. Ihr Projekt wurde 1989 mit der Gründung der Sowjetischen Vereinigung für KI institutionalisiert – gerade als das Sowjetsystem ins Wanken geriet.3
In den USA löste in den 1990er Jahren die Entwicklung des Internets in seiner heutigen Form einen Hype bei den Investoren aus, die nun die Forschung in diesem Bereich mit Geld überschütteten – bis 2000 die Dotcom-Blase platzte. Danach stieg der Druck der Geldgeber auf die Digitalunternehmen und diese setzten stärker auf Rentabilität durch Werbung. Google machte persönliche Daten zur Ware, die massenhaft bei den Nutzern kostenloser Angebote abgegriffen wurden. Sie dienten als Rohstoff für Prognosen zum Konsumverhalten und in einem nächsten Schritt auch zur Lenkung dieses Verhaltens. Aus dieser Art des Überwachungskapitalismus entsprang dann eine neue KI-Welle.4
Anfang der 2010er Jahre nahm diese Welle konkrete Form an. Damals fand erstmals die ImageNet-Challenge statt, ein Wettbewerb für Bilderkennungssoftwares, die auf Grundlage der gleichnamigen Datenbank getestet werden. Auf dieses Mammutprojekt hatte die US-Forscherin Fei-Fei Li seit 2006 hingearbeitet. Im Gegensatz zu vielen ihrer Kollegen interessierte Li sich nicht primär für Algorithmen und Rechenleistung, sondern für Daten. Diese waren die essenzielle Ressource für die Verwirklichung der konnektionistischen Prophezeiung und ließen sich dank der Kommerzialisierung des Internets in großen Mengen sammeln.
Seit 2011 wird die KI-Forschung von einem Technokapitalismus geprägt, von dem sie selbst abhängig ist. Strukturiert und veredelt werden die Datenbestände von den Webgiganten und ihrer Armee von Annotatoren: Clickworker, die Daten mit Etiketten versehen und die über die Plattform Amazon Mechanical Turk rund um den Globus mobilisiert werden.
Bei der ImageNet-Challenge 2012 triumphierte ein Programm auf der Basis von „Deep Learning“, eine Lernmethode für künstliche neuronale Netze, die bis dahin als nicht realisierbar gegolten hatte. Auch ChatGPT beruht auf Deep Learning, für die Datenannotation waren tausende kenianische Arbeitskräfte im Einsatz, die weniger als zwei Dollar pro Stunde verdienen.
OpenAI, die Entwicklerfirma von ChatGPT, wurde 2015 unter anderem mit finanzieller Unterstützung von Peter Thiel und Elon Musk, zwei Vertretern des entfesselten Kapitalismus, gegründet – als Nonprofitorganisation. Auf der Website von OpenAI heißt es: „Unsere Mission ist es, sicherzustellen, dass eine Artificial General Intelligence der gesamten Menschheit zugutekommt.“ Um diesem Ziel gerecht zu werden, legte sich OpenAI einen wissenschaftlichen Beirat zu, in dem anerkannte KI-Ethikforscher:innen sitzen.
Vier Jahre später wurde das Tochterunternehmen OpenAI Global gegründet, eine gewinnorientierte „Capped-Profit Company“, deren Erträge ab einer bestimmten Höhe an den Nonprofitbereich abgeführt werden müssen – in diesem Fall ab dem 100-Fachen der ursprünglichen Investitionssumme. Statt humanistisch gesinnter Wissenschaftler der ersten Stunde wurden nun ehrgeizige Ingenieure eingestellt, die von den Aktienoptionen angelockt wurden.
Das Debakel vom November 2023 markierte einen weitreichenden Kurswechsel: Der Verwaltungsrat wurde neu besetzt und die kommerziellen Imperative gewannen endgültig die Oberhand. Im September 2024 gab OpenAI die Capped-Profit-Struktur ganz auf. Das Unternehmen betrachtet die künstliche Intelligenz nicht mehr als Grundlagenwissenschaft im Dienst der Menschheit, sondern in erster Linie als Produkt, das so schnell wie möglich vermarktet werden soll.
Mit ihrem Versprechen, eine Maschine mit Bewusstsein zu schaffen, und ihren prometheischen Träumen hat die KI auch das Interesse der Politik geweckt. Ihr autoritäres und repressives Potenzial und die Möglichkeiten zur Überwachung von Individuen blieben den Regierenden nicht verborgen. Schon in den 1960er Jahren antizipierte man bei der CIA Technologien, die automatisiert Daten auswerten, und was als Begründung für die massenhafte Erfassung und zentrale Speicherung persönlicher Daten diente.
Sowohl die USA als auch China erkannten schnell, dass KI einen wichtigen Beitrag zur sozialen Kontrolle leisten könnte. Dementsprechend investierte man in die mathematische Forschung und entwickelte digitale Infrastrukturen, um im großen Maßstab Daten zu gewinnen.
Autonome Maschinen haben in der Vergangenheit immer wieder auch positive Fantasien über eine digitale Demokratie angeregt – einer auf Informationssystemen aufbauenden Cyberdemokratie, die Bürgerinnen und Bürger aktiv einbezieht. Doch wenn sich diese ursprünglichen anarchisch-libertären Träume erst einmal im sauren Ozean der Daten aufgelöst haben, dürften sie wohl eher zu einer „algorithmischen Gouvernementalität“ mutieren, die erst recht Grund zur Besorgnis gibt.
Die Juristin Antoinette Rouvroy und der Philosoph Thomas Berns warnen in diesem Zusammenhang vor „einer Form von Totalisierung, bei der die statistische ‚Wirklichkeit‘ sich in sich selbst verkapselt und Macht auf das reduziert wird, was wahrscheinlich ist“.5 Mit einer solchen Gouvernementalität, die auf Datenerfassung und Verhaltenslenkung basiert, ließe eine cyberdemokratische KI-Infrastruktur sich wohl kaum in Einklang bringen.
Einstweilen machen die bisher entwickelten KI-Systeme wenig Hoffnung auf Alternativen zur bestehenden Wirtschafts- und Gesellschaftsordnung. Um die Daten und ihre statistischen Antizipationen Lügen zu strafen, um aus dem algorithmischen Determinismus auszusteigen und der KI-Forschung eine neue Richtung zu geben, wäre zuerst eines vonnöten: ein völliges Neudenken unserer Einstellung zur Intelligenz ebenso wie zur Gesellschaft, die diese Technologien hervorgebracht hat.
V. C., A. L., Z. S.-T.
1 David J. Gunkel, „What’s in a name? Cybernetics vs AI“, 19. Juni 2023.
4 Siehe Shoshana Zuboff, „Google sucht dich“, LMd, Mai 2020.
Aus dem Französischen von Andreas Bredenfeld