Michael Wildenhain verbleibend künstliche Intelligenz: Gegensteuern erforderlich
Ist es wahrscheinlich oder zumindest möglich, dass eine künstlich geschaffene Intelligenz eigene Absichten entwickeln und sich gegen seine Schöpfer wenden könnte? Die Zeiten, in denen man Leute, die sich mit solchen Fragen befassen, grundsätzlich für Spinner, Sektierer oder mit allzu viel Fantasie begabte Science-Fiction-Fans hält, scheinen mit den verblüffenden Leistungen von dem Chatbot ChatGPT vorbei zu sein. Allerdings ist es für Laien schwer, sich in dieser Angelegenheit eine eigene Meinung zu bilden.
Einen guten Einstieg in die Diskussion gibt der Schriftsteller und studierte Informatiker Michael Wildenhain in seinem Büchlein Eine kurze Geschichte der Künstlichen Intelligenz. Im Mittelpunkt seiner Darstellung steht die Frage, „inwieweit KI-Systeme, bemessen am allgemein menschlichen Maßstab, als intelligent betrachtet werden können und ob vom Bewusstsein einer Maschine zu sprechen sinnvoll ist – oder nicht.“ Die Furcht der Menschen, die von ihnen geschaffenen künstlichen Wesen könnten sich gegen sie richten, das zeigt er zu Beginn seines in einer leicht zugänglichen Sprache geschriebenen, tatsächlich erfreulich kurzen Textes, ist keineswegs neu.
Kann sich ein KI-Frankenstein einmal gegen seine Schöpfer wenden?
Vor dem Hintergrund der beginnenden industriellen Revolution entstanden fiktive künstliche Existenzen mit Johann Wolfgang von Goethes Homunkulus aus dem Bühnenstück Faust II sowie dem aus Leichenteilen zusammengebauten Monster aus Mary Shelleys vielfach adaptierten Roman Frankenstein bereits in der ersten Hälfte des 19. Jahrhunderts. „Deutlich werden an den Fantasiegestalten“, so Wildenhain, „zwei Aspekte, die in der Diskussion um die Möglichkeiten Künstlicher Intelligenz zentral sind: die Notwendigkeit des Körpers, um intelligente Fähigkeiten nach allgemein menschlichem Maßstab ausbilden zu können, und das Gestellt-Sein in den Kontext der Welt, vermittelt über eine soziale Gemeinschaft.“
Als die eigentliche Geburtsstunde der Künstlichen Intelligenz (KI) wird die von Marvin Minsky im Jahr 1956 im US-Bundesstaat New Hampshire organisierte Dartmouth Conference gehandelt. Man unterscheidet nun eine „schwache KI“, die in Gestalt sogenannter Expertensysteme klar definierte Aufgaben zu bewältigen in der Lage ist von einer noch nicht realisierten „starken KI“, deren Fähigkeiten dem geistigen Vermögen des Menschen ebenbürtig sein und dieses schließlich übertreffen soll.
Minsky gehörte zu jenen Forschern, die sich eifrig darum bemühten, eine Maschine zu entwickeln, deren Intelligenzleistungen denen eines Menschen ebenbürtig waren. Zunächst gingen Entwickler wie er davon aus, dass das menschliche Gehirn wie ein Computer funktioniert, der Informationen repräsentiert, speichert und verarbeitet. 1970 sagte er voraus, dass Maschinen in weniger als zehn Jahren in der Lage sein würden, Shakespeare zu lesen oder ein Auto zu warten. Doch trotz aller Fortschritte, die man hinsichtlich der Rechnerleistungen erreichte, kamen die Vertreter dieses „kognitivistisch“ genannten Ansatzes im Hinblick auf das angestrebte Hauptziel keinen Schritt weiter.
Andere Wissenschaftler verwarfen die Idee, dass das menschliche Hirn einem Computer gleiche und bemühten sich umgekehrt darum, das menschliche Gehirn so gut wie möglich nachzubauen. Die Anhänger dieser „Konnektionismus“ genannten Richtung unter den KI-Forschern verbanden eine große Anzahl parallel arbeitender Einheiten, sogenannte Neuronen und schufen auf diese Weise „neuronale Netzwerke“. Phänomene wie Deep Learning und ChatGPT, die unauflöslich mit der Entwicklung der digitalen Vernetzung durch das Internet verbunden sind, fußen letztlich auf dem Denkansatz des Konnektionismus.
Nach einer langen Phase der Stagnation hat die in der öffentlichen Wahrnehmung weit in den Hintergrund geratene Diskussion um den bevorstehenden Durchbruch in Sachen einer „starken KI“ aktuell wieder an Fahrt aufgenommen. Mit dem Chatbot ChatGPT, so glauben nicht wenige Beobachter, ist diese in greifbare Nähe gerückt. Zumal dann, wenn man, wie das heute eine ganze Reihe von KI-Laboren tun, mit Maschinen experimentiert, die über einen Körper verfügen, mit dessen Hilfe sie mit ihrer Umwelt interagieren. Der Ansatz des Embodiments stellt mehr oder weniger humanoide, mit Sensoren und sich selbst korrigierenden Steuerungen ausgestattete Körper in eine Umgebung, die mit Hilfe von rückgekoppelten Eindrücken, eine menschenähnliche Alltagsintelligenz erwerben sollen.
Ein KI-Kind ist nicht intelligent, weil es laufen lernt
Wildenhain hält alle diese Versuche, was das angestrebte Ziel der Entwicklung einer menschenähnlichen Intelligenz betrifft, für wenig aussichtsreich. Das betrifft auch den aufgrund seiner Nähe zu philosophischen und sozialwissenschaftlichen Handlungstheorien zunächst weniger reduktionistischen und daher vielversprechenden Ansatz des Embodiment: „Wenn ein künstliches Kind“, so Wildenhain, „laufen lernt, indem seinem Gleichgewichtsorgan bei Erfolg (Gehen) oder Misserfolg (Fallen) qua Rückkopplung eine Korrektur der Abläufe gemeldet wird, mag das eine grandiose technische Leistung eines sich durch die Fehlerfunktion selbst steuernden Systems sein; als intelligent kann das ‚Kind‘ aber kaum bezeichnet werden, weil es ihm an Verständnis für die Gesamtsituation fehlt, in der es sich befindet. Ein menschliches Kind versteht durch die Beobachtung der Mitmenschen, dass es erstrebenswert ist, sich auf zwei Beinen durch die Welt zu bewegen. Ein künstliches Kind – egal, ob wesentlich bestimmt von einer kognitivistischen oder einer konnektionistischen oder einer sonstigen Programmierung – folgt den implementierten Vorgaben innerhalb eines etablierten Rahmens gegebener Möglichkeiten.“
Um so etwas wie einen menschlichen Geist zu schaffen, erklärt er mit einem für einen linken Autor überraschenden Verweis auf den konservativen Philosophen Martin Heidegger, reiche ein Körper nicht aus: „Intelligentes Handeln ist kontextabhängig und lässt sich nur im Zusammenhang mit einem sozialen Gegenüber, eingebunden in eine Gemeinschaft, verstehen.“ Unsere Gehirne seien im Zuge der Evolution organisch geworden und nicht ad hoc konstruiert und programmiert worden. Ein noch so klug konzipiertes Training von Maschinen reiche letztlich nicht an die Intentionalität menschlichen Handelns heran, das „in letzter Konsequenz darauf abstellt, zu leben und zu überleben und den Fortbestand der Gattung zu garantieren.“
Die Entwicklung und erst recht die Machtübernahme einer sich selbst bewusst gewordenen KI hält Wildenhain für praktisch ausgeschlossen. Was allerdings nicht bedeute, dass die Vernichtung der Menschheit mittels eines KI-Systems in seinen Augen ein völlig abwegiges Szenario wäre. Verbunden mit einer Raketenabschussrampe, der Schleuse eines Hochsicherheitslabors oder ähnlich sensiblen Mechanismen könnte es – ganz ohne eigene Absicht – eine katastrophisches Geschehen ungeheuren Ausmaßes auslösen.
Abgesehen davon sei sie in Gestalt von Spielen, Animationen sozialen Medien und Assistenzsystemen vor allem als „Agentin einer um sich greifenden Abstumpfung der Menschheit“ gefährlich, „die sich durch den zunehmenden Rückzug aus der Wirklichkeit und den realen sozialen Bezügen mit großer Wahrscheinlichkeit ergeben wird.“ Ein intelligentes menschliches Gegensteuern, daran lässt die Lektüre von Wildenhains nüchterner und an keiner Stelle alarmistischen Darstellung keinen Zweifel, ist jedenfalls dringend erforderlich.
Eine kurze Geschichte der Künstlichen Intelligenz Michael Wildenhain Klett-Cotta Leseprobe