Interview | Künstliche Intelligenz imitiert Intelligenz nur. Trotzdem ist sie gefährlich

Gaspard Koenig ging auf Weltreise, um zu erfahren, wie Technologie den freien Willen bedroht, wenn sie falsch eingesetzt wird. Er warnt: Wir Nutzer leisten dem Missbrauch durch unser Verhalten Vorschub

Reisend erschließt sich Gaspard Koenig die Welt. Auf seiner Stute Destinada folgte er den Routen, die 1580/81 Montaigne von Bordeaux nach Rom geführt hatten; auf sein Buch Voyages d’un philosophe aux pays des libertés (dt. „Reise eines Philosophen ins Land der Freiheit“) folgt das nun auf Deutsch erschienene Werk Das Ende des Individuums. Reise eines Philosophen in die Welt der künstlichen Intelligenz.

Der französische Philosoph sprach hierfür mit mehr als 100 Forschern, Politikern, Aktivisten und Unternehmern über das Zeitalter der künstlichen Intelligenz.

der Freitag: Herr Koenig, Sie rufen in Ihrem Buch dazu auf, Alexa, Amazons Sprachassistentin, zu beschimpfen. Warum das?

Gaspard Koenig: Alexa verfügt über eine Funktion, die gutes Benehmen belohnt und Kinder dazu erzieht, höflich zu sein. Das Programm reagiert nur, wenn Sie „Bitte“ sagen. Auf diese Weise werden Roboter vermenschlicht. Im 19. Jahrhundert waren Maschinen einfach nur Objekte, heute wird die Vorstellung verbreitet, man könnte mit ihnen sprechen oder sie hätten Gefühle. Ich sehe darin einen zivilisatorischen Rückschritt in animistische Zeiten.

Aber intelligent ist die künstliche Intelligenz doch schon?

Die KI ist nicht mit der menschlichen Intelligenz vergleichbar, sie imitiert sie nur. Ein Beispiel: Man liest oft Schlagzeilen wie: „Algorithmus schlägt Ärzte bei der Krebserkennung“. Das ist aber nicht korrekt. Tatsächlich wird ein Programm wie dieses mit Hunderttausenden Bildern von Tumoren gefüttert, die zuvor von Medizinern kategorisiert wurden. Ärzte haben die Krebszellen entdeckt, die Maschine identifiziert nur Unterschiede zwischen Bildern. Wer behauptet, das Programm wäre einem Arzt überlegen, verwechselt Kausalität, die der menschlichen Intelligenz eigen ist, mit der Fähigkeit zur Korrelation.

Und trotzdem wird die KI vielen Menschen ihre Jobs wegnehmen.

Diese Gefahr wird überschätzt. Man kann das Risiko im Übrigen gut kalkulieren. Es hängt davon ab, wie viel Gemeinsinn eine Tätigkeit erfordert. Gemeinsinn bezeichnet die Fähigkeit des Menschen, etwas in seiner Gesamtheit wahrzunehmen. Die KI kann das nicht, sie fügt lediglich einzelne Sinnesdaten zusammen. Das ist etwas völlig anderes, so entsteht keine sinnvolle Wahrnehmung der Welt. Deshalb könnte eine KI zum Beispiel niemals kellnern, obwohl man für diesen Job keine besondere Expertise benötigt. Ein Kellner muss ständig wechselnde Situationen einschätzen und auf sie reagieren. Bei einem Gast mit ausländischem Akzent bietet er Hilfe mit der Karte an. Am Nebentisch bemerkt er, dass die Gäste ungeduldig werden und fragt in der Küche nach. Woanders bricht ein Streit aus, woraufhin er die Lage beruhigt. Eine KI könnte sich in dieser Umgebung niemals orientieren.

Worin liegt der größte Nutzen der KI?

Als Informationskatalysator kann sie in fast allen Feldern eingesetzt werden, Schreiben eingeschlossen. Sie verwirklicht damit Leibniz’ Traum vom universellen Rechnen. Wir sollten diese Technologien unbedingt nutzen und vorantreiben, solange sie nicht dazu dienen, das menschliche Verhalten zu manipulieren. Auf Waldspaziergängen nutze ich eine App, die Bäume nur anhand des Fotos von einem Blatt bestimmt. Das ist reine kollaborative KI in der ausgefeiltesten Form des Deep Learning. Millionen von Nutzern erhöhen mit den von ihnen vorgenommenen Bestimmungen die Genauigkeit der Ergebnisse. Ganz im Interesse des Wissens und der Biodiversität.

Sie sehen KI doch als Bedrohung?

Ich habe große Bedenken, was ihre kommerzielle Verwendung angeht. In den USA gilt in der Psychologie, der Verhaltensökonomie und der Neurowissenschaft als Konsens, dass es keinen freien Willen gibt, dass Menschen nicht fähig sind, eigenständige Entscheidungen zu treffen. Und die Digitalkonzerne leiten daraus die Berechtigung ab, Menschen zu steuern und ihr Verhalten zu manipulieren. Die Leute wissen nicht, was sie wollen? Dann bestimmen wir einfach, was das Beste für sie ist. Die Nutzer selbst ermöglichen diese Bevormundung, indem sie ihre Daten abgeben. In China entscheiden Plattformen schon über ganze Existenzen, sie wählen Schulen und Studienfächer, Arbeitsplätze und Partner aus. Es ist sehr bequem, sich von diesem System leiten zu lassen. Doch man verliert dabei die Fähigkeit, für sich selbst zu entscheiden und ein vollwertiger Mensch zu sein.

Man könnte doch auch sagen, die KI unterstützt die Nutzer in der Entfaltung ihrer Persönlichkeit. Die Daten enthüllen Wünsche, die man selbst nie so klar formulieren könnte.

Nehmen wir an, jeder würde im Alter von 18 Jahren eine KI damit beauftragen, den perfekten Partner zu finden. Das wäre das genaue Gegenteil von dem, was wir unter romantischer Liebe verstehen. Dazu gehört eine Entwicklung. Man verliebt sich, es geht nicht gut aus, man trennt sich, man hat mehrere schlechte Beziehungen, bereut frühere Entscheidungen und geht künftige anders an. Diese Ereignisse formen einen Menschen zu einer reifen, einzigartigen und eigenständigen Persönlichkeit. Freier Wille bedeutet Entscheidungsgewalt. Er ist nicht einfach gegeben, sondern erfordert beständige Anstrengungen.

Zur Person

Gaspard Koenig, 39, ist ein französischer Philosoph und Romancier. Er studierte Philosophie in Lyon sowie New York und veröffentlichte mit 22 seinen ersten Roman; anschließend arbeitete er als Redenschreiber für Christine Lagarde, damals französische Wirtschaftsministerin, sowie in London bei der Europäischen Bank für Wiederaufbau und Entwicklung. Koenig gründete 2013 die liberale Denkfabrik Génération Libre. Das Ende des Individuums erschien jüngst bei Galiani Berlin (400 S., 24 €).

Wie kann man seine Individualität schützen?

Ich zum Beispiel nutze zwar Google Maps, gebe aber meine Standortdaten nicht frei. Ich folge also nicht dem blauen Punkt und lasse mir auch keine Route anzeigen, sondern suche sie mir selbst. Auf diese Weise bewahre ich meine Entscheidungsgewalt. Ein Wissenschaftler, den ich in Berkeley getroffen habe, besiegt so jeden Morgen Google.

Wie das?

Er kennt die Straßen sehr gut und versucht jeden Tag weniger Zeit für seinen Weg zu benötigen, als Google Maps für die vorgeschlagene Route kalkuliert. Denn die App zeigt Ihnen nicht die beste Route für Sie an, sondern die beste für die Gesamtheit der Nutzer. Sie könnten schneller ankommen, wenn Sie ein Stück über die Umgehungsstraße fahren. Aber wenn die Verkehrsdaten ergeben, dass so ein Stau entstehen könnte, was die Fahrtzeit aller anderen Fahrer verlängern würde, schlägt Ihnen die App einen Umweg vor. Genau so funktionieren auch Dating-Apps. Ein sehr großer Anteil der Männer wünscht sich eine 23-jährige Frau als Partnerin, nicht älter, nicht jünger. Wenn die Plattformen lediglich diese dezidierten Wünsche berücksichtigen würden, bräche das System sofort zusammen. Die Algorithmen geben ihren Nutzern nicht, was sie haben wollen, sondern das, was im Interesse der Allgemeinheit ist. Deshalb werden die Plattformen als utilitaristisch bezeichnet. Sie wollen das Glück der ganzen Gruppe heben, nicht aber das Glück des Einzelnen.

Sie sehen das Individuum gefährdet. Aber handelt es sich nicht vor allem um ein ästhetisches Problem? Weil die KI die Welt so öde und gleichförmig macht?

Das ist in der Tat ein interessanter Effekt. Die chinesischen Smart Citys zum Beispiel sind einfach abscheulich. Trotzdem waren in China alle, mit denen ich über diese Städte gesprochen habe, ganz euphorisch. Ich habe sie dann nach ihren Lieblingsorten in Paris gefragt. Das waren genau die Stellen, die von Georges-Eugène Haussmanns Zugriff verschont geblieben sind, als er das Stadtbild von Paris im 19. Jahrhundert am Reißbrett entworfen hat. Diese Orte sind unwillkürlich und Stück für Stück gewachsen, aus dem Chaos heraus. Die KI hingegen schafft effiziente und gleichförmige Umgebungen, die sich nicht entwickeln.

Sie fordern ein Recht auf Irrtümer. Was soll an Irrtümern gut sein?

Die KI versucht, Prozesse zu optimieren und Fehler auszumerzen. Aber Irrtümer sind extrem wichtig, für jede Art von Fortschritt und auch für die Entwicklung der Persönlichkeit. Wenn die KI uns leitet und uns unsere Entscheidungen abnimmt, werden wir diese Fähigkeit verlieren.

Wie ist dem Problem zu begegnen?

Es gibt viele Möglichkeiten, die eigenen Daten vor dem Zugriff der Plattformen zu schützen, nicht getrackt und beeinflusst zu werden. Aber nur eine Minderheit kennt und nutzt diese Werkzeuge. Wir müssen also die Plattformen regulieren. Entscheidend wird dafür die Etablierung eines Eigentumsrechts an unseren persönlichen Daten sein. Ganz konkret sähe das so aus, dass wir alle ein persönliches Datenkonto hätten, die Plattformen müssten uns für diese Daten bezahlen. Denn derzeit arbeiten wir alle für diese Firmen, wir generieren für sie Daten, und zwar kostenlos.

Ich erhalte doch eine Gegenleistung für meine Daten, wenn ich eine App kostenlos nutze.

Ihre Daten sind aber viel mehr wert als die Dienstleistung, die Sie dafür in Anspruch nehmen. Sie werden also betrogen. Es gibt derzeit keine Möglichkeit, den Preis für die eigenen Daten zu verhandeln. Mit einem Eigentumsrecht läge die Entscheidung bei den Nutzern selbst. Wer bereit ist, seine Daten zu teilen, würde von den Plattformen dafür entlohnt. Wer völlig anonym bleiben möchte, hätte die Möglichkeit, selbst für die Leistungen der Plattformen mit Geld zu bezahlen.

In einem solches System würden die Wohlhabenden ihr Privileg auf Individualität schützen, während die Armen sich den Plattformen ausliefern müssten.

Um dem zu begegnen, plädiere ich für die Einführung eines bedingungslosen Grundeinkommens. Die Höhe eines solchen Betrags würde sich daran bemessen, was man zur Befriedigung grundsätzlicher Bedürfnisse benötigt. Und neben zum Beispiel Lebensmitteln, Miete oder Kleidung sollte auch der Preis für die Privatsphäre in diese Kalkulation einfließen. Wer dann sein Geld lieber für etwas anderes ausgeben möchte, soll das tun, aber zumindest hätten so alle Menschen die Möglichkeit, ihre Privatsphäre zu schützen.

Lesen Sie mehr in der aktuellen Ausgabe des Freitag.

Comments (0)
Add Comment