Es ist der 16. Juli 2019. Elon Musk ist gerade an der California Academy of Sciences in San Francisco auf die Bühne getreten, um Neuralink, sein neues Unternehmen, vorzustellen. Dessen Mission: der Aufbau der nächsten Generation von drahtlosen „Brain Computer Interfaces“ (BCIs: Gehirn-Computer-Schnittstellen).
BCIs sind damals bereits eine bestehende Technologie. Sie beinhalten Hardware-Komponenten, die die Gehirnaktivität messen, sowie ein Software-Element, das die neuronalen Signale auf ein externes digitales Gerät wie einen Computer oder einen Roboterarm übersetzt. Besonders für Patient:innen mit Lähmungen hat sich die Technologie als sehr hilfreich erwiesen. Verschiedene Unternehmen stellen bereits BCIs für medizinische Anwendungen zur Verfügung. Aber es wäre ein Fehler, diese mit Musks Vorhaben zu verwechseln.
Vier Minuten nach Beginn der Veranstaltung blitzt auf dem Bildschirm hinter dem Milliardär die Frage auf: „Warum Neuralink?“, gefolgt von drei Antworten: „Hirnerkrankungen verstehen und behandeln“, „das eigene Gehirn erhalten und optimieren“, „eine gut ausgerichtete Zukunft erschaffen“. Nachdem Musk kurz die Vorteile von BCIs für Menschen mit Wirbelsäulenverletzungen erwähnt hat, beginnt er, das ultimative Ziel des Unternehmens auszumalen: Symbiose mit künstlicher Intelligenz. Da KI mächtiger werde, argumentiert er, bestehe die einzige Chance für unsere Spezies, um nicht überholt zu werden, in der Verschmelzung mit dieser Technologie. Eine „gut ausgerichtete Zukunft“ sei eine, in der unsere Gattung die Anpassung leistet und selbst zur Technologie wird.
Lernt die KI Gedankenlesen?
Wir spulen vor zum Juni 2025. Das neueste Neuralink-Update scheint Elon Musks Versprechen zu erfüllen. Die ersten menschlichen Probanden, gelähmte Patienten, sind in der Lage, Videospiele mit Gehirnimplantaten zu spielen. Das Unternehmen ist auf dem Weg, eine ganze Reihe von Anwendungen zu bauen. Diese umfassen Gedanken-Transkription, die Wiederherstellung verlorenen Sehvermögens bei blinden Patient:innen, die Ausstattung von voll sehkräftigen Personen mit Infrarot-Sicht und die Steuerung eines Roboters über Telepathie.
Das Lesen von Gedanken mag wie Magie klingen, aber im Grunde ist es ein einfacher maschineller Lernprozess. Die Technologie basiert auf der Prämisse, dass fast alles in Mathematik umgewandelt werden kann. Große Sprachmodelle etwa, wie sie auch hinter ChatGPT stehen, konvertieren Text und Bilder in Zahlen. Die elektrische Aktivität des Gehirns kann ihrerseits als Abfolgen von Zahlen dargestellt werden. Nun hat man zwei Arten von mathematischen Sequenzen, und ein KI-Modell kann lernen, die eine in die andere zu übersetzen. Genau das passiert, wenn eine Person, deren neuronale Aktivität vermessen wird, an eine Banane denkt und dann das Wort „Banane“ auf dem Bildschirm aufleuchtet.
Während die Grundlagen der Gehirndekodierung gut etabliert sind, steckt der Teufel im Detail. Zeigen Sie jemandem eine Banane und er wird an eine Banane denken. Allerdings wird er gleichzeitig überlegen, was er zum Abendessen kochen sollte oder sich an einen Ehestreit erinnern. Das resultierende Gehirnbild ist nie eine reine Banane. Der Algorithmus, der die Korrespondenz zwischen Gehirn und Worten lernt, benötigt deshalb eine erhebliche Menge an Daten, um zu lernen, vom Nicht-Bananen-Rauschen zu abstrahieren. Einzelne Gehirne unterscheiden sich auch stark, was bedeutet, dass der Übersetzungsalgorithmus in der Regel individuell trainiert werden muss. Neuralink berichtet, dass seine aktuellen Probanden 50 bis 100 Stunden pro Woche mit ihrem Algorithmus interagieren.
Invasive und nicht-invasive Methoden
Dazu kommt noch die Hardware. Neuralinks erster menschlicher Versuchsteilnehmer hatte Probleme mit seinem Implantat. Dieses besteht aus einem Chip, der über Fäden mit Messelektroden in unterschiedlichen Hirnarealen verbunden ist. Die Elektroden hatten sich vom Gehirn des Patienten gelöst. Gerüchten zufolge musste in den Neuralink-Laboren auch eine hohe Anzahl von Testaffen nach der Operation eingeschläfert werden. Die Implantate werden bereits als Massenprodukt beworben, aber wenn das Ziel ist, uns alle in Cyborgs zu verwandeln, müssen wir zuerst überzeugt werden, uns bedenkenlos den Schädel öffnen zu lassen.
Ironischerweise bräuchte man für BCIs gar nicht in die grauen Zellen einzudringen. Die unterschiedlichen Systeme umfassen invasive und nicht-invasive Methoden. Die nicht-invasive Variante nutzt sogenannte Wearables, zum Beispiel Kappen mit Elektroden, wie man sie vom EEG kennt. Die invasive Variante liefert zwar präzisere Messungen der Gehirnaktivität, aber sie ist medizinisch riskant. Und sie zerstört die Privatsphäre. Die Implantate lassen sich nicht beiseitelegen, sodass die Maschine unweigerlich alle unsere Gedanken, jedes Grübeln über Liebe oder Schuld, beobachten kann.
Was könnte also Neuralinks enorme Investition in invasive Methoden rechtfertigen? Maschinelles Lernen lebt von Daten, und die ersten Patienten von Neuralink liefern mit ihren 50 bis 100 Stunden pro Woche wesentlich mehr Trainingsdaten, als eine Forschungseinrichtung jemals zur Verfügung hätte. Wäre die Verfeinerung nicht-invasiver Software der Entwicklung invasiver Hardware vorzuziehen?
Die Frage beantworten kann Dr. Andrea Bruera, Forscher am Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig. „Der Nutzen dessen, ins Gehirn zu gehen, ist unklar“, sagt er. „Wir wissen eigentlich nicht, wie höhere kognitive Funktionen mit der biologischen Ebene zusammenhängen. Wann immer das Wissen über ein Phänomen ungewiss ist, sollte man seine Patient:innen nicht in Hochrisikoverfahren einbeziehen. Und wenn man wirklich vielen Menschen helfen möchte, würde man eine nicht-invasive, tragbare Methode wie die Elektroenzephalografie bevorzugen.“ Invasiv zu sein, ist eine Entscheidung. Warum sollte man sie treffen? Die Antwort ist, dass das Anliegen, mit Maschinen zu verschmelzen, weniger wissenschaftlichen als ideologischen Ursprungs ist. Hinter der Technologie steht eine Weltanschauung namens Transhumanismus.
Der Transhumanismus ist eine Bewegung, die sich für die maximale Nutzung von Technologie einsetzt, um menschliche Langlebigkeit und Kognitionsfähigkeit zu verbessern. Er wurde mit Eugenik in Verbindung gebracht und der Förderung eines neuen Klassensystems beschuldigt, in dem die „Aufgewerteten“ über den Rest herrschen.
Alles fürs Glück der Zukunft
Der Transhumanismus steht auch mit dem „Longtermismus“ in Verbindung, einer von den Philosophen William MacAskill und Nick Bostrom vertretenen Moraltheorie, derzufolge unsere langfristige Zukunft Vorrang vor den Problemen der Gegenwart hat. Gegenüber dem Glück von Abermilliarden seligen Gehirnen in Tanks – denn das ist hier das Bild der Zukunft – seien Probleme wie Hungersnöte und Klimawandel zu vernachlässigen. Musk hat auf seiner Plattform X seine Sympathie für diese Langfristigkeitsidee deutlich zum Ausdruck gebracht.
Transhumanismus mag wie eine Religion klingen, und tatsächlich ist er nicht weit davon entfernt. Es ist dabei aber von geringer Bedeutung, ob der KI-Gott wirklich existiert oder nicht. Big Tech hat ein Händchen dafür, wissenschaftliche Fortschritte zum richtigen Zeitpunkt aufzugreifen: Genau dann, wenn sie noch überraschend genug sind, um ein Gefühl von Staunen zu erzeugen, und unausgefeilt genug, um von Ingenieuren ohne theoretisches Wissen grob umgesetzt zu werden. Wenn die Technologie aus Mangel an Wissenschaft versagt, werden wir einfach gebeten, unseren Glauben zu erneuern.
2020 twitterte Musk einen Aufruf zur Anwerbung von Ingenieuren für Neuralink. Er wies ausdrücklich darauf hin, dass „keine vorherige Erfahrung in der Arbeit mit dem Gehirn oder der menschlichen Physiologie erforderlich ist“. Erfolgreiche Bewerber:innen würden die Neurowissenschaft in der Firma beigebracht bekommen. Wie Musk betonte, gäbe es ohnehin nicht viel zu lernen.
Solche Behauptungen sind schwer aufrechtzuerhalten. OpenAI-Mitgründer Sam Altman gab im August dieses Jahres zu, dass um KI – die Superintelligenz, mit der wir verschmelzen sollen – eine Finanzblase entstanden ist. Zudem veröffentlichte sein Unternehmen kürzlich einen Bericht darüber, dass „Halluzinationen“ (die Lügen, Ungenauigkeiten und Konfabulationen der großen Sprachmodelle wie ChatGPT) nur behoben werden könnten, wenn deren aktuelles soziotechnisches Paradigma vollständig überarbeitet werde. Diese Ansicht haben viele Wissenschaftler:innen schon seit Einführung der Technologie vertreten. Trotz dieser Rückschläge gebe es kein Zurück mehr, sagt Altman. Er finanziert selbst Merge Labs, ein Start-up für BCIs. Und bereits 2017 schrieb er auf seinem Blog: „Wir befinden wir uns bereits in der Phase der Koevolution. Die KIs betreffen, beeinflussen und infizieren uns …“
Vielleicht hat er nicht unrecht. Es ist ein offenes Geheimnis, dass die aktuelle KI riesige Mengen an menschlichem Input benötigt. Neununddreißig afrikanische Länder produzieren inzwischen Daten, die großen Sprachmodellen dabei helfen, sich kohärenter zu verhalten, als sie es von selbst täten. Hochgebildete Fachleute werden eingesetzt, um die sonst dubiosen Antworten von KI in Bereichen wie Medizin oder Physik zu verbessern. Routinemäßig stellen Milliarden von uns unsere Standorte, Bilder, Musikgeschmäcker, Lesegewohnheiten, Social-Media-Reaktionen und Einkaufspräferenzen zur Verfügung, sodass unsere Apps uns besser dienen. Transhumanisten weisen darauf hin, dass nur ein kleiner Schritt das Smartphone, das uns stets folgt, von dem Smartphone trennt, das in unser Gehirn eingebettet ist. Die Mensch-KI-Symbiose bestehe längst.
Allerdings müsste eine wahre Symbiose gleichermaßen vorteilhaft für die beiden beteiligten Organismen sein. In der Realität konzentrieren sich Macht und Reichtum in den Händen von Big Tech. Der Energie- und Wasserverbrauch von Rechenzentren erschöpft Ressourcen, die wir zum Überleben benötigen. Was haben wir davon?
Wir sollten wenigstens verlangen, dass unsere Liebe und unsere Schuld auch weiterhin unsere bleiben.
Aurelie Herbelot ist Computerlinguistin und Gründerin von Denotation UG, einer Firma für nachhaltige KI-Anwendungen