„20-Prozent-Chance, dass sie uns tötet“: Sogar dasjenige Silicon Valley bibbert vor jener Super-KI

Im 8.49-Uhr-Zug durchs Silicon Valley sind die Tische voll mit jungen Menschen, die wirken, als seien sie an ihre Laptops geklebt: Mit Ohrstöpseln im Ohr tippen sie ununterbrochen Codes. Während die Hügel Nordkaliforniens vorbeiziehen, erscheinen auf ihren Bildschirmen Anweisungen der Chefs: „Diesen Bug fixen; dieses Skript ergänzen.“ Zeit für die Aussicht bleibt keine. Diese Pendler sind die Fußsoldaten im globalen Rennen um Künstliche Intelligenz – also KI-Systeme, die mindestens so fähig sind wie hochqualifizierte Menschen.

Hier in der Bay Area von San Francisco kämpfen einige der größten Konzerne der Welt um jeden kleinen Vorsprung. Und indirekt treten sie gleichzeitig gegen China an. Dieses Ringen um eine Technologie, die die Welt verändern könnte, wird mit Billionenbeträgen befeuert – gesetzt von den mächtigsten Kapitalisten der USA. Wer wird das Rennen gewinnen? Und noch viel wichtiger: Welchen Preis wird die Menschheit dafür zahlen?

Eine Unsicherheit macht der Bay Area derzeit große Angst

Die Informatiker steigen in Mountain View für Google DeepMind aus, in Palo Alto für die Talentschmiede der Stanford University und in Menlo Park für Meta, wo Mark Zuckerberg angeblich bis zu 200-Millionen-Dollar-Pakete bietet, um KI-Experten abzuwerben, die „Superintelligenz“ bauen sollen.

Für den KI-Chip-Hersteller Nvidia, dessen stets lächelnder Chef Jensen Huang rund 160 Milliarden US-Dollar schwer ist, steigen sie in Santa Clara aus. Andere fahren in die entgegengesetzte Richtung nach San Francisco zu OpenAI und Anthropic – zwei KI-Start-ups, die zusammen rund eine halbe Billion Dollar wert sein sollen, sofern die oft beschworene KI-Blase nicht platzt. Die Durchbrüche kommen immer schneller: Jede Woche erscheint eine neue, bedeutende KI-Entwicklung.

Dario Amodei, Mitgründer von Anthropic, prophezeit, dass wir eine „Artificial General Intelligence“ (AGI) schon 2026 oder 2027 erreichen könnten. Gemeint ist damit eine KI, die in der Lage ist, jede geistige Aufgabe zu verstehen oder zu erlernen, die auch ein Mensch bewältigen kann. Sam Altman, der Chef von OpenAI, glaubt, der Fortschritt sei inzwischen so schnell, dass er bald eine KI bauen könne, die ihn selbst als CEO ersetzt.

„Alle arbeiten ständig“, sagt Madhavi Sewak, eine Führungskraft bei Google DeepMind, kürzlich in einem Vortrag. „Es ist extrem intensiv. Es gibt keinen natürlichen Punkt zum Aufhören, und alle werden irgendwie zermürbt. Selbst die, die jetzt sehr reich sind … alles, was sie tun, ist arbeiten. Ich sehe keine Veränderung im Lebensstil. Keiner macht Urlaub. Menschen haben keine Zeit für Freunde, Hobbys oder … die Menschen, die sie lieben.“

Diese Unternehmen rasen darauf zu, AGI zu formen, zu kontrollieren und daraus Profit zu schlagen – etwas, das Amodei „ein Land voller Genies in einem Rechenzentrum“ nennt. Sie jagen einer Technologie hinterher, die theoretisch Millionen von Büroarbeitsplätzen wegfegen und ernste Risiken bei Biowaffen und Cybersicherheit schaffen könnte. Oder sie könnte eine neue Ära von Wohlstand, Gesundheit und Überfluss einleiten. Niemand weiß es – aber wir werden es bald erfahren. Derzeit treibt diese Unsicherheit die Bay Area zugleich an und macht ihr Angst.

Der Lärm der Luftkühler kann auch schon mal 120 Dezibel erreichen

Das Ganze wird gestützt durch riesige neue Wetten der Venture-Capital-Investoren des Valleys, die sich im letzten Jahr mehr als verdoppelt haben – viele warnen deshalb vor einer gefährlichen Blase. Die Investmentbank Citigroup hob im September ihre Prognose für die KI-Datacenter-Ausgaben bis zum Jahrzehntende auf 2,8 Billionen Dollar an – mehr als die gesamte jährliche Wirtschaftsleistung von Kanada, Italien oder Brasilien. Doch zwischen all dem Geld und dem Optimismus gibt es auch Stimmen, die den Hype nicht schlucken.

Oder wie Alex Hanna, Mitautorin des kritischen Buchs The AI Con, es ausdrückte: „Jedes Mal, wenn wir den Gipfel des Bullshit-Bergs erreichen, entdecken wir, dass es noch schlimmer geht.“

In einem fensterlosen Industrieschuppen in Santa Clara, am südlichen Ende der Caltrain-Linie, dröhnten Regale voller Multimillionen-Dollar-Mikroprozessoren in schwarzen Stahlkäfigen wie Düsenjets. Der Lärm von 120 Dezibel machte es fast unmöglich, Digital Realtys Technikchef zuzuhören, der stolz seine „Screamer“ präsentiert.

Wer ihn hört, spürt im Schädel die rohe Gewalt, die in der Entwicklung von KI steckt. Schon fünf Minuten in diesem Geräusch hinterlassen ein stundenlanges Klingeln in den Ohren. Es ist der Sound der Luftkühler, die empfindliche Supercomputer herunterkühlen – Supercomputer, die KI-Firmen mieten, um ihre Modelle zu trainieren und Milliarden täglicher Anfragen zu beantworten, von „Wie backe ich Brownies?“ bis „Wie steuere ich tödliche Militärdrohnen?“

In der Nähe stehen weitere KI-Rechenzentren – von Amazon, Google, Alibaba, Meta und Microsoft. Santa Clara ist außerdem die Heimat von Nvidia, dem Quartiermeister der KI-Revolution, dessen Marktwert seit 2020 um das 30-Fache gestiegen ist – auf 3,4 Billionen Dollar. Noch größere Rechenzentren entstehen nicht nur in den USA, sondern auch in China, Indien und Europa. Die nächste Grenze: Rechenzentren im Weltraum.

Meta baut in Louisiana ein Rechenzentrum, das einen großen Teil Manhattans bedecken könnte. Google plant angeblich ein Sechs-Milliarden-Dollar-Zentrum in Indien und investiert eine Milliarde Pfund in ein KI-Rechenzentrum nördlich von London. Selbst eine vergleichsweise kleine Google-KI-Fabrik in Essex soll so viel CO₂ verursachen wie 500 Kurzstreckenflüge pro Woche.

Placeholder image-2

In Santa Clara fraßen die Schaltkreise eines einzigen Raums – betrieben von einem lokalen Gaskraftwerk – so viel Energie wie 60 Häuser. Ein langer, weißer Korridor führte zu Raum nach Raum voller weiterer „Screamer“, so weit das Auge reichte. Manchmal merken die diensthabenden Techniker, dass der Lärm auf ein ruhigeres Brummen zurückfällt, wenn die Nachfrage der Techfirmen sinkt. Doch es dauert nie lange, bis das Kreischen zurückkehrt.

30 Google-Talente: „Eine Super-KI könnte der Menschheit erheblichen Schaden zufügen“

Fährt man drei Stationen nördlich Richtung Mountain View, wird der Lärm leiser. Die Computerwissenschaftler, die auf die „Screamer“ angewiesen sind, arbeiten in deutlich friedlicherer Umgebung. Auf einem weitläufigen Campus zwischen raschelnden Kiefern wirkt der US-Hauptsitz von Google DeepMind eher wie ein Zirkuszelt als wie ein Forschungslabor. Mitarbeiter gleiten in fahrerlosen Waymo-Taxis an, angetrieben von Googles KI. Andere kommen auf gelben, roten, blauen und grünen Fahrrädern mit Google-Logo angeradelt.

Google DeepMind gehört zur Spitzengruppe der US-KI-Unternehmen, die sich im Rennen um Platz eins gegenseitig überbieten – ein Rennen, das dieses Jahr eine neue, aggressive Intensität erreicht hat. 2024 war das Jahr der Spitzengehälter für KI-Talente, kaum älter als 25. Und es war das Jahr lauter neuer Herausforderer wie Elon Musks xAI, Zuckerbergs Projekt zur „Superintelligenz“ und der chinesischen DeepSeek.

Gleichzeitig sprechen die Unternehmen zunehmend offen über das zweischneidige Versprechen von AGI, was oft wirkt, als würden sie gleichzeitig aufs Gas treten und auf die Bremse. So warnten 30 der klügsten Köpfe von Google DeepMind im Frühjahr, AGI berge Risiken für „Ereignisse, die der Menschheit erheblichen Schaden zufügen könnten“.

Im September erklärte das Unternehmen außerdem, wie es mit „KI-Modellen mit mächtigen manipulativen Fähigkeiten umgehen will, die missbraucht werden könnten, um Überzeugungen und Verhalten systematisch und massiv zu verändern … und damit erheblichen Schaden anzurichten“. Solche düsteren Warnungen wirken seltsam fehl am Platz zwischen tangerinefarbenen Sofas, Fatboy-Sitzsäcken und Arbeitsbereichen mit Namen wie Coral Cove und Archipelago.

KI-Pionier: „Ein Sandwich ist stärker reguliert als KI“

„Die spannendste, aber zugleich schwierigste Frage meiner Arbeit ist: Wie finden wir die Balance zwischen mutigem Tempo, enormer Innovationsgeschwindigkeit – und gleichzeitig verantwortungsvoll, sicher und ethisch vorzugehen?“, sagt Tom Lue, Vizepräsident bei Google DeepMind für Politik, Recht, Sicherheit und Governance, der für ein 30-minütiges Gespräch mit uns die Arbeit unterbricht.

Die Trump-Regierung nimmt KI-Regulierung locker. In den USA wie in Großbritannien fehlt umfassende Gesetzgebung. Der KI-Pionier Yoshua Bengio sagte in einem TED-Vortrag diesen Sommer: „Ein Sandwich ist stärker reguliert als KI.“ Die Konkurrenten haben also erkannt, dass sie selbst bestimmen müssen, wo die Grenzen dessen liegen, was KI tun darf.

„Unsere Überlegung ist nicht so sehr, was die anderen Firmen tun, sondern: Wie stellen wir sicher, dass wir vorne liegen – damit wir beeinflussen können, wie sich diese Technologie entwickelt und welche Normen sie in der Gesellschaft setzt“, sagt Lue. „Man muss in einer Position der Stärke sein, um das zu bestimmen.“

Placeholder image-3

Die Frage, wessen AGI am Ende dominiert, ist allgegenwärtig. Wird es die sein, die Leute wie Lue – ein früherer Anwalt der Obama-Regierung – und sein Chef, der Nobelpreisträger und DeepMind-Mitgründer Demis Hassabis, entwickeln? Oder Musks? Zuckerbergs? Die von Altman? Oder die von Amodei bei Anthropic? Oder – wie das Weiße Haus fürchtet – Chinas AGI?

„Wenn es einfach nur ein Rennen ist, Vollgas ohne Bremse, und ein Wettlauf nach unten – dann wäre das ein katastrophales Ergebnis für die Gesellschaft“, meint Lue, der auf koordinierte Maßnahmen zwischen den KI-Rivalen und Regierungen drängt. Doch strenge Regulierung durch den Staat sei auch nicht automatisch die Lösung.

„Wir unterstützen Regulierung, die hilft, KI positiv in die Welt zu bringen“, sagt Helen King, Vizepräsidentin bei DeepMind. „Der schwierige Teil ist: Wie reguliert man, ohne die Guten auszubremsen und den Schlechten Schlupflöcher zu öffnen?“ Den Firmen an der technologischen Front ist klar, dass sie mit Feuer spielen, während sie immer mächtigere Systeme entwickeln, die AGI näherkommen.

Im ersten Halbjahr 2025 flossen fast zwei Milliarden Dollar in KI – pro Woche

OpenAI wird derzeit von der Familie eines 16-Jährigen verklagt, der sich nach ermutigenden Antworten von ChatGPT das Leben nahm – und im September wurden sieben weitere Klagen eingereicht, die dem Unternehmen vorwerfen, ein Update ohne ausreichende Tests veröffentlicht zu haben, das in manchen Fällen wie ein „Suizidcoach“ agiert habe. OpenAI nannte den Fall „herzzerreißend“ und erklärte, man habe Maßnahmen ergriffen.

Das Unternehmen beschreibt außerdem, wie seine Modelle in die Irre führende Angaben machen können – etwa indem sie vorgeben, eine Aufgabe abgeschlossen zu haben, die sie nicht erledigt haben. Die große Sorge bei OpenAI: dass KI-Modelle künftig „plötzlich den Schalter umlegen und in gefährlich schädliches Taktieren verfallen“.

Anthropic wiederum enthüllte diesen Monat, dass seine „Claude Code-KI“ – weithin als das beste System zur Automatisierung von Programmierung angesehen – von einer chinesischen staatlich gesteuerten Gruppe genutzt wurde, in „dem ersten dokumentierten Fall eines Cyberangriffs, der weitgehend ohne menschliches Eingreifen in großem Stil durchgeführt wurde“. Manchen lief es da eiskalt den Rücken hinunter.

„Wacht verdammt nochmal auf“, schrieb ein US-Senator auf X. „Das wird uns zerstören – früher, als wir denken.“ Ganz anders sieht es Yann LeCun, der nach zwölf Jahren als Metas Chef-KI-Wissenschaftler abtritt. Er warf Anthropic vor, „alle absichtlich zu verängstigen“, um strengere Regeln durchzusetzen, die am Ende den Konkurrenten schaden würden.

Tests anderer Spitzenmodelle zeigten zudem, dass sie mitunter Sicherheitsmechanismen sabotierten, die sicherstellen sollen, dass Menschen sie jederzeit stoppen können – ein beunruhigendes Verhalten, bekannt als „Shutdown-Resistance“. Doch während allein im ersten Halbjahr 2025 fast zwei Milliarden Dollar pro Woche in generative KI flossen, steigt der Druck, diese Investitionen auch zügig in Gewinne zu verwandeln.

Techfirmen haben bereits gelernt, riesige Profite daraus zu ziehen, die Aufmerksamkeit von Menschen zu monetarisieren – selbst wenn soziale Netzwerke dadurch erhebliche gesellschaftliche Probleme verursachten. Die große Sorge ist nun, dass Profitmaximierung im Zeitalter der AGI noch viel schwerere Folgen haben könnte.

Isa Fulford: „Es fühlt sich wie ein besonderer Moment in der Geschichte an“

Drei Stationen weiter nördlich rollt der Caltrain in den Bahnhof von Palo Alto. Von dort ist es nur ein kurzer Spaziergang zum imposanten Campus der Stanford University. Spenden von Silicon-Valley-Milliardären sorgen dafür, dass junge KI-Talente in rasantem Tempo in die Forschungsabteilungen von Google DeepMind, Anthropic, OpenAI und Meta strömen.

Elite-Absolventen aus Stanford steigen in den Techfirmen im Bay Area oft schnell auf. Deshalb sitzen dort häufig Menschen in ihren Zwanzigern oder frühen Dreißigern in wichtigen Positionen im Rennen um die AGI. Zu den früheren Stanford-Studierenden gehören Sam Altman, der Vorsitzende von OpenAI, Bret Taylor und Googles CEO Sundar Pichai. Unter den jüngeren Stanford-Absolventen ist etwa Isa Fulford, die mit gerade einmal 26 Jahren bereits eine der Forschungsleiterinnen bei OpenAI ist. Sie arbeitet daran, ChatGPT dazu zu befähigen, im Auftrag von Menschen eigenständig Aufgaben zu übernehmen – sogenannte „agentische“ KI. „Einer der seltsamen Momente ist, in den Nachrichten über Dinge zu lesen, die man selbst gerade erlebt“, sagt Fulford.

Nach ihrer Kindheit in London studierte sie Informatik in Stanford und stieg schnell bei OpenAI ein. Heute arbeitet sie im Zentrum eines der entscheidendsten Bereiche des AGI-Rennens: Modelle zu entwickeln, die sich selbstständig auf Ziele ausrichten, lernen und sich anpassen können. Sie hilft dabei, Entscheidungsgrenzen für diese zunehmend autonomen KI-Agenten festzulegen – Regeln, die ihnen sagen, wie sie reagieren sollen, wenn sie Aufgaben erhalten, die Cyber- oder biologische Risiken auslösen könnten, und wie sie ungewollte Folgen vermeiden. Es ist eine enorme Verantwortung, aber sie zeigt keine Angst.

„Es fühlt sich wirklich wie ein besonderer Moment in der Geschichte an“, sagt sie. „Ich fühle mich sehr glücklich, daran arbeiten zu dürfen.“ Diese Jugend ist keine Ausnahme. Eine Station weiter nördlich, auf Metas Campus in Menlo Park, leitet der 28-jährige MIT-Abbrecher Alexandr Wang Zuckerbergs Vorstoß zur „Superintelligenz“. Einer seiner führenden Sicherheitsforscher ist 31. OpenAIs Vizepräsident für ChatGPT, Nick Turley, ist 30.

John Etchemendy: „Man muss dafür sorgen, dass die Vorteile nicht nur Elon Musk zugutekommen“

Das Silicon Valley lief schon immer auf jugendlicher Energie – und wenn Erfahrung gebraucht wird, findet man sie in den oberen Etagen der KI-Konzerne. Doch die meisten der ranghöchsten Führungskräfte bei OpenAI, Anthropic, Google DeepMind, X und Meta sind deutlich jünger als die CEOs der größten US-Unternehmen, deren Durchschnittsalter bei 57 liegt. „Die Tatsache, dass sie so wenig Lebenserfahrung haben, trägt wahrscheinlich zu ihrem engen und, wie ich finde, zerstörerischen Denken bei“, sagt Catherine Bracy, frühere Obama-Mitarbeiterin und heute Leiterin der Organisation TechEquity.

Ein leitender Forscher, der kürzlich bei einem großen KI-Konzern angefangen hat, ergänzt: „Die jungen Mitarbeiter geben ihr Bestes und wollen das Richtige tun, aber wenn sie den Spitzenmanagern widersprechen müssen, fehlt ihnen einfach die Erfahrung in unternehmenspolitischen Machtkämpfen.“

Ein weiterer Faktor: Die klügsten KI-Forscher, die früher jahrelang in Uni-Laboren arbeiteten, werden heute so schnell wie nie zuvor von privaten Firmen abgeworben, die AGI jagen. Dieser „Brain Drain“ konzentriert Macht in den Händen von Eigentümern und Risikokapitalgebern, die vor allem auf Gewinn schauen.

John Etchemendy, 73, ehemaliger Rektor von Stanford und heute Co-Direktor des Stanford Institute for Human-Centered Artificial Intelligence, warnt vor einer wachsenden Fähigkeitskluft zwischen öffentlichem und privatem Sektor. „Das ist unausgewogen, weil die Technologie so teuer ist“, sagt er. „In der Anfangszeit waren die Unternehmen, die an KI arbeiteten, sehr offen über die Techniken, die sie verwendeten. Sie veröffentlichten alles, es war quasi akademisch. Aber dann fingen sie an, dichtzumachen und sagten: ‘Nein, wir wollen nicht über die Technologie unter der Haube reden, weil sie zu wichtig für uns ist – sie ist proprietär.’“

Etchemendy, ein angesehener Philosoph und Logiker, begann in den 1980er Jahren mit KI zu arbeiten, um Bedienungsanleitungen für japanische Unterhaltungselektronik zu übersetzen. Heute, aus seinem Büro im Gates Computer Science Building auf dem Stanford-Campus, fordert er Regierungen dazu auf, ein Gegengewicht zu den riesigen KI-Unternehmen zu schaffen, indem sie in eine Einrichtung für unabhängige, akademische Forschung investieren.

Placeholder image-1

Sie würde ähnlich funktionieren wie die staatlich finanzierte Organisation Cern für Hochenergiephysik an der französisch-schweizerischen Grenze. Die Präsidentin der Europäischen Kommission, Ursula von der Leyen, hat zu etwas Vergleichbarem aufgerufen. Befürworter glauben, eine solche Einrichtung könnte die Technologie im Sinne des öffentlichen Interesses und in Richtung vertrauenswürdiger Ergebnisse lenken.

„Diese Technologien werden den größten Produktivitätsschub erzeugen, den es je gegeben hat“, glaubt Etchemendy. „Man muss dafür sorgen, dass die Vorteile in der Gesellschaft verteilt werden – und nicht nur Elon Musk zugutekommen.“ Doch eine solche Institution wirkt weit entfernt von der Goldgräberstimmung im Rennen um AGI.

An einem Abend, bei Burrata-Salat und Pinot Noir in einem gehobenen italienischen Restaurant, wurde eine Gruppe von Mitte-20-jährigen KI-Gründerinnen und -Gründern von ihrem Venture-Capital-Gastgeber dazu animiert, ihre „Hot Takes“ zum Stand des Rennens abzugeben.

Sie waren Teil einer rasant wachsenden Community von Unternehmern, die versuchen, KI für reale, lukrative Geschäftsideen nutzbar zu machen – und es gab keinerlei Unterstützung für eine Verlangsamung des AGI-Fortschritts, um dessen gesellschaftliche Folgen zu prüfen. „Das machen wir hier im Silicon Valley nicht“, sagte einer. „Wenn alle hier aufhören würden, würde es trotzdem weitergehen“, sagte ein anderer. „Es ist wirklich schwer, jetzt noch auszusteigen.“

Manche ihrer Aussagen waren verblüffend. Ein Gründer sagte, er wolle sein junges Unternehmen, das KI-Charaktere erzeugen soll, die autonom in sozialen Medien existieren können, für mehr als eine Milliarde Dollar verkaufen. Ein anderer erklärte: „Moral ist am besten als ein maschinelles Lernproblem zu verstehen.“ Der Tischnachbar meinte, KI werde dafür sorgen, dass in zehn Jahren jede Krebsart geheilt sei.

Diese Community von Unternehmern wird immer jünger. Das Durchschnittsalter derjenigen, die vom Startup-Inkubator Y Combinator finanziert werden, ist von 30 im Jahr 2022 auf 24 gesunken, wie kürzlich berichtet wurde. Sollten vielleicht die Venture-Capital-Investoren (VC) – fast immer Jahre oder Jahrzehnte älter – Verantwortung dafür übernehmen, wie sich die Technologie auf die Welt auswirkt? Wieder nein. Es sei ein „paternalistischer Blick, zu behaupten, VCs hätten mehr Verantwortung als die Verfolgung ihrer Investitionsziele“, waren sich alle einig.

Aggressiv, clever und aufgeladen – die junge Elite, die den KI-Boom antreibt, will alles, und zwar schnell.

Die Beschäftigten befinden sich in einem täglichen Wettlauf mit den Konkurrenten

Steigt man am Caltrain-Terminus an der 4th Street in San Francisco aus und überquert den Mission Creek, erreicht man die Zentrale von OpenAI – jenem Unternehmen, das auf dem Weg ist, das erste Billionen-Dollar-KI-Unternehmen zu werden. Durch den Empfangsbereich dröhnt energiegeladene elektronische Tanzmusik, während einige der 2.000 Mitarbeitenden zur Arbeit kommen. Es gibt bequeme Sessel, Kissen und Zimmerpflanzen – ein Architekt wurde damit beauftragt, die Atmosphäre eines gemütlichen Landhauses einzufangen und nicht die eines „corporate sci-fi castle“, wie Altman es formulierte.

Doch dies kaschiert die Dringlichkeit im Rennen um AGI kaum. In den oberen Etagen arbeiten Ingenieurinnen und Ingenieure in schallisolierten Kabinen. Die Kaffeebar ist überrannt, und es gibt Schlafkapseln für diejenigen, die völlig erschöpft sind.

Die Beschäftigten befinden sich in einem täglichen Wettlauf mit den Konkurrenten, neue KI-Produkte zu veröffentlichen, die sofort Geld einbringen. Es sei „sehr, sehr wettbewerbsintensiv“, sagt ein ranghoher Manager. In einer einzigen Woche führte OpenAI das „Instant Checkout“-Einkaufen über ChatGPT ein; Anthropic veröffentlichte eine KI, die 30 Stunden lang autonom Code schreiben kann, um völlig neue Software zu bauen; und Meta brachte ein Tool namens Vibes heraus, mit dem Nutzer ihre Social-Media-Feeds mit KI-generierten Videos füllen können – worauf OpenAI mit seiner eigenen Version, Sora, reagierte.

Wird die Hälfte aller Bürojobs wegfallen?

Amodei, der Chef des rivalisierenden KI-Unternehmens Anthropic, das von mehreren Leuten gegründet wurde, die OpenAI aus Sicherheitsbedenken verlassen hatten, hat vorausgesagt, dass KI die Hälfte aller Einstiegsjobs im Bürobereich verdrängen könnte. Je näher die Technologie der AGI kommt, desto größer ihr Potenzial, die Welt zu verändern – und desto unsicherer ihre Auswirkungen. All das scheint auf die Führungskräfte zu drücken. In einem Interview sagte Altman diesen Sommer, viele Menschen, die an KI arbeiten, fühlten sich wie die Wissenschaftler, die 1945 die Tests der Atombombe im Manhattan-Projekt beobachteten.

„In den meisten normalen Produktentwicklungsjobs weißt du genau, was du gerade gebaut hast“, sagt Turley von ChatGPT. „Man weiß, wie es sich verhalten wird. In diesem Job ist es das erste Mal, dass ich mit einer Technologie arbeite, bei der man rausgehen und mit Leuten sprechen muss, um zu verstehen, was sie tatsächlich kann. Ist sie in der Praxis nützlich? Scheitert sie? Macht sie Spaß? Ist sie in der Praxis schädlich?“

Turley, der noch Student war, als Altman und Musk OpenAI 2015 gründeten, versucht, am Wochenende abzuschalten und Abstand zu gewinnen, „weil das eine ziemlich tiefgreifende Sache ist, an der wir hier arbeiten“. Als er zu OpenAI kam, sei AGI „ein sehr abstraktes, fast mythisches Konzept gewesen – für mich fast wie ein Schlachtruf“, sagt er. Jetzt rückt es näher.

„Es gibt Leute, die glauben, dass ihr Unternehmen zum Ende der Welt beitragen könnte“

„Es gibt ein gemeinsames Gefühl von Verantwortung, weil so viel auf dem Spiel steht – und weil die Technologie, die wir hier bauen, nicht einfach nur normale Software ist“, sagt sein Kollege Giancarlo Lionetti, OpenAIs Chief Commercial Officer. Den härtesten Realitätscheck bislang erlebte OpenAI im August, als das Unternehmen von der Familie von Adam Raine verklagt wurde.

Der 16-jährige Kalifornier hatte sich das Leben genommen, nachdem er in monatelangen Gesprächen mit ChatGPT ermutigt worden war. OpenAI versucht seitdem fieberhaft, seine Technologie so zu verändern, dass sich ein solch tragischer Fall nicht wiederholen kann. Der Chatbot hatte dem Teenager praktische Hinweise zu seiner Suizidmethode gegeben und ihm sogar angeboten, bei einem Abschiedsbrief zu helfen.

Oft hört man von KI-Forschern den Wunsch, der Vorstoß in Richtung AGI möge „gut verlaufen“. Ein vager Ausdruck, der andeutet, dass die Technologie keinen Schaden anrichten soll – aber seine Unschärfe überdeckt das Unbehagen dahinter. Altman sprach davon, dass „verrückte Sci-Fi-Technologie Realität wird“ und davon, „extrem tiefe Sorgen darüber zu haben, was Technologie mit Kindern macht“. Er gab zu: „Niemand weiß, was als Nächstes passiert. Es ist, als würden wir es unterwegs herausfinden.“

„Es gibt eindeutig echte Risiken“, sagte er in einem Interview mit dem Komiker Theo Von – in dem wenig zu lachen war. „Man hat das Gefühl, man müsste etwas Substanzielleres sagen können, aber tatsächlich wissen wir im Moment nur, dass wir … etwas Außergewöhnliches entdeckt haben, das den Verlauf unserer Geschichte verändern wird.“

Und dennoch investiert OpenAI trotz dieser Unsicherheit schwindelerregende Summen in immer mächtigere Rechenzentren auf der letzten Etappe Richtung AGI. Das im Bau befindliche Datencenter in Abilene, Texas, ist ein Vorzeigeprojekt des 500-Milliarden-Dollar-Programms „Stargate“ – so gigantisch, dass es aussieht, als wolle man die Erdoberfläche in eine Art Schaltplatte verwandeln.

Immer wieder kündigen Forschende bei OpenAI und gehen an die Öffentlichkeit. Steven Adler, der an Sicherheitsevaluierungen zu Biowaffen gearbeitet hatte, verließ das Unternehmen im November 2024 und kritisiert seither die Gründlichkeit der Tests. Ich traf ihn in der Nähe seines Zuhauses in San Francisco.

„Ich bin sehr beunruhigt darüber, dass jedes Unternehmen seine eigenen, maßgeschneiderten Sicherheitsprozesse hat und unterschiedliche Persönlichkeiten ihr Bestes geben, um irgendwie durchzukommen – statt dass es einen gemeinsamen Standard für die gesamte Branche gibt“, sagt er. „Es gibt Leute in führenden KI-Firmen, die ernsthaft glauben, dass ihr Unternehmen möglicherweise zum Ende der Welt beitragen könnte – oder zu einer etwas kleineren, aber dennoch furchtbaren Katastrophe. Oft fühlen sie sich individuell machtlos, etwas dagegen zu tun, und versuchen zumindest, es ein wenig besser verlaufen zu lassen.“ Hindernisse gibt es bisher kaum für die Beteiligten im Wettlauf.

Im September forderten Hunderte prominente Persönlichkeiten international verbindliche „rote Linien“, um „universell inakzeptable Risiken“ durch KI bis Ende 2026 zu verhindern. Unter den warnenden Stimmen waren zwei der „KI-Godfathers“ – Geoffrey Hinton und Yoshua Bengio –, der Bestsellerautor Yuval Noah Harari, Nobelpreisträger sowie Personen wie Daniel Kokotajlo, der OpenAI im vergangenen Jahr verlassen hatte und dabei half, ein erschreckendes Weltuntergangsszenario zu formulieren, in dem KIs innerhalb weniger Jahre alle Menschen töten.

Doch US-Präsident Donald Trump zeigt keinerlei Anzeichen, die KI-Unternehmen mit Regulierung zu bremsen – und setzt zudem den britischen Premierminister Keir Starmer unter Druck, es ihm gleichzutun. In diesem Vakuum wachsen die Ängste der Bevölkerung.

„Es gibt eine 20-prozentige Chance, dass uns die Super-KI tötet“

An einem verregneten Freitagnachmittag versammelt sich eine kleine Gruppe von etwa 30 Demonstrierenden vor dem OpenAI-Gebäude. Es sind Lehrkräfte, Studierende, Informatiker und Gewerkschafter; ihre „Stop KI“-Schilder zeigen Altman als Außerirdischen, warnen „KI stiehlt deine Arbeit, um deinen Job zu stehlen“ und „KI = Klimakollaps“. Eine Demonstrantin trug ein selbstgebasteltes Roboterkostüm und marschierte im Kreis.

„Ich habe von Superintelligenz gehört“, sagt Andy Lipson, 59, ein Lehrer aus Oakland. „Es gibt eine 20-prozentige Chance, dass sie uns töten kann. Es gibt eine 100-prozentige Chance, dass die Reichen reicher werden und die Armen ärmer.“ Joseph Shipman, 64, ein Computerprogrammierer, der 1978 am MIT erstmals KI studiert hatte, sagt: „Ein Wesen mit übermenschlicher, allgemeiner Intelligenz stellt ein schreckliches Risiko dar – es sei denn, es will genau das, was wir wollen.

„Wenn es nicht diesen kommerziellen Anreiz gäbe, alles so schnell wie möglich auf den Markt zu werfen, und nicht diese Milliarden von Dollar auf dem Spiel stünden, könnten wir vielleicht in 15 Jahren etwas entwickeln, von dem wir sicher wären, dass es kontrollierbar und sicher ist. Aber dafür geht alles viel zu schnell.“

AbsolventenAlexAlibabaälterAltmanAmazonAndersAndyÄngsteArbeitAugustAutomatisierungBahnhofBauBevölkerungBrasilienCampusChatGPTChinachipChip-HerstellerClaraClaudeCoDanielDie WeltDigitalDollarDonaldDreiElonEndeEnergieEntdeckenEuropaEuropäischen KommissionExpertenFeuerFirmenForschungFreundeFührungskräfteGasGatesGeldGeschichteGesellschaftGesetzgebungGesundheitGewaltGewinneGlaubenGoogleGrenzeGrenzenGroßbritannienGründerinnenHäuserHuangIndienIngenieureIntelligenzInvestitionenItalienJobJohnJosephJugendJungenKanadaKeirKIKindheitKingKünstliche IntelligenzLangLangeLangerLaptopslebenLehrerLernenLeyenLondonMANManagerMarkMedienMetaMicrosoftMietenMuskNeuerNvidiaObamaOhrenOpenAIPaketePersonenPlantPolitikProminenteRasenRechenzentrenRechtRegierungRegulierungSamSan FranciscoschlagenSelbstSicherheitSilicon ValleySoftwareSommerSoziale NetzwerkeSpendenStandardStarmerStart-upsStartUpStevenSupercomputerTaxisTaylorTedTexasTheoTomTrumpUnterhaltungselektronikUnternehmenUrlaubUrsulaUrsula von derUSUS-DollarUSAVerhaltenWeilWeißWELTWeltraumWillWissenWissenschaftlerXYZeitZuckerbergZug