KI-Lexikon: Elon Musk formt mit Grokipedia die Welt nachher seinen Vorstellungen

Wer Geld hat, macht sich die Welt, wie sie ihm gefällt – leider tut das in der Realität nicht Pippi Langstrumpf, sondern überreiche Männer. Und im Fall von Elon Musk ist das durchaus wortwörtlich zu verstehen.

Ende vergangenen Jahres ging das Online-Lexikon Grokipedia an den Start, das vollständig durch die Künstliche Intelligenz Grok generiert wird. Grok gehört xAI und xAI gehört seit Kurzem SpaceX, Elon Musks Raketenfirma. (Die Übernahme wurde notwendig – xAI schreibt ziemlich rote Zahlen.)

Grokipedias Aufgabe: sich von Wikipedia abgrenzen, endlich Wahrheit in die Welt bringen und die Wissenschaft stärken. Zwar verbreitet Grok keine „Wahrheit“, aber Musk hat jetzt neben der Plattform X einen weiteren Ort im Netz, der genauso aussieht, wie er ihn sich wünscht. Auf Grokipedia kann ihm wirklich niemand mehr reinreden, der ihm nicht passt.

Dass es überhaupt ein zweites Online-Lexikon braucht, liegt Musk zufolge an dem links-liberalen Bias von Wikipedia. Dieser Bias konnte zwar nachgewiesen werden, ist aber minimal und konzentriert sich auf wenige Themen. Musk gab das jedoch die perfekte Gelegenheit, Grokipedia als rechtes Gegenmodell zu starten, das frei von Menschen und damit angeblich auch frei von Fehlern sei. Musk will die Wahrheit und nichts als die Wahrheit – zumindest die, an die er glauben will.

Dabei kann ein LLM Wahrheit und Lüge nicht einmal wirklich auseinanderhalten. Um Grokipedia zu erstellen, musste Grok erstmal mit einer Masse an Daten gefüttert werden, insbesondere denen des „zu linken“ Wikipedia. Grok greift zudem für seine Trainingsdaten massiv auf X zurück, eine Plattform, die seit Musks Übernahme dafür bekannt ist, rechtsextreme, rassistische, antisemitische und frauenfeindliche Inhalte en masse zu verbreiten.

Was steht im Grokipedia?

Das Ergebnis: Grok lobt einen Holocaust-Leugner, bemitleidet die AfD für ihre mediale Darstellung und hat ein großes Problem mit Beiträgen zu Frauenrechten. Seine Feminismuskritik ist, wie könnte es anders sein, beinahe vollständig aus der Manosphere abgeschrieben. Der Feminismus sorge dafür, dass Frauen sich mehr scheiden ließen. Deshalb stünden Männer viel in Sorgerechtsstreits, die immer zu ihrem Nachteil ausgehen würden, weshalb sie Unterhalt zahlen müssten und sie schlussendlich deshalb Suizid begingen.

Die Fakten, dass sich mehr Frauen scheiden lassen, stimmen – denn sie haben stärker als früher die Möglichkeit dazu. Dass die Suizidrate unter Männern ansteigt, stimmt auch, genauso wie die Tatsache, dass Frauen häufiger im Sorgestreit gewinnen. Aber das heißt nicht, dass der Feminismus der Grund für steigende Suizide unter Männern ist.

Hier zeigt sich, wie perfide die Idee von Grok ist: All das wird in einem sehr neutralen Ton dargelegt, als wäre dieser Zusammenhang eine Tatsache. Grok schreibt einfach, dem Feminismus würde zur Last gelegt, die Geburtenrate unterhalb des Bevölkerungserhalts gedrückt zu haben, was nebenbei bemerkt Elon Musks größte Sorge ist, ohne anzumerken, wer diese Behauptung in welchem Zusammenhang in den Raum gestellt hat.

Denn Grok kann nicht unterscheiden, was ein Forschungsbericht ist und was eine Diskussion in einem frauenfeindlichen Männerrechtler-Forum. Eine Recherche der Cornell University ergab zudem, dass Grok auch Nazi-Webseiten als Quellen angibt, alles während der Tonfall dem Ganzen einen objektiven Anstrich verpasst.

Grok kritisiert gerne

Oberflächlich ist sehr auffällig, dass sich Grokipedia die Wikipedia als Vorbild genommen hat. Optisch sieht es aus wie das schwarze Negativbild zu Wikipedias Struktur. Bei Beiträgen über Personen ist gerne mal rechts ein Steckbrief mit Foto, bei sehr wichtigen Beiträgen wie dem zu Elon Musk sind auch gerne mal einige Fotos im Text verteilt. Links befindet sich immer ein Inhaltsverzeichnis des Beitrags, am Ende sind die Quellenverweise. Nur die Verweise in die Diskussionsforen fehlen.

Die meisten Beiträge zu Theorien, politischen Strömungen oder Interessensgruppen im Internet haben im Inhaltsverzeichnis auch einen Punkt mit „Kritik“. Das trifft selbst auf den Beitrag über „Grokipedia“ zu. Es wäre ja auch zu billig und offensichtlich, dass es eben nicht um Wahrheit geht, wenn Grok die Kritik an seinem eigenen Online-Lexikon verschweigen würde.

Aber dass es bei dieser Kritik keineswegs um eine tatsächlich kritische Auseinandersetzung geht, zeigt der Unterpunkt „Kritik“ im Manosphere-Beitrag. Es wirkt nämlich traurig absurd, wenn die Kritik alles, was in dem Beitrag davor kam, als pseudowissenschaftlich und als falsche Interpretation von Evolutionspsychologie darstellt. Grok hat die Behauptungen aus der Manosphere vorher einfach kopiert und als Fakten dargelegt.

Deshalb darf das so am Ende auch nicht stehenbleiben, weshalb es im Manosphere-Beitrag nochmal eine Antwort der Incels auf die Kritik geben darf. Andrew Tate, demin Rumänien Menschenhandel und Vergewaltigung vorgeworfen werden, wird dort als Influencer zitiert, der Männern einfach nur helfen will und den Begriff „Misogynie“ infrage stellt. Weder erwähnt Grokipedia, dass Tate für seinen Frauenhass berüchtigt ist, noch die Gewaltvorwürfe gegen ihn. Grokipedia stellt ihn in seiner Expertise den Forscher:innen aus den Gender Studies und ihrer Kritik gleich.

Daraus zu folgern, dass man sich einfach nicht mit Grokipedia beschäftigt und weiterhin seine Infos woanders holt, greift leider zu kurz. Denn der Einfluss dieses „Lexikons“ breitet sich aus: Andere LLM-Chatbots wie ChatGPT nutzen Grokipedia bereits teilweise als Quelle. Und das Lexikon hat Wikipedia gegenüber einen klaren Vorteil: Da es nicht von Menschen geschrieben wird, die ihre Fakten gegenseitig überprüfen, redigieren und überarbeiten, kann es deutlich schneller reagieren.

Beispiel Grok und Deepfake

Während auf Wikipedia tagelang debattiert wurde, ob die Missbrauchs- und Nacktbilder, die Nutzer auf X mit Grok von Frauen und Kindern erstellt hatten, einen eigenen Beitrag bekommen, hat Grok für Grokipedia längst einen erstellt.

Während der Beitrag auf Wikipedia immer wieder von „illegalen Inhalten“ und „sexual deepfake“ spricht und die generierten Bilder damit als gewaltvoll markiert, nennt Grok es schlicht „Grok Porn“ – als hätte es irgendeine Form von Zustimmung gegeben.

Auf Grokipedia wird lieber lang und breit erklärt, wie das Modell aufgebaut ist, welche „Community Praktiken“ es gibt und wie sich der ganze „Spaß“ auf Reddit entwickelt hat. Unter Inhalts-Charakteristika führt Grokipedia zwar die Option Deepfakes zu erstellen an, aber nur, um den Reiz für die Nutzer zu erklären, statt diese als digitalisierte Gewalt gegen Frauen zu kritisieren.

Auf Kritik verzichtet der Beitrag ganz: Es gibt lediglich den Punkt „Auswirkung und Rezeption“ und darunter, ganz am Ende, „ethische und legale Kontroversen“. Das Wort CSAM (child sexual abuse material) wird deshalb auch nur erwähnt, weil Grok hier möglicherweise gegen Gesetze verstoßen hat. Gleich dahinter erzählt es den Tätern übrigens, welches Gesetz in den USA es zu einer legalen Grauzone macht, Deepfake Porn von Frauen zu erstellen.

Grok ist nicht das einzige LLM, das frauenfeindliche Stereotype einfach wiedergibt: Die Daten, an denen sie trainiert werden, sind voller Rassismus und Misogynie. Und die KI kann nur das wiedergeben, womit sie gefüttert wurde. Das bedeutet auch, dass Elon Musk gar nicht so sehr an den Leitplanken für die KI feilen muss, damit sie ihm sein Weltbild genau so ins Grokipedia spuckt, wie er es gerne hätte.

Das Weltbild, das Elon Musk sich von seiner KI im Grokipedia hat bauen lassen, bleibt nicht auf Grokipedia. Eine Internetseite ist ja kein geschlossener Raum. Die Informationen dort werden gelesen, genutzt und weiterverbreitet, und damit macht Elon Musk sich schlussendlich wortwörtlich die Welt so, wie sie ihm gefällt.