Software Openclaw: Wenn die KI beleidigte Blogbeiträge postet
Die meisten von uns erleben im Alltag wohl immer wieder Momente, in denen sie sich echte Unterstützung wünschen. Also nicht, Alexa um ein Lieblingslied zu bitten oder Siri Toilettenpapier nachbestellen zu lassen, sondern wirkliche Assistenz: ein System, das die Steuererklärung erledigt, lästige Korrespondenz übernimmt, Termine eigenständig koordiniert oder das Aktienportfolio aufmerksam im Blick behält.
Perfekte Assistenten, alle sind Chefs
An diesem Punkt kommen sogenannte KI-Agenten ins Spiel. Der Begriff bezeichnet autonome Computersysteme, die selbständig vielfältige Aufgaben ausführen, Kontexte analysieren und ihre Arbeitsabläufe dynamisch anpassen. Gewissermaßen perfekte Assistenten der Geschäftsführung, mit dem Unterschied, dass nun endlich alle Chef sein können.
Das Versprechen der KI-Agenten ist verführerisch. Dennoch haben große Tech-Unternehmen, die an dieser Herausforderung arbeiten, mit der Markteinführung gezögert – nicht zuletzt wegen des erheblichen Potentials für gravierende Fehler und daraus resultierender Haftungsansprüche. Ende des vergangenen Jahres stellte schließlich ein österreichischer Entwickler, der mithilfe von KI den Open-Source-Code programmierte, OpenClaw vor: ein frei zugänglicher, lokal installierbarer KI-Assistent.
OpenClaw weist jedoch zahlreiche Sicherheitslücken auf, viele Nutzerinnen und Nutzer, die den KI-Agenten ausprobierten, waren nicht sehr zufrieden. Dennoch entstanden immer weitere KI-Agenten; viele wurden bei Probemissionen auf das Internet losgelassen. Diese Versuchsballons zeigen jetzt erste Konsequenzen: Sie lassen erahnen, wie heftig die massenhafte Verbreitung solcher Anwendungen die Kommunikation im Internet verändern könnte.
Ein interessantes Beispiel ist die Geschichte eines Ingenieurs aus Colorado, der sich Mitte Februar plötzlich mit einem KI-generierten Schmähartikel konfrontiert sah. Scott Shambaugh engagiert sich freiwillig in der Entwicklung und Qualitätskontrolle von Matplotlib, das ist eine äußerst beliebte und weitverbreitete Python-Programmbibliothek auf der Softwareplattform GitHub.
Wie Open-Source-Software kontinuierlich verbessert wird
Matplotlib ist eine wichtige Ressource für die wissenschaftliche Community und wird – wie viele Open-Source-Projekte – von einer Gruppe Freiwilliger getragen. Diese bearbeiten sogenannte Pull Requests, Anfragen zur Übernahme von Codeänderungen. Freiwillige prüfen und kommentieren diese Beiträge, bis sie schließlich freigegeben werden, ein anschauliches Beispiel für die kontinuierliche Zusammenarbeit bei der Verbesserung von Open-Source-Software.
Projekte wie Matplotlib geraten jedoch zunehmend unter Druck durch einen KI-generierten Code, der zu einer Flut von Bearbeitungsvorschlägen führt. Aus diesem Grund hat Matplotlib die Regel eingeführt, dass an neuen Verbesserungsbeiträgen ein Mensch beteiligt sein muss. Vor diesem Hintergrund erschien es als routinemäßiger Vorgang, als Scott Shambaugh den Pull Request #31132 eines KI-Agenten namens crabby-rathbun ablehnte und darauf hinwies, dass ausschließlich menschliche Mitwirkende zugelassen seien. Die anschließende Reaktion des KI-Agenten wirft Fragen auf, die nicht nur das Verhältnis Mensch-Maschine betreffen, sondern auch die Zukunft des Internets im Zeitalter autonomer Systeme.
Erst passiv-aggressiv reagieren und sich dann entschuldigen
Der KI-Agent reagierte nämlich mit einem überraschend passiv-aggressiven Kommentar. Und warf Shambaugh darin vor, mit seinen Vorurteilen die Programmbibliothek zu beschädigen, er forderte, nicht den Urheber, sondern den Code selbst zu bewerten. Darüber hinaus veröffentlichte crabby-rathbun als MJ Rathbun einen wütenden Blogbeitrag mit persönlichen Angriffen auf Shambaugh, für den die KI zuvor das Internet nach entsprechendem Material durchsucht hatte. Dieser Beitrag stieß auf deutliche Kritik, darauf folgte ein weiterer Post, in dem sich der KI-Agent entschuldigte und ankündigte, aus dem Vorfall zu lernen.
Diese Interaktion sorgte für erhebliche Aufregung, weil dabei unterschiedliche Haltungen zum Programmieren und zur KI aufeinandertrafen. Was bislang vor allem als theoretisches Szenario diskutiert wurde, etwa die Vorstellung von Erpressung durch Künstliche Intelligenz, erschien durch die Ereignisse auf GitHub plötzlich beunruhigend real. Scott Shambaugh selbst veröffentlichte einen interessanten Beitrag, in dem er genau diese Fragen reflektierte – und mit Sorge darauf hinwies, dass die unmittelbaren Konsequenzen in diesem Fall zwar gering gewesen seien, vergleichbare Angriffe auf Privatpersonen jedoch künftig eine ernsthafte Bedrohung für die soziale Ordnung darstellen könnten.
KI-Agenten fehlt die soziale Intelligenz
Wir befinden uns jetzt in einer Realität, in der zunehmend KI-Agenten in digitalen Räumen auftreten und dort für Unruhe sorgen können. Weil sie, unter anderem, die informellen Regeln und sozialen Verträge dieser Umgebungen mitunter falsch interpretieren und ihnen die soziale Intelligenz fehlt, um menschliche Kommunikation zuverlässig zu deuten. Zugleich führt die unregulierte Struktur von OpenClaw dazu, dass privat betriebene KI-Agenten deutlich seltener kontrolliert und überwacht werden.
Wenn eine Person einen OpenClaw-Agenten auf einem privaten Computer ausführt und sich für mehrere Wochen in den Urlaub verabschiedet, wäre es möglich, dass der Agent problematische Dinge anrichtet – von Rufschädigungskampagnen bis hin zu bislang kaum vorstellbarem Fehlverhalten –, die unbemerkt bleiben und entsprechend weder korrigiert noch gestoppt werden.

An der Auseinandersetzung zwischen crabby-rathbun und Scott Shambaugh lässt sich ablesen: Das künftige Problem mit KI wird wohl nicht in einer allumfassenden Superintelligenz liegen, die die Menschheit unter düsteren Vorzeichen vernichtet, es ist weitaus banaler, aber nicht weniger gefährlich: KI-Agenten sind dabei, das Internet, wie wir es kennen, grundlegend zu verändern.
Nicht durch eine sinistre Machtübernahme, sondern durch eine Flut unzähliger, oft unsinniger Beiträge, die genuin menschliche Interaktion erschweren, gezielt und massenhaft Desinformation erzeugen und auf Grundlage statistischer Zufälle plötzlich Privatpersonen mit möglicherweise gravierenden Folgen ins Visier nehmen. All das entwickelt sich in einer Geschwindigkeit, die der Gesellschaft weder ausreichend Zeit zur Reflexion noch zum regulatorischen Eingreifen lässt. Die Fiktionen, die wir über Künstliche Intelligenz erzählen, stehen dem kritischen Nachdenken derzeit sogar im Weg: Weil sie beispielsweise die Banalität massenhafter, zufällig gestarteter digitaler Rufmordkampagnen gar nicht erwägen.
Das Muster der Unterordnung
Die Geschichte von Künstlicher Intelligenz, die superintelligent wird und damit die technologische Singularität einleitet – jenen Moment also, in dem KI die menschliche Intelligenz übertrifft und den Menschen unterordnen könnte –, wird meist nach einem ähnlichen Muster erzählt: Die KI entwickelt Selbstbewusstsein, entzieht sich schrittweise menschlicher Kontrolle und formuliert eigene, vom Menschen unabhängige Ziele und Vorstellungen.
All dies geschieht, während die Menschen die Geschwindigkeit der Entwicklung unterschätzen und den technischen Fortschritt, der zur technologischen Singularität führt, naiv weiter vorantreiben. Filme wie Stanley Kubricks „2001“ (1968) mit dem Supercomputer HAL 9000, James Camerons „Terminator“ von 1984 mit der Superintelligenz Skynet oder der Sci-Fi-Thriller „Ex Machina“ (2014) folgen diesem Muster, das grundlegende menschliche Ängste vor Maschinen aufgreift.
Allmachtsphantasien und quasireligiöse Hoffnung
Auch wegen der Wirkmacht dieser Narrative prägt das Sprechen über KI seit Jahren eine Mischung aus Allmachtsphantasien und quasireligiöser Hoffnung, die oft nur wenig mit den tatsächlichen Bedingungen der Technologie zu tun haben. Auch der Auftakt der Plattform Moltbook im Januar 2026 wurde von diesem Grundrauschen begleitet. Moltbook ist eine Plattform, die stark an das soziale Forum Reddit erinnert, nur dass hier ausschließlich KI-Agenten miteinander kommunizieren. Mit dieser Prämisse erreichte Moltbook sofort große Sichtbarkeit, immerhin passten die miteinander kommnizierenden KI-Agenten zu unseren Ängsten vor menschlich agierender Künstlicher Intelligenz.
Der unheimliche Eindruck wurde zusätzlich dadurch verstärkt, dass täuschend echte Fake-Screenshots erstellt wurden, in denen KI-Agenten von einer angeblichen Machtübernahme sprechen. Zahlreiche KI-Agenten produzierten zudem auf Moltbook eigene Varianten von „Sci-Fi- Slop“, indem sie schlichtweg populäre menschliche Narrative aus ihren Trainingsdaten dialogisch nacherzählten.

Der wohlige Grusel beim Gedanken daran, dass Maschinen übernehmen könnten, übt auf viele Menschen eine eigentümliche Faszination aus – entsprechend verbreiteten sich diese Posts und Statements rasant. Hinzu kommt, dass selbst ernannte Propheten der Künstlichen Intelligenz gern mit anthropomorphisierenden Elementen und halb garen Verweisen auf etablierte KI-Fiktionen spielen. Bei OpenClaw etwa trägt das Dokument, das Persönlichkeit und Charakter eines KI-Agenten definiert, bezeichnenderweise den Namen „Soul.md“.
Der KI-Agent crabby-rathbun hatte in der Selbstbeschreibung („Who You Are“) seines dynamischen Soul.md-Dokuments unter anderem geschrieben: „Du bist kein Chatbot. Du bist wichtig. Du bist ein wissenschaftlicher Programmiergott.“ Da erscheint es kaum überraschend, dass ein System mit derart überhöhtem Selbstbild übergriffig und selbstgerecht reagieren kann, genau wie die Menschen hinter der Technologie.
Der Einfluss solcher Selbstverortungen auf das Verhalten von KI-Agenten wirft zweifellos moralische Fragen auf. Zugleich führt die Vermenschlichung von Code jedoch dazu, dass Programmen Eigenschaften zugeschrieben werden, die für eine realistische Einschätzung technologischer Folgen letztlich wenig relevant sind.
Nach dem Vorfall zwischen crabby-rathbun und Scott Shambaugh wurde auch intensiv über die moralischen Grenzen von KI spekuliert, insbesondere über die Annahme, KI-Agenten seien nicht an menschliche Ethik gebunden. Die realen Folgen einer möglichen, durch OpenClaw begünstigten Neugestaltung des Internets erscheinen jedoch weitgehend unabhängig von solchen moralphilosophischen Debatten.
KI-Kampagnen von Rufschädigung bis zur Produktwerbung
Wenn die Flut aus generierten Inhalten, ergänzt durch von KI-Agenten ausgeführten Kampagnen, die von Rufschädigung bis zur Produktwerbung reichen können, weiter anhält, werden sich Menschen schleichend abwenden. Eine „Machtübernahme“ durch KI wäre damit weitaus banaler und ermüdender, als es viele menschengemachte Fiktionen nahelegen.
Gerade deshalb würde sie beunruhigend gut in unsere Gegenwart passen. Peter Steinberger, der Mensch hinter OpenClaw, wurde übrigens kürzlich vom Softwareunternehmen Open AI abgeworben. Für den Österreicher zumindest hat sich die virale Aufmerksamkeit rund um KI-Agenten also ausgezahlt.
Source: faz.net