EX-Mitarbeiterin von Open AI: „Chatbots sind so irgendwas wie ein Beichtstuhl“

Frau Hitzig, Sie haben nicht nur gerade bei Open AI gekündigt, sondern dies auch öffentlich gemacht und mit der Entscheidung des Unternehmens begründet, Werbung auf ChatGPT zu zeigen. Warum?

Nachdem ich mich entschlossen hatte zu kündigen, habe ich mir überlegt, was für mich die eine Sache ist, die ich gerne von den Dächern schreien würde. Einfach um möglichst viel aus diesem Moment zu machen und die öffentliche Diskussion ein bisschen voranzutreiben.

Wenn Sie von der einen Sache sprechen: Gab es andere Dinge, die Sie gestört haben?

Es gab definitiv mehr Dinge, die mir Sorgen gemacht haben. Aber mir war der Werbeaspekt besonders wichtig. Meine ganze Motivation dafür, zu Open AI zu gehen, war die Hoffnung, dass wir die Fehler der vorherigen Internet-Ära korrigieren, die soziale Medien begangen haben. Vielleicht war ich da ein bisschen idealistisch. Aber ich dachte mir, es könnte diesmal anders sein, zumal Open AI teilweise von einer nicht gewinnorientierten Gesellschaft gesteuert wird. Ich hatte gehofft, dass das ein Unternehmen ist, das über mögliche negative Effekte seines Handelns nachdenkt. Die Entscheidung, Werbung zu zeigen, zeugt für mich von einem Mangel an Kreativität.

Hatten Sie am Anfang ein gutes Gefühl, als Sie zu Open AI kamen?

Ich hatte zu Beginn viele Leute um mich herum, die mir ein gutes Gefühl gegeben haben.

Bis hinauf an die Unternehmensspitze?

In gewissem Maße. Organisationen sind ja oft voll mit Menschen, die gute Absichten haben. Aber das Anreizsystem bringt sie dann im Laufe der Zeit dazu, Dinge zu tun, die unter dem Strich nicht gut für die Gesellschaft sind. Ich will nicht mit dem Finger auf bestimmte Leute zeigen. Aber es wurden in meiner Zeit zum Beispiel einige Leute von Meta angeheuert, die einem gewissen Schema folgen.

Sie meinen einem Schema, das finanzielle Kennziffern in den Vordergrund stellt?

Sie sprechen von einem Anreizsystem, das Menschen von ihren guten Absichten entfernt. Aber Sie sind ja offenbar nicht der Meinung, dass dies ein zwangsläufiger Prozess ist.

Richtig. Und natürlich werden da an bestimmten Stellen bewusste Entscheidungen getroffen. Es ist ja auch weithin bekannt, dass es vor einiger Zeit intern größere Unstimmigkeiten gab. Open AI hat sich gewandelt, von einem Unternehmen, das Sorgen über Effekte dieser Technologien in den Vordergrund gestellt hat, zum am schnellsten wachsenden Start-up der Geschichte.

Und das hat dann etwaige gute Absichten verschwinden lassen?

Ich denke, der überwältigende Erfolg von ChatGPT hat eine massive Versuchung geschaffen, der Leute an entscheidenden Stellen im Unternehmen erlegen sind. Außerdem gibt es ein gnadenloses Rennen um KI-Technologien, nicht nur innerhalb der USA, sondern mit Wettbewerbern aus dem Ausland, zum Beispiel China. Der Markt ist extrem umkämpft, und das setzt die Unternehmen unter Druck.

Warum finden Sie Werbung in Chatbots wie ChatGPT schlimmer als in sozialen Medien?

Aus zwei Gründen. Zum einen wegen der Daten, die KI-Systeme haben. Soziale Medien wissen zwar auch sehr viel über ihre Nutzer. Aber das leiten sie vor allem von ihren Handlungen ab, also was sie anschauen, was sie anklicken oder was sie kaufen. Bei Chatbots geht es um mehr. Sie sind so etwas wie ein Beichtstuhl. Nutzer vertrauen ihnen ihre privaten Gedanken und auch ihre tiefsten Ängste an.

Und der zweite Grund?

Die Einführung von Werbung schafft einen Anreiz für Unternehmen, die Zeit zu maximieren, die Nutzer mit den Chatbots verbringen. Und ich habe Angst, dass wir die sozialen und psychologischen Konsequenzen, die das haben kann, noch gar nicht verstehen. Und wenn ich diese beiden Sachen kombiniere – Maximierung von Zeit mit einer Technologie, die Zugriff auf private Gedanken hat –, dann finde ich das ziemlich furchteinflößend.

Was sind denn mögliche Konsequenzen der Nutzung von Chatbots, die Ihnen besonders große Sorgen machen?

Wir sehen jetzt schon frühe Signale dafür, dass Menschen abhängig von Chatbots werden können und sich dann von anderen sozialen Aktivitäten zurückziehen. Wir sehen, dass die Nutzung von KI-Systemen zu psychischen Störungen führen kann. Wir hören von einem neuen Phänomen, von Chatbot-Psychosen, die bei Menschen diagnostiziert werden. Und dann gab es ja auch einige Fälle, in denen KI-Technologien mit Suizid in Verbindung gebracht worden sind.

Sie sagten, Sie seien womöglich etwas idealistisch gewesen. Und einige Leute würden wohl argumentieren, es wäre naiv zu glauben, dass Chatbots irgendwann nicht genauso Werbung zeigen wie Instagram oder andere soziale Medien.

Aber ich finde eben, wir sollten versuchen, andere Lösungen zu finden. Die Leute, die an KI-Systemen arbeiten, sind wahnsinnig ehrgeizig. Sie reden darüber, wie sie Superintelligenz bauen und Krebs heilen können. Vielleicht war ich ein bisschen naiv, aber ich dachte mir, vielleicht lässt sich dieser Ehrgeiz auch darauf übertragen, ein Geschäftsmodell zu finden, das allen zugutekommt. Ich denke, viele Menschen sind wütend darüber, wie es mit sozialen Medien gelaufen ist und dass eine kleine Zahl von Unternehmen in der Position ist, uns zu manipulieren. Ich finde, wir haben die Chance, es mit KI-Systemen anders zu machen. Ich habe übrigens meine Hoffnung auch nicht ganz aufgegeben. Open AI und Anthropic sind ja als „Public Benefit Corporation“ organisiert, das heißt, obwohl sie gewinnorientiert sind, schreibt ihre Satzung auch eine Mission vor, die gesellschaftlichen Nutzen stiften soll. Es ist schon bemerkenswert, dass zwei der wichtigsten Unternehmen auf diesem Gebiet eine solche Struktur haben.

Sam Altman, der Vorstandschef von Open AI, hat noch vor nicht allzu langer Zeit gesagt, Werbung wäre für ihn der „letzte Ausweg“. Meinen Sie, das hat er damals wirklich geglaubt?

Es gibt viel Wunschdenken in der Indus­trie. Viele Leute meinen, KI-Technologien werden bald so gut sein, dass sich alle Probleme lösen. Wir heilen Krebs, wir eliminieren Armut, und die Unternehmen sind sagenhaft profitabel.

Also steckt dann hinter der Einführung von Werbung die nüchterne Erkenntnis, dass es damit vielleicht doch nicht so schnell geht?

Ich kann nicht für Sam sprechen, aber ich denke, es gab die weit verbreitete Auffassung, dass KI enormen Wert für die Welt freisetzt und wir daher so etwas Unappetitliches wie Werbung gar nicht brauchen. Bis zu einem gewissen Grad gibt es diesen Glauben wohl noch immer. Aber vielleicht mit der Einschränkung, dass der Weg etwas weiter ist und man in der Zwischenzeit Geld verdienen muss. Und diese Unternehmen investieren ja Summen, wie man das noch nie erlebt hat.

Der Wettbewerber Anthropic grenzt sich ja ausdrücklich von Open AI ab und verspricht, nie Anzeigen zu schalten.

Anthropic hat natürlich ein Stück weit leicht reden. Die haben nicht annähernd so viele Nutzer wie Open AI, das gilt erst recht für die kostenlose Version ihres Chatbots. Ich finde ihr Versprechen gut, und ich hoffe, sie bleiben dabei. Und vielleicht werden ihre kostenpflichtigen Abonnements und ihre Unternehmenskunden auf längere Sicht so viel Geld einbringen, dass sie damit kostenlosen Zugang für viele andere Nutzer subventionieren können. Aber ich denke, das können wir heute noch nicht wirklich beurteilen. Im Moment kommt mir ihr Versprechen etwas leer vor. Die konnten sich bisher zurücklehnen und sagen „Wir sind die Guten“, während Open AI Fehler gemacht hat.

Sie werten es als Mangel an Kreativität, dass Open AI jetzt Werbung schaltet. Was schlagen Sie stattdessen vor?

Ich denke, es gäbe einige kreative Lösungsansätze. Eine Möglichkeit wären Quersubventionen. Anthropic scheint ja in diese Richtung zu gehen. Aber man sollte dann nicht nur darauf hoffen, dass die Rechnung irgendwie aufgeht. Es sollte ein ausdrücklicher Teil des Geschäftsmodells sein, dass die Abonnenten der kostenpflichtigen Versionen von Chatbots mehr zahlen müssen, um Gratisnutzer zu subventionieren. Und wenn man doch auf Werbung nicht verzichten will, dann sollte man Strukturen für die Unternehmensführung finden, die den Nutzern Kontrolle darüber geben, wie ihre Daten verwendet werden.

Wie könnten solche Strukturen aussehen?

Ich interessiere mich seit Langem für die Entwicklung von Strukturen, die denjenigen, die von den Entscheidungen von Unternehmen betroffen sind, Mitbestimmungsrechte zugestehen. Es könnte einen demokratischen Prozess geben, der die Nutzer von KI-Systemen direkt einbezieht. Ich finde das Mitbestimmungsmodell in Deutschland sehr inspirierend, das Arbeitnehmern Einfluss auf Entscheidungen gibt. Für mich verkörpert das perfekt diesen Gedanken der Einbindung.

Und wie könnte das dann in der Praxis aussehen?

Nutzer könnten einen Sitz in einem Aufsichtsgremium bekommen und für diese Aufgabe in einem demokratischen Verfahren ausgewählt werden. Und das sollte als Prozess so institutionalisiert werden, anstatt einfach nur wohlklingende Prinzipien auszurufen, die leicht ignoriert werden können.

So ein Modell könnte freilich auch als Bremse und übermäßig bürokratisch empfunden werden. Es ist eher schwer vorstellbar, dass ein Unternehmen wie Open AI, das wohl bald an die Börse gehen will, sich darauf einlassen würde.

Das vermute ich auch. Andererseits finde ich, man kann als Unternehmen nicht alles haben. ChatGPT hat 900 Millionen Nutzer, das ist ein erheblicher Teil der Weltbevölkerung. Open AI spricht darüber, die Welt fundamental verändern zu wollen. Wer solche weitreichenden Pläne verfolgt, muss auch über verantwortungsbewusste Unternehmensstrukturen nachdenken. Man kann Menschen nicht einfach nur seinen Willen aufzwingen und erwarten, dass sie keine Meinung dazu haben.

Wie haben Sie denn allgemein die Stimmung innerhalb von Open AI wahrgenommen? Hatten Sie andere Kolleginnen und Kollegen, denen es nicht gefallen hat, in welche Richtung sich das Unternehmen entwickelt?

Es gab auf jeden Fall viele Kündigungen in meiner Zeit. Und viele von diesen Leuten sind nicht leise gegangen und seither zu Kritikern von Open AI geworden. Ich bin da nicht allein. Wobei ich denke, es gibt noch immer tolle Leute dort, die unter den gegebenen Umständen ihr Bestes versuchen.

Wie schätzen Sie die Position von Open AI zu Regulierung ein? Das Unternehmen scheint heute weniger über die Notwendigkeit von Regulierung zu sprechen als noch vor ein paar Jahren.

Ja, das kann man so sagen. Ich glaube, da spielt auch das politische Umfeld in den USA eine Rolle. Unter einer anderen Regierung würde das vielleicht anders aussehen.

Welche Art von KI-Regulierung halten Sie für notwendig?

Ich fände es gut, wenn es unabhängige Prüfungen auf Gebieten wie Sicherheit oder den sozialen Auswirkungen von KI-Technologien gäbe. Ohne eine solche Instanz benoten die Unternehmen gewissermaßen ihre Hausaufgaben selbst. Außerdem halte ich Altersbeschränkungen in irgendeiner Form für wichtig. Wir haben ja schon über soziale und psychologische Konsequenzen gesprochen, und das ist umso bedrohlicher, wenn es um Kinder geht. Es sollte daher eine entsprechende Regulierung geben, so wie wir es jetzt endlich mit sozialen Medien erleben.

Also Verbote sozialer Medien bis zu einem gewissen Alter, so wie wir das in Australien sehen und wie es auch anderswo diskutiert wird?

Ja. Und wenn es keine Verbote sind, könnte man sich zum Beispiel spezifische KI-Modelle für unter Sechzehnjährige vorstellen.

Was würden Sie allgemein als Ihre größte Sorge beschreiben, wenn es um KI geht?

Ich habe am meisten Angst vor einer Zukunft, in der die wirtschaftliche Macht auf sehr wenige Unternehmen konzen­triert ist, die über persönliche Daten aller Menschen verfügen. Das ist für mich eine dystopische Vorstellung.

Wie stellen Sie sich Ihre persönliche berufliche Zukunft vor, nachdem Sie nun nicht mehr bei Open AI sind?

Ich will mich weiter mit diesen Themen auseinandersetzen. Ich will kreative Ideen in die Welt bringen, wie wir den Nutzen von KI maximieren und die Risiken minimieren können. Dazu gehört es auch, die extreme Konzentration wirtschaftlicher Macht zu verhindern. Ich werde dorthin gehen, wo ich denke, das am effektivsten tun zu können. Ob das in einem Unternehmen, einer akademischen Institution oder anderswo sein wird, weiß ich noch nicht.