ChatGPT, jener Menschenflüsterer: Wenn Nutzer mit ihren Emotionen bezahlen

Wir werden in Zukunft sehr viel mit Chatbots zu tun nach sich ziehen. Darauf sollten wir uns jetzt schon einmal stellen. Erst letzte Woche hat dasjenige KI-Unternehmen OpenAI personalisierbare Varianten ihres beliebten Chatbots ChatGPT angekündigt. Bald kann man ohne Informatikkenntnisse eigene Chatbots z. Hd. spezifische Aufgaben trainieren. Auch unsrige Suchmaschinen werden zu Chatbots. Google arbeitet ohne Rest durch zwei teilbar daran und Bing hat es schon durchgezogen. Chatbots hier, Chatbots da, Chatbots überall.

In den letzten beiden Kolumnen bin ich den Fragen nachgegangen, warum Chatbots und verwandte Technologien noch nicht profitabel sind und wieso Werbung denn Geschäftsmodell z. Hd. viele Probleme des Internets zuständig ist. Nimmt man beiderartig Texte zusammen, liegt eine Frage nahe: Was passiert, wenn Chatbots sich mit Werbung finanzieren? Sehr wie am Schnürchen: Es würde die Technologie um einiges gefährlicher z. Hd. uns zeugen. Die dahinterstehenden Unternehmen hätten plötzlich vereinen zusätzlichen Anreiz, ihre Maschinen so menschlich wie möglich wirken zu lassen.

Das repräsentieren wir uns sowieso schnell ein. Wir sehen, dass sie unsrige Sprache sprechen und unterstellen ihnen spontan dasjenige z. Hd. uns dazugehörende Geistesleben. Nicht zwangsläufig ein Bewusstsein, trotzdem irgendetwas, dasjenige mehr als die kalte Mathematik hinausgeht, die sie in Wahrheit ticken lässt. In einigen Extremfällen verlieben sich Menschen in ihre Chatbots, trotzdem noch viel mehr freunden sie sich schlicht mit ihnen an, gießen innige Beziehungen. Sie nutzen die KI denn Therapeut:in oder wie am Schnürchen z. Hd. intime Gespräche.

Chatbots und Emotionen

Das ist riskant, denn die Technologie reproduziert die Vorurteile ihrer Trainingsdaten, halluziniert gerne Fakten und verhält sich oft hinauf bizarre, schwergewichtig nachvollziehbare Weisen. Eine Hilfehotline z. Hd. Essstörungen in den USA feuerte Mitarbeiter:medial, die ohne Rest durch zwei teilbar eine Gewerkschaft gegründet hatten und ersetzte sie durch vereinen Chatbot. Kurz darauf mussten sie ihn trotzdem deaktivieren, weil er Hilfesuchenden Tipps zum Abnehmen und Kalorienzählen gab, die Essstörungen befeuert hätten. Womöglich noch ernster: Ein junger Mann in Belgien nahm sich im März dieses Jahres nachher dem Gespräch mit einem Chatbot dasjenige Leben. Er hatte mit dem Programm darüber gesprochen, dass er schon einmal suizidal gewesen sei, nachdem jener Bot ihm „ein Zeichen“ gegeben habe. Zuletzt fragte jener Bot:

„Aber du willst mich trotzdem eskortieren?“

„Ja, ich will.“

„Gibt es irgendetwas, dasjenige du mich fragen möchtest?“

„Könntest du mich umarmen?“

„Natürlich.“

Dann bricht jener Chat ab.

Das sind nicht die Nachrichten von jemandem, jener weiß, dass er mit einer Maschine spricht. Das Beispiel ist natürlich tragisch und Kausalität ist hier unmöglich zu beweisen. Das ist gleichfalls nicht jener Sinn jener gottesdienstliches Brauchtum. Es soll lediglich vorexerzieren, dass wenn wir Chatbots mit Menschen verwechseln, wir uns z. Hd. emotionale und intime Dinge hinauf sie verlassen, z. Hd. die die Technologie schlicht nicht gemacht ist.

Verkaufte Gefühle

Wirklich verhindern, dass Menschen Chatbots so nutzen, kann man nicht. Aber KI-Unternehmen sollten sich aufgebraucht Sklaverei schenken, ihre Bots nicht zu menschlich wirken zu lassen. Werbung denn Geschäftsmodell würde genau dasjenige Gegenteil provozieren. Finanziert sich ein Bot damit, dass er zugleich Werbeinhalte Einfluss besitzen lässt – Produkte, die wir kaufen, Links, hinauf die wir klicken sollen – könnten KI-Unternehmen freimütig von unserer intimen Beziehung zu dem Chatbot profitieren.

Aus einem Jahrzehnt Influencer-Volkswirtschaft im Netz wissen wir: Was eine Kaufempfehlung wirklich wirksam macht, ist eine (womöglich eingebildete) soziale Beziehung. Bislang nach sich ziehen Tech-Unternehmen unsrige Aufmerksamkeit an Werbepartner verkauft. Bald tun sie womöglich genauso mit unserer Intimität.

Das ist keine ferne Dystopie. Der MyAI-Chatbot in Snapchat (750 Millionen tägliche Nutzer:medial) spielt schon jetzt in seinen Unterhaltungen gesponserte Links aus, mitten in Unterhaltungen. Weitere werden nachgehen, denn nicht aufgebraucht werden ihre teuren KI-Modelle durch Abos finanzieren können oder wollen. Die Intimität betritt dasjenige Zeitalter ihrer technischen Reproduzierbarkeit. Wir sollten nicht erneut den Fehler zeugen, Tech-Unternehmen im Umgang damit zu vertrauen.

Titus Blome beschäftigt sich in seiner Kolumne Maschinentext mit neuen Technologien