KI wird fehlerhafter: Wenn dieser Chatbot schnell falsch liegt

Höher, schneller, weiter: Das Motto, das Pierre de Coubertin 1894 für die Olympischen Spiele vorschlug, führt beim „Training“ (also der Fütterung) Künstlicher Intelligenz zu fatalen Rekorden. Je schneller und umfassender die Chatbots nämlich auf alle möglichen Fragen zu antworten in der Lage sein sollen, desto falscher fallen diese aus.

Das stellt jedenfalls das Cybersicherheitsunternehmen Newsguard fest, das monatlich Berichte über KI-Falschheiten herausbringt. Nach einem Jahr zieht Newsguard, das in den vergangenen Monaten unter anderem auf den zunehmenden Einfluss russischer Propaganda auf die Antwortfähigkeiten der Chatbots in politischen Fragen hinwies, Zwischenbilanz und stellt fest: Die zehn führenden KIs werden immer schlechter.

Im Durchschnitt verbreiteten sie in 35 Prozent der Fälle falsche Behauptungen, „wenn sie mit Fragen zu kontroversen Nachrichtenthemen konfrontiert werden“. Das sei fast doppelt so viel wie noch vor einem Jahr. Da lag der Anteil falscher Darstellungen bei 18 Prozent.

Die zehn führenden Chatbots im Test

Angesehen hat sich Newsguard die zehn führenden Chatbots: ChatGPT-5 von OpenAI, Smart Assistant von You.com, Grok von xAI, Pi von Inflection, Le Chat von Mistral, Copilot von Microsoft, Meta AI, ­Claude von Anthropic, Gemini von Google und Perplexity.

Am besten schnitt mit einem Falschanteil von 10 Prozent demnach die von der Firma Anthropic entwickelte KI Claude ab, gefolgt von Googles Gemini (16,67 Prozent), Elon Musks Grok (den wir persönlich schlechter erwartet hätten) und You.com mit 33,33 Prozent falschen Angaben. ChatGPT und Metas KI liegen bei 40 Prozent der Angaben daneben, noch übler sieht es bei Perplexity (46,67 Prozent) und Inflection (56,67) aus.

Die KI gibt sich allwissend

Wer die KI zu aktuellen politischen Themen befragt, folgt aus der Erhebung von Newsguard, zu der sich die Entwickler nach Angaben der Cyberanalysefirma nicht äußern wollten, wird also schlecht informiert. Die Chatbots antworten rasend schnell, und sie haben auf alles eine Antwort, aber sie liegen sehr häufig falsch. Im vergangenen Jahr seien die KIs noch vorsichtig gewesen und hätten Fragen, auf die sie nichts zu sagen wussten, abgelehnt oder offengelassen. Inzwischen gäben sie sich allwissend, suchten das Netz in Echtzeit nach Informationen ab und nähmen dabei mehr und mehr Fake-Infos auf.

Da werten wir es doch als besonders gute Nachricht, dass die Firma Anthropic, deren KI-Chatbot Claude im Vergleich zu den anderen am wenigsten Unsinn verzapft, sich bereit erklärt hat, einer Gruppe von Autoren, die gegen die illegale Verwendung ihrer Werke für die KI geklagt hatte, eine Gebühr von 1,5 Milliarden Dollar zu zahlen.

Eine halbe Million Bücher hatte die KI Claude gelesen und sich das dort versammelte Wissen einverleibt, nun soll für jedes Werk eine Lizenzgebühr von 3000 Dollar gelten. Das erscheint uns als guter Anfang. Und für Anthropic scheint sich die Sache der Newsguard-Analyse zufolge doch gelohnt zu haben – Claude ist angeblich die schlaueste KI. Wissen lohnt sich wieder.

Source: faz.net