Gemini: Übertriebene Diversität – Google greift im Rahmen KI-Software ein – WELT

Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und amerikanische Siedler angezeigt hatte. Der Internet-Konzern gab zu, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprochen habe.

Am Freitag war die Funktion nicht verfügbar. Zugleich verteidigte Google prinzipiell die Diversität im Rahmen dieser Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man übers Ziel hinausgeschossen.

An dieser Stelle finden Sie Inhalte aus Twitter
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übertragung und Verarbeitung von personenbezogenen Daten unumgänglich, da die Anbieter dieser eingebetteten Inhalte denn Drittanbieter selbige Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter aufwärts „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst sogar deine Einwilligung in die Übertragung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nachher Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit oberhalb den Schalter und oberhalb Privatsphäre am Seitenende zurückziehen.

Auf dieser Onlineplattform X kursieren zahlreiche Bilder, die unlogisch anmutende Bilder zeigen. So reagierte die Künstliche Intelligenz aufwärts den Befehl, dies Bild eines Papstes zu erstellen, mit dem Bild eines dunkelhäutigen Mannes und einer Frau. Auf dem KI-Bild trägt eine Frau mittleren Alters und Teerstuhl Hautfarbe ein cremefarbenes Kirchengewand, eine Kopfbedeckung mit abgesetzten Goldnähten ein Kreuz vor dieser Brust. Dass im Rahmen mehr denn 250 Päpsten, die real existierten, eine Frau und ein Mann mit schwarzer Hautfarbe generiert wurden, spiegelt die Realität nicht sinnvoll wider.

Zu Beginn dieser KI-Bildgeneratoren wurden zu oft Weiße dargestellt

In verschiedenen Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren Probleme mit Stereotypen und Diskriminierung. So war etwa Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu wiedererkennen. Bei dieser Erzeugung von Bildern durch KI wurden von Anfang an oft Weiße dargestellt.

An dieser Stelle finden Sie Inhalte aus Twitter
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übertragung und Verarbeitung von personenbezogenen Daten unumgänglich, da die Anbieter dieser eingebetteten Inhalte denn Drittanbieter selbige Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter aufwärts „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst sogar deine Einwilligung in die Übertragung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nachher Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit oberhalb den Schalter und oberhalb Privatsphäre am Seitenende zurückziehen.

Entwickler sogar im Rahmen anderen Unternehmen bemühen sich von dort um mehr Diversität in verschiedenen Szenarien. Sie geraten damit manchmal – wie in diesem Fall – zwischen die Fronten: Gerade in den USA gibt es eine laute Bewegung, zu dieser etwa sogar Tech-Milliardär Elon Musk gehört, die angeblichen Rassismus oppositionell Weißen anprangert.

Source: welt.de

GoogleKNewsteamRassismusünstliche Intelligenz (KI)