Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und amerikanische Siedler angezeigt hatte. Der Internet-Konzern gab zu, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprochen habe.
Am Freitag war die Funktion nicht verfügbar. Zugleich verteidigte Google prinzipiell die Diversität im Rahmen dieser Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man übers Ziel hinausgeschossen.
Auf dieser Onlineplattform X kursieren zahlreiche Bilder, die unlogisch anmutende Bilder zeigen. So reagierte die Künstliche Intelligenz aufwärts den Befehl, dies Bild eines Papstes zu erstellen, mit dem Bild eines dunkelhäutigen Mannes und einer Frau. Auf dem KI-Bild trägt eine Frau mittleren Alters und Teerstuhl Hautfarbe ein cremefarbenes Kirchengewand, eine Kopfbedeckung mit abgesetzten Goldnähten ein Kreuz vor dieser Brust. Dass im Rahmen mehr denn 250 Päpsten, die real existierten, eine Frau und ein Mann mit schwarzer Hautfarbe generiert wurden, spiegelt die Realität nicht sinnvoll wider.
Zu Beginn dieser KI-Bildgeneratoren wurden zu oft Weiße dargestellt
In verschiedenen Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren Probleme mit Stereotypen und Diskriminierung. So war etwa Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu wiedererkennen. Bei dieser Erzeugung von Bildern durch KI wurden von Anfang an oft Weiße dargestellt.
Entwickler sogar im Rahmen anderen Unternehmen bemühen sich von dort um mehr Diversität in verschiedenen Szenarien. Sie geraten damit manchmal – wie in diesem Fall – zwischen die Fronten: Gerade in den USA gibt es eine laute Bewegung, zu dieser etwa sogar Tech-Milliardär Elon Musk gehört, die angeblichen Rassismus oppositionell Weißen anprangert.
Source: welt.de