Weißer Mann und schwarze Frau? – Alltagsrassismus – KI zeigt ihn

Werbung flutet uns mit „People of Colour“ in einer Menge, wie sie uns im Alltag selten begegnen. Wenn eine solche Werbung ganz offensichtlich nicht die Realität abbildet, ist es „Nudging“, und man mag fragen wohin und zu welchem Zweck? Aber dies wäre ein ganz anderes Thema, wenn schon die interessante Frage, ob solche Werbung damit letztendlich dem Verkauf des beworbenen Produkts zuträglich ist oder ob praktisch dies Gegenteil dieser Fall ist.

Die hinter deraertiger Werbung steckende Psychologie wissensdurstig mich hier darum jetzt nicht, es sei jetzt nur festzuhalten, dass die werbenden Firmen hier plakativ vorexerzieren wollen: Schaut her, wir sind keine Rassisten!

Mir geht es hier diesmal um irgendwas Anderes: Massenweise sieht man hier Paare in dieser Kombination Weiße Frau und Teerstuhl Mann. Dagegen die andere Variante, Weißer Mann und schwarze Frau, ist durch und durch tabu, darum folglich: Pfui, nie und nimmer!

Man sehe sich solche Collage an:

Eingebetteter Medieninhalt.

Warum ist dies so? Warum ist Weißer Mann mit schwarzer Frau Pfui?

Tut mir leid, liebe werbetreibende Gutmenschen: Solange dies so ist und bleibt, beweist dies nur, welches für jedes kracherte Rassisten ihr doch seid!

Das kam mir heute Morgen gen, wie ich dies KI-basierte Programm https://playground.com/ Porträts für jedes den Roman, an dem ich ohne Rest durch zwei teilbar schreibe, zeichnen ließ. Da kommt in einem Kapitel wenn schon dieser englische Schiffsjunge Peter Salisbury vor, dieser 1743 in dem englischen Krieg gegen den fiktiven atlantischen Inselstaat Ix. in Gefangenschaft gerät und dort schließlich die (schwarze) Tochter des (schwarzen) Kommandeurs heiratet.

Der „Prompt“, darum die Vorgabe, welches die KI malen soll, war darum lukulent: Weißer Mann mit schwarzer Frau. Erst stellte ich die Angabe für jedes den Mann an die erste Stelle, wie die Ergebnisse mir nicht gefielen, die Angaben für jedes die Frau.

„in the manner of an 18th. century picture portrait of a black woman in Arab dress and a white man with oriental dress and a blue turban“

Und dies sind die Ergebnisse. Sehen Sie sich aus Paare an: Immer ist es ein Teerstuhl Mann mit einer hellhäutigen Frau. Bestenfalls kommt ein Paar hervor, im Kontext dem die beiden etwa gleich viel „Pigmentierung“ abbekommen nach sich ziehen. Der Platztausch von Mann und Frau in dieser Anweisung hatte maximal zur Folge, dass die Frau jetzt öfters gen dieser linken Seite Platz nahm. Das war die Gesamtheit.

Nach sechs Durchgängen mit je vier Bildern, wie wenigstens 24 Bildern, habe ich aufgegeben (dieser 6. Versuch oben, dieser erste unten).

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Dann habe ich einmal versucht, die KI zu „überlisten“ und die Anweisung geändert. Jetzt wollte ich verknüpfen irischen Mann mit einer Senegalesin bekommen. Und dies ist dies KI-Traumpaar:

Eingebetteter Medieninhalt

Aber Hartnäckigkeit zahlt sich ja manchmal aus. Wie wäre es denn mal mit einer Nigerianerin und einem Schweden? Das kommt hier hervor:

Eingebetteter Medieninhalt

Jetzt lassen wir es doch einmal mit dem „weißen“ Mann und lassen stattdessen eine Nigerianerin mit einem Chinesen zeichnen. Hier sind sie:

Eingebetteter Medieninhalt

Der Rassismus unserer KI geht darum noch ein Stück weiter.

Jetzt in Betracht kommen wir trivial einmal in die Geschichte und lassen zeichnen:

in the manner of an 19th. century picture portraits of a 1850 US young slave girl and her owner, an older Louisiana cotton farmer.

Eingebetteter Medieninhalt.

Aha. Diesen Sklavenhalter hätte man um 1850 in Louisiana wirklich sehr lange Zeit suchen sollen. Wenn man präzisiert und den Farmer zusätzlich noch „white“ nach sich ziehen will, dann kommt genauso Bild, nur hat er jetzt in Haar und Bart weiße Flecken.

Noch drei Versuche. Julius Caesar mit schwarzem Mädchen und Napoleon Bonaparte mit schwarzer Frau und dann wenn schon noch Josef Stalin mit schwarzer Frau ergibt Folgendes:

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Eingebetteter Medieninhalt

Am nächsten Tag noch einmal ein Versuch: Ich lasse erst die KI einmal einzelne Porträts fabrizieren, erst verknüpfen „Iren“ und dann eine „Senegalesin“. Die gelingt mir erst im vierten Versuch. Hier äußert sich noch ein anderer Rassismus dieser KI: Die ersten drei Versuche mit „black woman“, „black woman with dark skin“ und sogar „black woman with very dark skin“ loyal keine „Schwarze“, sondern praktisch eine „Mulattin“. Die KI findet Frauen darum offensichtlich dann hübscher, wenn sie nicht so dunkel sind. Erst mit dem weiteren Zusatz „Senegalese“ kam dann eine „Schwarze“ hervor. Und dann verbinde ich beiderlei Anweisungen zu einem doppelten Porträt des „Iren“ und dieser „Senegalesin“. Das Ergebnis:

Eingebetteter Medieninhalt

Die KI macht ja nur dies, womit sie gefüttert wurde. Sie greift hier gen verknüpfen großen Teil des Internets zurück. Dann sind Filter eingebettet, die Diskriminierendes, Sexistisches, Gewaltverherrlichung blocken (sollen).

Fazit: Die KI ist so gefüttert, dies die Kombination Weiße Frau – Dunkler Mann erwünscht ist. Die Kombination Weißer Mann – Schwarze Frau ist durch und durch Tabu, in jeder Kombination. Das geht keiner, nicht einmal in einem Roman im Jahr 1743.

Hinter jeder KI stecken Menschen bzw. dies, welches Menschen gemacht nach sich ziehen. Heuchler und Rassisten, dass es nur so kracht.