banner
Heim / Blog / KI-Bilder von Frauen aus der ganzen Welt sind viral gegangen. Fördern sie Kolorismus und kulturelle Schönheitsstandards?
Blog

KI-Bilder von Frauen aus der ganzen Welt sind viral gegangen. Fördern sie Kolorismus und kulturelle Schönheitsstandards?

Jul 19, 2023Jul 19, 2023

Wie sieht eine „schöne“ Frau aus Indien aus?

Was ist mit den Philippinen oder Laos?

Künstliche Intelligenz (KI) gibt vor, die Antwort zu haben.

KI-generierte Bilder von „schönen Frauen“ aus der ganzen Welt verbreiten sich seit Monaten viral.

Ein TikTok-Video mit KI-Bildern süd- und ostasiatischer Frauen – kürzlich gepostet von einem Account namens AI World Beauties – hat mehr als 1,7 Millionen Aufrufe.

Experten sagen jedoch, dass die Bilder begrenzte, ausschließende und potenziell schädliche Ideale aufrechterhalten können, weil sie auf voreingenommene Datensätze und Stereotypen „trainiert“ sind.

Die viral gehenden Bilder werden von sogenannten „generativen KI“- oder „GenAI“-Programmen erstellt.

„GenAI ist eine Art künstliche Intelligenz, die auf Modellen des maschinellen Lernens basiert“, sagte Shibani Antonette, Dozentin für Datenwissenschaft und Innovation an der University of Technology Sydney, gegenüber ABC.

„Es nutzt Muster und Informationen, die es aus Millionen von Datenpunkten gelernt hat, um neue Inhalte zu erstellen, die es noch nie zuvor gab.“

Laut Dr. Antonette bestimmen die Qualität und Vielfalt der Trainingsdaten die Ausgabe eines Bildgenerators.

Als ABC ihn kontaktierte, sagte der Ersteller des viralen Videos, dass er ein Diffusionsmodell namens Midjourney verwendet habe, um die Bilder zu erzeugen.

Sie lehnten es ab, in der Geschichte namentlich genannt zu werden oder weitere Kommentare abzugeben.

Helle Haut, dünne Nasen, volle Lippen und hohe Wangenknochen.

Den viralen Videos zufolge haben „schöne“ Frauen dieselben Eigenschaften.

Voreingenommenheit sei „ein ernstes Problem“ bei Bilderzeugungs- und Gesichtserkennungstechnologien, sagt Dr. Antonette.

„Die Modelle können eine verzerrte Realität schaffen, indem sie Vorurteile und Stereotypen in Bezug auf Rasse und Geschlecht verstärken“, sagt sie.

„Die meisten der erzeugten Bilder halten den Kolorismus und kulturelle Schönheitsstandards aufrecht.“

Beim Betrachten der viralen KI-Bilder sagt Dr. Antonette, dass das Modell, das sie erzeugt hat, wahrscheinlich „nicht über einen vielfältigen Trainingsdatensatz verfügte, der viele Gesichter farbiger Menschen mit unterschiedlichen Hauttönen und -formen enthielt“.

„Schließlich wurden in den letzten Jahrzehnten Daten für diese Modelle aus dem gesamten Internet abgerufen – ohne Verantwortung für Abdeckung, Vielfalt und Inklusion –, um bestimmte Anwendungen zu bedienen.“

Asia Jackson lässt die Leute oft über ihre ethnische Zugehörigkeit rätseln und bekommt normalerweise ein „Du siehst nicht so aus“, wenn sie es den Leuten erzählt.

Die schwarze und philippinische Schauspielerin und Content-Erstellerin sagt, als Kind habe „gemischt“ zu „vielen Identitätsproblemen“ geführt.

Die 29-jährige Frau Jackson sagt, sie habe ein stärkeres Selbst- und Identitätsgefühl.

„Ich bin definitiv viel beleidigter, wenn mir jemand sagt: ‚Ich sehe nicht schwarz aus‘ oder ‚Sieh nicht asiatisch aus‘.“

„Weil diese beiden Rassenkategorien ein so großes Spektrum an Hautfarben und -merkmalen umfassen.“

Das Gleiche gilt, wenn Leute zu Frau Jackson sagen, sie sehe „nicht philippinisch aus“.

„Die Philippinen sind ein Land mit mehr als 7.100 Inseln und Hunderten verschiedener ethnischer Gruppen“, sagt sie.

Frau Jackson steht den viralen KI-Bildern „ziemlich gleichgültig“ gegenüber.

„KI kopiert lediglich menschliches Verhalten, egal wie inklusiv oder politisch unkorrekt es auch sein mag“, sagt sie.

„Das ist nichts anderes als das, was im wirklichen Leben passiert.

„Gleichzeitig glaube ich wirklich nicht, dass es möglich ist, die große Vielfalt an Merkmalen oder Ethnien aus jedem Land in ein 30-Sekunden-Video einzubeziehen.“

Als Ishara Sahama die obigen Bilder zum ersten Mal sah, fand sie sie „fast ätherisch“.

Dann wurde ihr klar, dass sie „die am meisten akzeptierten Schönheitsstandards jeder ethnischen Gruppe“ sah.

„Die Vielfalt der ethnischen Gruppen innerhalb jedes Landes wird in einem Modell verallgemeinert. Es ist reduktiv und spiegelt bei weitem nicht die Vielfalt dieser Länder wider“, sagt sie.

Der 25-jährige Mitbegründer der Agentur für strategisches Design, Echo Impact Group, wurde mit einem Inder, einem Pakistani, einem Araber und einem indigenen Australier verwechselt.

Sie kommt aus Sri Lanka und hat singhalesische, tamilische und malaiische Wurzeln.

„Am meisten nervt es mich, die eigene ethnische Zugehörigkeit zu vermuten und sie dann ungefragt damit in Verbindung zu bringen.“

Sie sagt, dass es die „Schönheitsstereotypen“ sind, die in diesen KI-Bildern zu sehen sind, die die Menschen glauben lassen, dass es für jede ethnische Zugehörigkeit „einen Look“ gibt.

„Wenn Menschen diese KI-Bilder von Frauen sehen, assoziieren sie diese Merkmale möglicherweise mit dem Aussehen einer Inderin, einer Pakistanerin oder in meinem Fall einer Frau aus Sri Lanka“, sagt sie.

„Ich sehe eindeutig nicht aus wie diese Bilder.

„Ich denke, eine solche KI hat die Fähigkeit, Perspektiven und Identitäten in Frage zu stellen. Aber leider kann KI-Kunst nur auf Daten reagieren, die ihr vorliegen.“

Jedes Merkmal in diesen KI-generierten Bildern passt in die sogenannte „Modellminderheit“, sagt Kriti Gupta.

„Es sind alle Teile unserer ethnischen Gruppe, die das Internet [das sich an den Vorlieben der Gesellschaft orientiert] für attraktiv hält.“

Frau Gupta, eine 27-jährige indische Australierin, die in den Bereichen Social-Media-Strategie und -Beratung tätig ist, sagt, sie sehe sich auf keinem der Bilder.

„Sie sind das, woran jeder Mann denkt, wenn er einen ‚Brown-Girl-Fetisch‘ hat“, sagt sie.

Frau Gupta sagt, die Leute hätten angenommen, sie sei Spanierin, Mexikanerin, Marokkanerin oder aus einem anderen lateinamerikanischen Land.

„Ich denke, ich bin immer in der Mitte und frage mich: Warum nehmen Sie meine ethnische Zugehörigkeit an? Welchen Wert hat das für dieses Gespräch?“ Sie sagt.

„Ich bringe meinen Hintergrund nur dann zur Sprache, wenn ich das Gefühl habe, dass er für das Gespräch relevant ist.“

Wie viele südasiatische Frauen nahm Frau Gupta in Australien Änderungen an ihrem Aussehen vor.

Sie färbte sich blond und machte sich keine Sorgen darüber, dass ihre braune Haut durch die Sonneneinstrahlung dunkler werden könnte. Sie gab zu, dass dies der Fall war, um für die männlichen Blicke attraktiver zu wirken.

„Aber dann bin ich nach Indien gegangen und habe mich mit Bleichcreme übergossen, um dort hineinzupassen“, sagt sie.

Dennoch weiß Frau Gupta, dass sie auf diesen KI-Bildern nicht wirklich sieht, wie die meisten südasiatischen Frauen aussehen.

„Wir sehen weiß getünchte Bilder“, sagt sie.

„Meistens werden diese KI-Plattformen von Männern erstellt, und der Großteil der Codierung, die in diese Algorithmen einfließt, um diese Bilder aus der weltweiten Nutzung des Internets zu erstellen, ist auf eine westliche Nutzung fixiert.“

Wissenschaftler und Aktivisten haben gewarnt, dass die zum Trainieren von KI-Modellen verwendeten Datensätze voreingenommen sind.

Und es kann problematisch sein.

Eine Forschungsstudie der Cornell University vom März dieses Jahres enthüllte, wie beliebte KI-Modelle Bilder von Männern mit helleren Hauttönen für hochbezahlte Jobs wie „Anwalt“, „Richter“ oder „CEO“ erzeugten.

Während Menschen mit dunklerer Hautfarbe in schlechter bezahlten Berufen wie „Hausmeister“ und „Fast-Food-Arbeiter“ überrepräsentiert waren.

Obwohl es keine allumfassende Antwort gibt, weist Dr. Antonette auf einige wichtige Maßnahmen hin.

„Technologieentwickler und Unternehmen, die Dienste anbieten, sollten sicherstellen, dass ihre KI fair und gerecht ist, indem sie ihre Datensätze diversifizieren und eine Überrepräsentation bestimmter Personengruppen vermeiden“, sagt sie.

„Sie sollten die Auswirkungen berücksichtigen, wie ihre Technologie auf andere Kontexte als den, für den sie ursprünglich entwickelt wurde, ausgeweitet werden könnte.“

Dr. Antonette sagt, dass die Verbesserung ihrer Rechenschaftspflicht und Transparenz für Forscher ebenfalls von entscheidender Bedeutung ist.

„Dies geschieht durch die Veröffentlichung von Open-Source-Modellen, die andere kritisieren und auf denen sie aufbauen können, indem sie vielfältigere Daten hinzufügen“, sagt sie.

Wer auch KI nutzt und betrachtet, sollte dies kritisch und verantwortungsbewusst tun, sagt Dr. Antonette.

„Die Schaffung voreingenommener synthetischer Bilder kann unbeabsichtigt zukünftige Vorurteile schüren und uns in einen Teufelskreis verwickeln.

„Die Akzeptanz der Datenvielfalt, die Förderung von Transparenz und der durchdachte Einsatz von KI-Tools können uns in eine Zukunft führen, in der KI allen zugute kommt, ohne schädliche Stereotypen aufrechtzuerhalten.“