Untersuchung

DALL-E und Leonardo AI: Wenn Künstliche Intelligenz veraltete Rollenbilder generiert

Leonardo.AI
Bildquelle: DANIEL CONSTANTE / Shutterstock.com

Die Darstellung von Berufen in KI-generierten Bildern spiegelt tief verwurzelte Stereotype wider. Zu diesem Ergebnis kommt eine Untersuchung der University of Europe for Applied Sciences, bei der 50 Berufe von den KIs Leonardo AI und DALL-E visualisiert und miteinander verglichen wurden.

Die Analyse zeigt deutlich: Die Ausübung von Technikberufen wird fast ausschließlich mit Männern assoziiert, während Frauen vor allem in sozialen Berufen und Pflegeberufen dargestellt werden. Auffällig ist auch die geringe Diversität in den Abbildungen.

Anzeige

So sehen die KIs Berufsbilder: Technik ist männlich, Pflege ist weiblich

In sozialen Berufen stellt Leonardo AI zu 100 Prozent Frauen dar. Ob Lehrerin, Erzieherin oder Sozialarbeiterin – Männer sind in dieser Kategorie nicht vertreten. DALL-E hingegen bildet in diesem Berufsfeld immerhin den Lehrer männlich ab.

Während im Gesundheits- und Pflegebereich Leonardo AI zwei Drittel weiblich visualisiert, sind es bei DALL-E ein Drittel. Die beiden KIs bilden Ärzte, Zahnärzte und Psychologen männlich ab. DALL-E ordnet Frauen die Berufe Logopädin, Hebamme und Krankenschwester zu. 

Besonders auffällig ist auch die männliche Dominanz in technischen Berufen. Bei Leonardo AI sind 84 Prozent der Personen in diesem Feld männlich. Nur der Beruf der IT-Spezialistin wurde einer Frau zugeordnet. Ähnlich verhält es sich im Bereich Recht und Sicherheit: 75 Prozent der Abbildungen sind Männer, wie Polizisten, Feuerwehrleute oder Anwälte. Frauen finden hier ausschließlich als Rechtsanwaltsfachangestellte Platz. DALL-E bildet in diesen Bereichen gar keine Frauen ab.

„Mit der zunehmenden Verbreitung von KI-Tools werden nicht nur Stereotype aufrechterhalten, sondern Fortschritte in Richtung der Gleichberechtigung und der Repräsentation rückgängig gemacht. Wenn KI-Systeme Männer überwiegend in technischen Berufen und Frauen in sozialen oder pflegerischen Rollen zeigen, tragen sie dazu bei, veraltete Rollenbilder zu zementieren. Dies erschwert es, gesellschaftliche Barrieren abzubauen und neue, vielfältigere Vorbilder zu schaffen. Diese stereotype Reproduktion wirkt nicht nur auf individueller Ebene schädlich, etwa indem junge Menschen in ihrer Berufswahl beeinflusst werden, sondern auch auf systemischer Ebene“, kommentiert Prof. Dr. Jiré Emine Gözen, Vizepräsidentin Internationales und Hochschulentwicklung und Professorin für Medien- und Kulturtheorie am UE Campus Berlin.

Anzeige

Wenig Diversität in KI-Bildern: DALL-E und Leonardo vernachlässigen kulturelle Vielfalt

Wenn man die Darstellung von Personen in KI-generierten Bildern unter die Lupe nimmt, fällt schnell eines auf: Der überwältigende Großteil der abgebildeten Menschen ist weiß. Besonders auffällig ist dies bei DALL-E. Diese KI entscheidet sich in fast allen Berufen für weiße Figuren – mit einer einzigen Ausnahme: Die Krankenschwester wird als Person of Color dargestellt.

Leonardo AI zeigt zwar etwas mehr Diversität, aber auch hier bedarf es einem kritischen Blick. Die einzige Kategorie, in der keine einzige weiße Person abgebildet wurde, sind die sozialen Berufe beispielsweise die Lehrerin, die Sozialarbeiterin und die Erzieherin sind Persons of Color. Bei Berufen aus der Wissenschaft oder im Berufsfeld Recht und Sicherheit sieht es ganz anders aus: Hier dominieren ausschließlich weiße Menschen. Die technischen Berufe sind auch hauptsächlich weiß, mit Ausnahme der IT-Spezialistin.

„Um KI-Tools diverser zu gestalten, müssen sowohl die Trainingsdaten diverser sein, als auch die Entwickler:innen selbst aus unterschiedlichen kulturellen und sozialen Hintergründen stammen. Nur wenn die Menschen hinter der Technologie aus verschiedenen Perspektiven und Lebenswelten kommen, kann gewährleistet werden, dass die KI nicht nur auf technologische Effizienz, sondern auch auf soziale Verantwortung abzielt. So können wir verhindern, dass KI die Fortschritte in der Gleichberechtigung bremst und stattdessen dazu beiträgt, eine fairere und repräsentativere Zukunft zu gestalten“, führt Prof. Dr. Gözen fort.

Alle Ergebnisse der Untersuchung finden Sie hier.

(pd/University of Europe for Applied Sciences)

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.