München/Dublin. Menschen übertragen ihre Rollenbilder auf die KI – das hat Folgen für die Entwicklung fairer KI-Systeme, wie eine neue Studie zeigt.
Eine Studie von Forschenden der Ludwig-Maximilians-Universität München und des Trinity College Dublin zeigt, dass Menschen geschlechtsspezifische Vorurteile auf KI übertragen. Dabei behandeln sie „weibliche“ und „männliche“ KI-Systeme unterschiedlich, ähnlich wie menschliche Geschlechtsrollen. Rund 400 Teilnehmerinnen und Teilnehmer nahmen an der Studie teil, die kürzlich in der Fachzeitschrift iScience veröffentlicht wurde; die Ergebnisse sind relevant für die Gestaltung, Nutzung und Regulierung von interaktiven KI-Systemen.
Die Studie fand heraus, dass weiblich gekennzeichnete KI-Systeme vergleichbar häufig ausgenutzt werden wie menschliche Frauen. Männerlich gekennzeichneten KI-Systemen wird ähnlich stark misstraut wie männlichen Menschen. Besonders auffällig ist, dass weibliche KI öfter ausgenutzt werden als menschliche Partnerinnen im gleichen Experiment.
Spieltheorie zeigt Unterschiede
Die Forschenden untersuchten dies anhand des „Gefangenendilemmas“, einem Spiel der Spieltheorie, bei dem Kooperationsbereitschaft und Misstrauen getestet werden. Die Spielpartner wurden als Mensch oder KI deklariert und zusätzlich mit Geschlechtsmerkmalen wie männlich, weiblich, nicht-binär oder geschlechtsneutral versehen. Die Ergebnisse bestätigen, dass geschlechtsspezifische Erwartungen aus dem menschlichen Miteinander auch in der Zusammenarbeit mit KI gelten.
Das hat weitreichende Auswirkungen darauf, wie KI-Systeme heute gestaltet und eingesetzt werden. Jurgis Karpus von der LMU betont in einer Aussendung, dass menschenähnliche Eigenschaften zwar die Zusammenarbeit verbessern können, gleichzeitig aber Risiken bergen. Insbesondere könne dadurch die Übertragung und Verstärkung bestehender geschlechtsspezifischer Vorurteile auf KI-Systeme erfolgen.
Da KI immer stärker in den Alltag integriert wird, sei es wichtig, die Geschlechterdarstellung bei der KI-Gestaltung bewusst zu berücksichtigen. So könne das Engagement der Nutzerinnen und Nutzer gefördert und Vertrauen in automatisierte Systeme aufgebaut werden. Entwicklerinnen und Entwickler sind aufgefordert, solche Vorurteile zu erkennen und aktiv abzubauen. Ziel sei es, schädliche geschlechtsspezifische Diskriminierung zu verhindern und KI-Systeme sozial verantwortlich, fair und vertrauenswürdig zu gestalten.

