3 Bereiche, in denen Frauen von KI noch diskriminiert werden
Die Unesco hat ein neues Netzwerk gegründet. Es soll gegen die Diskriminierung von Frauen im Zusammenhang mit künstlicher Intelligenz (KI) vorgehen – denn es gibt Handlungsbedarf.
Technologien mit KI assistieren dem Menschen bereits in vielen Bereichen. Das wird in Zukunft wohl noch mehr werden. Über mögliche Gefahren, die eine "aus dem Ruder gelaufene" KI bringen kann, wird viel spekuliert. Dabei werden bereits vorhandene Probleme erst langsam erkannt.
Mit dem Netzwerk "Womens4ethical AI" will die Unesco nun gegen die Diskriminierung von Frauen vorgehen. Aber wie kommt es überhaupt dazu? Die Antwort liegt im Spiegel unserer Gesellschaft. So sieht es auch Wiebke Brinkmann. Sie ist Forscherin am DFKI Robotics Innovation Center in Bremen und Teil der Arbeitsgruppe Diversity & Gender Equality.
Jede KI, die mit einer diskriminierenden Vorannahme gefüttert wird, ist diskriminierend.
Wiebke Brinkmann, DFKI Bremen
Jeder Lebensbereich, in der eine KI assistiert ist also potentiell gefährdet für Diskriminierungen, so Brinkmann. Drei Beispiele:
1 Medizin
Hier wird KI immer häufiger als Hilfe eingesetzt – eine große Errungenschaft. Doch es können sich laut Brinkmann Verzerrungen einschleichen, wenn die Tests hauptsächlich an weißen Männern durchgeführt werden. Ein Beispiel sei ein System, dass zur Analyse von Röntgenbildern genutzt werde, um Lungen- und Brusterkrankungen zu erkennen. Da es auf männliche Scans von Körpern trainiert worden wäre, seien Krankheiten bei Frauen weniger gut erkannt worden. Sind sich Ärzte dieser Verzerrung nicht bewusst, kann das also gefährliche Konsequenzen haben. Die Diskriminierung kann hier nicht nur bei Frauen dramatische Folgen haben.
Pulsoximeter – die mit Hilfe von Licht, das durch Haut und Gewebe übertragen wird, den Sauerstoffgehalt im Blut einer Person messen – übersehen bei schwarzen Patienten mit dreimal höherer Wahrscheinlichkeit einen niedrigen Sauerstoffgehalt als bei weißen Patienten.
Wiebke Brinkmann, DFKI Bremen
2 Soziale Medien und Bilder
Eine K.I. kann inzwischen relativ gut erkennen, was auf Bildern dargestellt ist und diese entsprechend behandeln – je nachdem, wie es die Techfirmen auf ihren Plattformen haben wollen. Dies kann helfen, dass beispielsweise Bilder mit Gewaltdarstellungen automatisch gelöscht werden. "Laut einer Analyse werden Bilder von Frauen im Gegensatz zu denen von Männern deutlich häufiger als anzüglich eingestuft", so Brinkmann. Passiert das flächendeckend immer wieder, wird die Reichweite von Frauen zwangsläufig minimiert. Gerade Themen wie Brustkrebs, die einen wichtigen Informationsgehalt bieten, sind hier negativ betroffen: Auch wenn die Brüste selbst zensiert werden, kommt es zu Sperrungen, wie eine Analyse des Bayrischen Rundfunks zeigt. Die Sichtbarkeit von für Frauen relevanten Themen wird so eingeschränkt.
3 Arbeitsmarkt und Bewerbungen
Auch im Personalwesen sollen KI mühsame Analysen von Bewerbungsunterlagen erleichtern. Im besten Fall sind sie sogar vorurteilsfreier als der Personalchef. Schließlich ist es eine Maschine, die sich nur auf bestimmte berufsrelevante Daten bezieht. Doch mit diesen Daten muss, wie sich in der Vergangenheit gezeigt hat, mit Vorsicht umgegangen werden. Es gibt beispielsweise viele Berufe, die jahrelang – und auch noch heute – hauptsächlich von Männern ausgeführt werden. Vergleicht eine KI dann die Daten von "erfolgreichen" Arbeitnehmern mit den Bewerbern, könnten Männer Vorteile haben. Beispielsweise stellte sich, wie 2018 Medien weltweit berichteten, bei einer Bewerbungssoftware von Amazon heraus, dass Frauen in der Auswahl benachteiligt und aussortiert wurden.
Es braucht Diversität in Entwicklerteams
Aber wie geht man gegen eine solche Diskriminierung vor? Das neu gegründete Netzwerk "Woman4ethical AI" der Unesco will mit einem genaueren Fokus auf diese Themen dem zuvorkommen. Dies ist nicht nur für Frauen relevant.
Es gebe laut dem Wissenschaftler Achuta Kadambi beispielsweise physikalische Voreingenommenheit, die in der Mechanik des Geräts begründet ist, rechnerische Verzerrungen, die in der Software oder in den zur Entwicklung des Geräts verwendeten Datensätzen liegen und schließlich den Interpretationsfehler, der nicht in der Maschine, sondern in ihrem Benutzer liege.
Einen wichtigen Aspekt sieht Brinkmann allerdings auch bei den Entwicklern selbst: "Prinzipiell gilt: je diverser das Team ist, das die KI entwickelt bzw. mit Informationen füttert, um so geringer ist die Wahrscheinlichkeit einer Benachteiligung aufgrund beispielsweise Geschlecht oder Herkunft."
Dieses Thema im Programm: buten un binnen, 25. April 2023, 19.30 Uhr