DIGITALISIERUNG

Künstliche Intelligenz

Künstliche Intelligenz (KI) – Kind männlichen Geistes?

Künstliche Intelligenz (KI) – Kind männlichen Geistes?

Zunehmend umgeben uns Anwendungen und Geräte, deren Funktionen auf künstlicher Intelligenz, auf selbständig lernenden Algorithmen, basieren. Zwar begegnen uns diese Formen künstlicher Intelligenz oft augenscheinlich weiblich – wie bei Alexa, Siri, Cortana oder weiblich voreingestellten Stimmen von Navigationsgeräten – doch ist ihr „Inneres“ vor allem männlich geprägt. Das Gros der Menschen, die in der KI-Industrie arbeiten, sind Männer, und sie programmieren männliche Denkweisen, männliche Perspektiven, männliche Logikreihen in die Algorithmen. Der Global Gender Gap Report des Weltwirtschaftsforums aus dem Dezember 2018 dokumentierte, dass 78% der Beschäftigten im KI-Sektor Männer sind und damit der Gender Gap hier dreimal so hoch ist wie in anderen Industrien.

Warum dann weibliche Stimmen? „Weil sie in der Mensch-Computer-Interaktion suggerieren, Hilfe anzubieten, um die Probleme selbst zu lösen; männliche Stimmen suggerieren, uns Lösungen mitzuteilen“, schreibt Professorin Regina Ammicht-Quinn von der Universität Tübingen. „Die Voreinstellungen der Frauenstimmen lassen sich ändern; aber als Voreinstellungen sind sie Ausdruck gesellschaftlicher „Vor“-Einstellungen, anhand derer die Systeme in das Leben integriert werden.“ Dies spiegele die strukturelle Benachteiligung von Frauen ebenso wie die Zuordnung von Attributen wie hilfsbereit, unterstützend, geduldig als weiblich.

Die Algorithmen fußen allerdings nicht nur auf einer vorwiegend männlichen Perspektive, sondern auch auf vergangenheitsbasierten und teilweise verzerrten Datensätzen, die überholte gesellschaftliche Diskriminierungsmechanismen weiter oder erneut transportieren. Datenbasierte KI-Systeme sind nicht objektiv, und dies führt zu zahlreichen Problemen und manifestiert strukturelle Benachteiligungen:

Anwendungen im Personalwesen treffen Prognosen zu Eignung, Fluktuation und Krankheitstagen potenzieller Bewerber*innen anhand eingesandter Lebensläufe. Menstruations-Apps schalten in von ihnen ermittelten „vulnerablen“ Zeitfenstern personalisierte Werbung. Mit Hilfe von KI-Berechnungen werden Kredite vergeben, Studienplätze verteilt und vorzeitige Haftentlassungen erwogen. Der Umgang mit Daten erfordere eine hohe Kompetenz, stellt Professorin Katharina Simbeck von der Hochschule für Technik und Wirtschaft Berlin fest: Es brauche die richtigen Fragestellungen mit den richtigen Daten, die korrekt ausgewertet und interpretiert werden müssten.

Der Gender Gap Report listet Deutschland auf dem dritten Platz der führenden „KI-Nationen“ nach den USA und Indien, aber auf dem drittletzten Platz angesichts eines Frauenanteils von nur 16 Pro-zent unter den dort Beschäftigten. Außerdem arbeiten Frauen im KI-Bereich zu großen Teilen in schlechter bezahlten und weniger angesehenen Positionen.

Eine reine Erhöhung des Frauenanteils reiche jedoch nicht aus, um Geschlechterungerechtigkeit und Diskriminierung durch KI zu beseitigen, resümiert Professorin Ammicht-Quinn: „Der ‚pale male mainstream‘ muss sich verändern – im Hinblick auf seine Dominanz, genauso aber im Hinblick auf eine Erweiterung seiner Kompetenzen: Für Gerechtigkeitsfragen sind nicht allein diejenigen zuständig, die diskriminiert werden, sondern alle.“

Verena Maretzki

Bundesfrauenausschuss positioniert sich pro Qualifizierung, Gewinnung junger Frauen für MINT-Berufe und Ausweitung betrieblicher Mitbestimmung

Die Entwicklung künstlicher Intelligenz-Systeme muss äußerst dringend dahingehend beeinflusst werden, dass vielfältige Perspektiven einfließen. Daher fordert der Bundesfrauenausschuss der IGBCE unter anderem, dass die gleichberechtigte Teilhabe an Nutzung und Gestaltung digitaler Technologien unabhängig vom Geschlecht sichergestellt wird, und zwar durch Gesetzgeber und Arbeitgeber.

Die Gewinnung von weiblichem Nachwuchs für das Spezialgebiet steht außer Frage, folglich steigt die Bedeutung lebensphasengerechter Angebote der Qualifizierung, der Arbeit und der Weiterbildung. Dazu trägt ebenfalls eine erzwingbare Mitbestimmung bei der Personalplanung bei, insbesondere bei der Verwendung von Algorithmen: Sie müssen diskriminierungsfrei und gendersensibel gestaltet sein, damit Bewerber*innen bei automatisierten Auswahlverfahren keine Nachteile erfahren.

Quellen

  • KI, Genderfragen und Diskriminierungen. Ein Expertinnenbeitrag von Professorin Regina Ammicht-Quinn, Universität Tübingen
  • Kongress in Magdeburg – Künstliche Intelligenz hat ein Gender-Problem von Anna Berchtenbreiter
  • Algorithmen diskriminierungsfrei gestalten, Vortrag von Prof. Dr. Katharina Simbeck, Hochschule für Technik und Wirtschaft Berlin, für die Hans-Böckler-Stiftung