News
KI, Genderfragen und Diskriminierungen
Professorin Regina Ammicht Quinn von der Universität Tübingen hat im Rahmen des Wissenschaftsjahrs 2019 „Künstliche Intelligenz“ einen Expertinnenbeitrag zum Thema Gender und IT veröffentlicht.
Sie spricht darin unter anderem die Problematik an, dass KI-Assistenzsysteme wie SIRI, ALEXA und CORTANA Frauennamen haben und mit „weißen“ Frauenstimmen sprechen. Sie sind hilfsbereit, unterstützend, vertrauenswürdig, verlässlich, kompetent, effizient, geduldig und anspruchslos. Als Voreinstellungen sind die weiblichen Stimmen Ausdruck gesellschaftlicher Vor-Einstellungen, anhand derer die Systeme in das Leben integriert werden.
Der Global Gender Gap Report des World Economic Forum, der im Dezember 2018 veröffentlicht wurde, zeigt auf, dass zum jetzigen Zeitpunkt die Erfolge der Geschlechtergerechtigkeit in Kernbereichen wie Gesundheit, Bildung, Ökonomie und Politik erneut in Frage stehen: durch Künstliche Intelligenz.
Zugleich sind Genderfragen Teil eines breiten Diskriminierungsproblems vieler KI-Systeme. Wo mit Hilfe von KI-Berechnungen Kredite vergeben, Studienplätze verteilt und Entscheidungen über vorzeitige Haftentlassung getroffen werden, können historische und/oder verzerrte Daten zu größten Gerechtigkeitsproblemen führen.
Die Autorin fordert: Der „pale male mainstream“ muss sich verändern – im Hinblick auf seine Dominanz, genauso aber im Hinblick auf eine Erweiterung seiner Kompetenzen: Für Gerechtigkeitsfragen sind nicht allein diejenigen zuständig, die diskriminiert werden, sondern alle. Und alle, die an und mit KI-Systemen arbeiten, haben die Aufgabe, die Technik im Sinn des Gemeinwohls zu entwickeln und zu nutzen.
GENDER//WISSEN//INFORMATIK" in den soziale Netzwerken