Feministische KI
Künstliche Intelligenz (KI) ist im privaten wie im beruflichen Bereich kaum noch wegzudenken. Doch wie kann sichergestellt werden, dass KI-Technologie nicht nur zur erhofften Effizienzsteigerung beiträgt, sondern auch gerecht gestaltet ist? Studien belegen, dass KI Vorurteile reproduzieren und insbesondere Frauen sowie marginalisierte Gruppen benachteiligen kann. Eine feministische Perspektive auf KI liefert einen Analyserahmen, um sichtbar zu machen, wie technologische Entwicklungen strukturelle Ungleichheiten verstärken können. Daraus ergeben sich Ansatzpunkte, wie gerechtere, inklusivere Systeme entstehen können, wenn Geschlecht, Machtverhältnisse und Diversität von Anfang an berücksichtigt werden.
Wie entsteht Diskriminierung durch KI?
Ob als Sprachassistent, Unterstützung beim Formulieren oder auch in der medizinischen Diagnostik: KI-Systeme (Denkende Maschinen) sind längst Teil unseres Alltags und immer häufiger Instrumente im Arbeitsleben. KI wird dabei oftmals als schnell, präzise und verlässlich wahrgenommen. Auch in der öffentlichen Verwaltung ist KI angekommen, etwa zum schnellen Erschließen von Dokumenten oder als Chatbot auf Behördenwebsites.
Bei genauerem Hinsehen stellen sich jedoch ethische und gesellschaftliche Fragen (Fairness-Metriken): Wie objektiv sind KI-Systeme wirklich? Werden alle Menschen gleichermaßen berücksichtigt? Studien belegen Gegenteiliges. So können sich strukturelle Ungleichheiten, denen insbesondere Frauen und marginalisierte Gruppen aufgrund ungleicher Machtverhältnisse, stereotyper Zuschreibungen sowie fehlender Daten ausgesetzt sind, auch in der digitalen Welt fortsetzen (Digital Gender). Durch die rasante Entwicklung im Bereich der KI ergeben sich für diese Fragestellung besondere Herausforderungen.
Machine-Learning Modelle (Neuronale Netze) basieren auf Trainingsdaten, die, wenn nicht kuratiert, gesellschaftliche Vorurteile widerspiegeln können. Beim Pre-Training großer Systeme wie etwa LLMs wird das Modell auf einer großen, meist unkuratierten Datenmenge trainiert. Hier steht die Menge der Daten im Vordergrund. Das Modell lernt Muster zu erkennen und Inhalte zu extrahieren. Im anschließenden Fine-Tuning spielt die Datenqualität eine zentrale Rolle. Verzerrte Daten führen hier dazu, dass die KI die in den verzerrten Daten bestehenden Muster reproduziert und mit diesem Bias die gesellschaftlichen Ungleichheiten digital fortschreibt.
Neben den Trainingsdaten beeinflussen auch Entwickler:innen und Datenexpert:innen, ob die Systeme Verzerrungen reproduzieren und so diskriminieren. In Deutschland sind 74 % der KI-bezogenen Positionen männlich besetzt, die Belegschaften fast aller deutschen Unternehmen in der Digitalbranche sind männlich dominiert. Entscheidungen über Datenauswahl und Anwendungskontexte werden daher aus einer überwiegend männlichen Perspektive getroffen. Weibliche und marginalisierte Erfahrungen bleiben unterrepräsentiert, während männlich geprägte Sichtweisen, insbesondere aus gesellschaftlich privilegierten Gruppen, dominieren.
Beispiele geschlechtsbezogener KI-Verzerrungen
Ein solcher Gender Bias kann zu gravierenden Folgen bei den KI-Anwendungen führen. So erkennen Gesichtserkennungssysteme nicht-weiße Menschen schlechter, Spracherkennungssysteme können höherfrequente Stimmen weniger zuverlässig identifizieren, Bewerbungsverfahren benachteiligen Frauen oder atypische Bewerbungen und schwarze US-Amerikaner:innen erhielten seltener Zugang zu Krediten als eine Vergleichsgruppe mit gleichen Anstellungen und ähnlichen Verschuldungsgraden.
Ursache solcher Verzerrungen sind häufig unzureichend kuratierte Trainingsdaten. Problematisch können jedoch auch die Entscheidungen der Entwickler:innen darüber sein, welche Indikatoren für ein Modell überhaupt herangezogen und wie sie gewichtet werden. So kann es beispielsweise einen Unterschied machen, ob Einkommen, Wohnort oder Bildungsgrad als entscheidende Faktoren für Kreditwürdigkeit gelten.
Ähnliche Risiken bestehen in allen Bereichen, in denen KI personenbezogene und sensible Daten verarbeitet, etwa in der öffentlichen Verwaltung oder in der Privatwirtschaft. KI wird dort eingesetzt, um Wartezeiten zu verkürzen, Verwaltungsangestellte von Routineaufgaben zu entlasten und Personallücken auszugleichen. Verzerrungen können sich dann etwa bei der Bewilligung von Hilfsgeldern, der Kreditvergabe oder internen Personalentscheidungen auswirken.
Begriffliche Verortung
Eine feministische Perspektive auf KI
Feministische KI stützt sich auf Ansätze, die Diversität und Gerechtigkeit systematisch berücksichtigen. Sie setzt an den gesellschaftlichen Strukturen an. Es geht um Gerechtigkeit, Gleichberechtigung und die Inklusion marginalisierter Gruppen. Zentrales Anliegen ist, bestehende Machtverhältnisse sichtbar zu machen und kritisch zu analysieren: Wer profitiert von KI und wer wird ausgeschlossen? Feminismus in diesem Kontext bedeutet, Prinzipien von Ethik, Fairness und Verantwortung zu verbinden, um KI-Systeme gerechter zu gestalten.
Wie kann das konkret aussehen? Ein vergleichsweise klar umrissenes Handlungsfeld liegt in der Vermeidung von Gender Bias in den Entwicklungsteams von KI-Systemen. Diversität ist dabei eine notwendige, jedoch nicht allein hinreichende Voraussetzung, um einen Gender Bias zu überwinden. Eine vielfältig zusammengesetzte Entwickler:innengruppe allein garantiert keine Fairness. Entscheidend ist das Wissen über diskriminierende Strukturen und die Fähigkeit, aktiv gegenzusteuern. Dieses Wissen ermöglicht es auch nicht-diversen Teams, Verzerrungen zu erkennen und zu vermeiden, was diversen Teams aufgrund ihrer vielfältigen Perspektiven jedoch häufig leichter fällt.
Eine feministische Sichtweise geht also über die Förderung von Frauen in Technikfeldern hinaus. Bisher fehlen jedoch weitere konkrete Ansätze, wie KI tatsächlich feministisch gestaltet werden kann. Inzwischen gibt es einige Start-ups und Initiativen, die vor allem Aufklärungsarbeit leisten, indem sie etwa Workshops durchführen und Forschungsergebnisse veröffentlichen, die auf die Problematik aufmerksam machen.
So unklar generelle Aussagen zur konkreten Umsetzung mitunter sein können, so eindeutig lassen sich Ziele und Anforderungen bestimmen. Feminismus bei KI will gerade bei kritischen Anwendungen etwa in der öffentlichen Verwaltung, in Bewerbungsverfahren oder in der medizinischen Diagnostik einseitige Perspektiven erweitern. Dies geschieht durch die Verwendung vielfältiger Datensätze, der Arbeit in interdisziplinären Teams und dem gezielten Einsatz von Fairness-Metriken. Damit dies gelingt, müssen Ursachen von Ungleichbehandlungen bereits im Entwicklungsprozess der KI adressiert werden.
Feministische KI geht über bestehende Ansätze hinaus, indem sie systematisch intersektionale Perspektiven einbezieht. Es geht nicht nur darum, Datenbias zu erkennen und auszugleichen, sondern auch soziale Strukturen, Machtverhältnisse und Mehrfachdiskriminierungen zu berücksichtigen. Feministische KI ergänzt damit bestehende Debatten zu Digital Gender, Erklärbarer KI und Fairness um eine machtkritische Perspektive, die systemische Ursachen von Diskriminierung sichtbar macht und strukturelle Gegenmaßnahmen motiviert.
Folgenabschätzung
Möglichkeiten
- Entwicklung gerechter, inklusiver KI
- Förderung gesellschaftlicher Reflexion über Diskriminierung
- Erschließung innovativer Lösungsräume durch Perspektivenvielfalt
Wagnisse
- Symbolische Instrumentalisierung von Feminismus ohne strukturelle Wirkung
- Verkürzte Bias-Verständnisse ohne Intersektionalität, also ohne die Berücksichtigung von Mehrfachdiskriminierungen
- Hoher technischer und organisatorischer Aufwand für faire Systeme
Handlungsräume
Bewusstsein schaffen
Die Auseinandersetzung mit Gender Bias in KI beginnt mit Sensibilisierung. Je mehr über Diskriminierungsbeispiele berichtet wird, desto eher lassen sich Missstände erkennen und Lösungen entwickeln. Initiativen zur Förderung feministischer KI leisten hierbei wertvolle Aufklärungsarbeit. Auch erklärbare KI-Systeme tragen dazu bei, Entscheidungsprozesse nachvollziehbar und potenzielle Verzerrungen frühzeitig sichtbar zu machen.
Vielfältige Datensätze nutzen
Ein zentraler Schritt zur Vermeidung von Diskriminierung ist die Identifikation einseitiger Datensätze und die Korrektur ihrer Verzerrungen. Es ist mehr Transparenz über Trainingsdaten nötig, auch wenn der Blackbox-Charakter vieler großer Modelle dies erschwert. Die EU-KI-Verordnung setzt hier inzwischen strenge Anforderungen an Offenheit. Zudem können synthetische Daten unterrepräsentierte Gruppen simulieren und historische Verzerrungen ausgleichen.
Methoden für Fairness entwickeln
Neben der Datenvielfalt braucht es Instrumente, um Modelle im Entwicklungs- und Trainingsprozess systematisch auf Diskriminierungen zu überprüfen. Fairness-Metriken, wie demografische Parität oder Fehlerquotengleichheit, ermöglichen die gezielte Gegensteuerung bei Verzerrungen.
Vielfalt im Trainingsprozess fördern
Der Einbezug unterschiedlicher gesellschaftlicher Gruppen ist von großer Bedeutung, um Gender Bias frühzeitig zu vermeiden. Je mehr Perspektiven einfließen, desto ausgewogener können die Ergebnisse der KI-Systeme ausfallen.
Literaturverzeichnis
- UNESCO, International Research Centre on Artificial Intelligence, “Bias Against Woman and Girls in Large Language Models”, 2024, CI/DIT/2024/GP/01
- Bitkom. 2025. »Unterlagen Pressekonferenz: Frauen in IT- und Digitalberufen 2025». Berlin: Bitkom. Bitkom-Unterlagen-Pressekonferenz-Frauen-in-IT-und-Digitalberufen-2025.pdf
- Carstensen, Tanja, Ganz, Kathrin. 2023. Gleichstellung: “Vom Algorithmus diskriminiert? Zur Aushandlung von Gender in Diskursen über Künstliche Intelligenz und Arbeit.” Böckler Impuls. Hans-Böckler-Stiftung, Düsseldorf. Vom Algorithmus diskriminiert? - Hans-Böckler-Stiftung (FoFö)
- Digital vereint. 2024. “KI als Spiegel unserer Gesellschaft: Stereotype und Grenzen”. Digitalisierung des Ehrenamts in Bayern. 20. August 2024. https://digital-vereint.de/aktuelles/ki-als-spiegel-unserer-gesellschaft-stereotype-und-grenzen/
- Suriyakumar, Vinith M., Zink, Anna, Hightower, Maia, Ghassemi, Marzyeh, Beaulieu-Jones, Brett. 2025. “Computational challenges arising in algorithmic fairness and health equity with generative AI”. Nature Computational Science
- The Mount Sinai Hospital/ Icahn School of Medicine at Mount Sinai. 2025. “Is AI in Medicine Playing Fair?” Newsroom, 7. April 2025. Is AI in Medicine Playing Fair? | Mount Sinai - New York
- Schuhmacher, Rita. 2025. “Der blinde Fleck der KI: Wie Künstliche Intelligenz Stereotype verstärkt - und was dagegen hilft.” Ver.di publik, 29. Mai 2025. Gender Bias in der KI: Wie Künstliche Intelligenz Stereotype verstärkt – und was dagegen hilft
- Cristescu, Anamaria, Omri, Safa, Knödel, Laura, Schletz, Alexander, Marsden, Nicola. 2024. “Frauen im Bereich Künstliche Intelligenz. Rollen, Potenzialentfaltung und Unternehmensstrategien” Fraunhofer-Publica. Fraunhofer IAO. Frauen im Bereich Künstliche Intelligenz
- Walk, Wolfgang. 2024. “Vom Gender-Gap zum KI-Gap: Die nächste soziale Herausforderung bahnt sich an.” TechtZeitgeist, 24. Februar 2024. Vom Gender-Gap zum KI-Gap: Die nächste soziale Herausforderung bahnt sich an - TZG - Technologie Zeitgeist
- Gerlach, Jana. 2024. “Feministische KI - Künstliche Intelligenz für alle?”. Toolbox-Blog – Gender- und Diversitykompetenz für die Lehre, 8. April 2024. Feministische KI – Künstliche Intelligenz für alle? – Toolbox-Blog
- Wudel, Alexandra. 2025. “Warum sollte Künstliche Intelligenz feministisch sein? Gleichberechtigung codieren”. FWRDTHINKERS, 8. April 2025. Folge 119. Alexandra Wudel: Warum sollte Künstliche Intelligenz feministisch sein?
- FemAI. 2025. “FemAI - AI Brand for Human Rights”. FemAI. FemAI



