Bias in bildgenerierender KI erkennen und reduzieren, durch ethikorientierte Technikentwicklung und empirisch fundierte Validierung.
EvenFAIr Evaluation und Entwicklung von Fairness in generativer KI

Überblick
Text-zu-Bild-Generierungsmodelle werden in verschiedenen Branchen, einschließlich der Mobilität und sicherheitskritischer Systeme, weit verbreitet eingesetzt, spiegeln jedoch häufig Verzerrungen (Bias) wider. Das Projekt EvEn FAIr entwickelt ein offenes, standardkonformes Rahmenwerk zur Evaluation und Reduktion von Bias in generativer KI, mit einem Schwerpunkt auf Fairness in der Bildgenerierung.
Das Projekt verbindet empirische Ethik mit KI-Engineering. Eine Forschungslinie untersucht, wie Nutzer Fairness wahrnehmen und welche Verzerrungen sie als inakzeptabel betrachten. Diese Erkenntnisse werden in technische Anforderungen übersetzt, die die Entwicklung fairness-sensitiver KI-Systeme leiten. Eine weitere Forschungslinie konzentriert sich auf die Implementierung und Validierung von Methoden, wie kausale Fairness-Techniken und Rückkopplungsschleifen, zur Evaluation und Reduktion von Verzerrungen in diskriminativen und generativen Modellen.
Durch diesen interdisziplinären Ansatz trägt EvEn FAIr zur Entwicklung transparenter und vertrauenswürdiger KI bei und unterstützt künftige Zertifizierungen gemäß dem EU AI Act und relevanten DIN-Normen.
Projektteam
Die Forschungsgruppe CVIMS - Computer Vision for Intelligent Mobility Systems ist auf Algorithmen zur Bildinterpretation und zur Erzeugung synthetischer Bilddaten mittels generativer Modelle über verschiedene Modalitäten hinweg spezialisiert. Diese Kompetenzen bilden die technische Grundlage des Projekts EvEn FAIr, das Expert:innen aus den Bereichen Ethik und Künstliche Intelligenz zusammenbringt, um Fragen der Fairness in generativen Systemen zu adressieren. Darüber hinaus hat EvEn FAIr das Potenzial, methodische Rahmenwerke für weitere Projekte der CVIMS-Gruppe zu etablieren.
EvEn FAIr ist eine gemeinsame Initiative der Technischen Hochschule Ingolstadt (THI) und des TechHub by efs. Das Projekt vereint ein interdisziplinäres Team von Expert:innen, darunter:
- Prof. Dr. Torsten Schön (CVIMS, THI) übernimmt die Gesamtkoordination des Projekts.
- Prof. Dr. Matthias Uhl (Universität Hohenheim) begleitet das Projekt als externer wissenschaftlicher Berater.
- Dr. Florian Richter (THI), verantwortlich für die Erforschung gesellschaftlicher Wahrnehmungen von Fairness in technischen Systemen.
- Venkatesh Thirugnana Sambandham (Wissenschaftlicher Mitarbeiter, CVIMS, THI), der Methoden zur Bewertung von Fairness sowie zur Verringerung von Verzerrungen (Bias-Mitigation) entwickelt.
- Megan Smith (Wissenschaftliche Mitarbeiterin, THI), die zur algorithmischen Fairness in KI-generierten Bildern forscht und ethische Leitlinien für Text-zu-Bild-Generatoren entwickelt. Zudem unterstützt sie die Planung empirischer Studien und die Lehre in Forschungsmethodik.
- Ein spezialisiertes Team des TechHub by efs, das an der Bewertung von Fairness in diskriminativen Modellen zur Ableitung demografischer Merkmale aus Bildern sowie an der Entwicklung von Strategien zur Verzerrungsminderung in Bildgenerierungsalgorithmen arbeitet.
Gemeinsam entwickelt das Team Strategien zur Verbesserung der Fairness und Inklusivität KI-generierter Bilder.
Methodik zur Fairness-Evaluation
EvEn FAIr verfolgt einen integrierten Ansatz, der ethische Reflexion mit technischer Entwicklung verbindet. Eine Forschungsgruppe untersucht, wie Menschen Verzerrungen wahrnehmen und welche Erwartungen sie an Fairness haben. Diese Rückmeldungen werden von einer weiteren Gruppe genutzt, um gesellschaftliche Werte in messbare technische Kriterien zu überführen. Diese Kriterien werden beim Training von diskriminativen und generativen KI-Modellen angewendet, um Verzerrungen zu untersuchen und zu mindern.
Kernelemente des Fairness-Rahmenwerks
- Interdisziplinärer Ansatz: Verknüpft empirische Ethik und technische Forschung zur Definition von Fairness auf Grundlage gesellschaftlicher Werte und Erwartungen relevanter Stakeholder.
- Evaluation der Fairness generativer KI: Entwicklung des ersten Frameworks zur systematischen Analyse und Quantifizierung von Fairness in bildgenerierenden KI-Modellen.
- Integration ins Modelltraining: Feedback-basierte Bias-Korrektur während des Trainings von diskriminativen und generativen Modellen.
- Technische Leitlinien für faire KI: Übersetzung ethischer Prinzipien in konkrete technische Kriterien zur Unterstützung der Konformität mit dem EU AI Act und DIN-Normen.
Ergebnisse und Wirkung von EvEn FAIr
Das Projekt entwickelt neue Methoden zur Sicherstellung von Fairness in generativen Modellen und verbindet diese mit Erkenntnissen aus der Evaluation diskriminativer Modelle. Dies soll zur Etablierung KI-gestützter Systeme beitragen, die frei von Vorurteilen und unfairen Verzerrungen sind.
Die Projektergebnisse werden in die Lehre an der THI integriert (z. B. in Bachelor-/Masterstudiengängen für KI oder Informatik) und über Open-Source-Pakete zur Verfügung gestellt (z. B. Trainingsskripte, Daten, Modellarchitekturen).
Zukünftige Projekte im Bereich Fairness und Ethik in der KI sollen auf den in EvEn FAIr entwickelten methodischen Grundlagen aufbauen.
Partner
Das Projekt EvEn FAIr wird in Partnerschaft mit dem TechHub by efs durchgeführt und von der Bayerischen Transformations- und Forschungsstiftung gefördert.
THI Ansprechpartner
Prof. Dr. Torsten Schön
Tel.: +49 841 9348-2335
Raum: K201
E-Mail: Torsten.Schoen@thi.de
Venkatesh Thirugnana Sambandham
Tel.: +49 841 9348-6535
Raum: K203
E-Mail: Venkatesh.ThirugnanaSambandham@thi.de
In Kooperation mit
Gefördert von
















