MAMMOth-Projekt endet mit bedeutenden Fortschritten zur Minderung von multidimensionalen Bias in KI Systemen
31 Oktober 2025
MAMMOth-Projekt endet mit bedeutenden Fortschritten zur Minderung von multidimensionalen Bias in KI Systemen
Das durch Horizon Europe geförderte Projekt MAMMOth (Multi-Attribute, Multimodal Bias Mitigation in AI Systems) wurde am 31. Oktober 2025 offiziell abgeschlossen. Nach drei Jahren wegweisender Arbeit zur Entwicklung fairerer, inklusiverer und verantwortungsvoller Künstlicher Intelligenz brachte das Projekt akademische, industrielle und gesellschaftliche Partner zusammen, um Bias in KI-Systemen zu adressieren und praxisnahe Werkzeuge und Wissen für fairness-orientierte KI-Entwicklung bereitzustellen. Die Ergebnisse bieten politischen Entscheidungsträgern, Technologieentwicklern und der Gesellschaft konkrete Strategien, um Fairness in den Mittelpunkt von KI-Innovation zu stellen.
Als leitender Beitragender im Bereich der multidimensionalen Bias-Minderung spielte das AIML Team der UniBw eine zentrale wissenschaftliche, forschungsbezogene und technische Rolle. Es prägte die Projektergebnisse maßgeblich durch die Entwicklung von Methoden und Werkzeugen zur Definition, Analyse, Minderung und Erklärung von Bias in multidimensionalen Kontexten.
Beiträge unserer Arbeitsgruppe
Im Verlauf des Projekts entwickelte das AIML-Team ein breites Spektrum an theoretischen, methodischen und softwarebezogenen Ansätzen, die Fairness über mehrere geschützte Merkmale, Datenmodalitäten und algorithmische Pipelines hinweg adressieren. Dazu gehören:
- Eine generische Formulierung multidimensionaler Diskriminierung und Beiträge zum AI Fairness Definition Guide
- Multi-Objective-Optimierungsansätze für Multi-Attribut-Fairness
- Methoden zur Bias-Minderung über mehrere Aufgaben hinweg sowie Bias-Analysen in multimodaler fusion
- Eine Methode für sozioökonomische Fairness im Einklang mit den Grundsätzen des EU AI Act
- MMM-Fair, eine Open-Source-Bibliothek für multidimensionale Fairnessanalyse mit interaktiver Visualisierung, Tradeoff-Exploration, einer No-Code-Chat-Schnittstelle sowie CLI-Interface und LLM-gestützten Erklärungen
- Fairness-orientierte Erzeugung synthetischer Tabellendaten, darunter
- synthetische Datengeneratoren für Klassenungleichgewicht und Fairness
- der tabellarische Datengenerator TABFAIRGDT
- Techniken zur Bewertung von Disparitäten in adversarieller Robustheit und adversariellen Angriffen auf Autoencoder
- Methoden zur Analyse des Fairness-Utility-Abwägung in Graph-Clustering
Weitere Ergebnisse des MAMMOth-Projekts
Laut offizieller Projektpressemitteilung erzielte MAMMOth weitreichende Resultate über die wissenschaftliche Entwicklung hinaus, darunter:
- Das MAI-BIAS Toolkit zur Erkennung, Analyse und Minderung von Bias in Datensätzen und KI-Modellen
- Fairness-orientierte Bibliotheken und Methoden mit Anwendungen in Finanzwesen, Identitätsprüfung, multimodaler Fusion und Analyse akademischer Wirkung
- Umfassende Trainings- und Öffentlichkeitsarbeit mit mehr als 30 Workshops, fünf Webinaren, Podcasts und öffentlichen Ausstellungen
- Policy-Briefs im Einklang mit dem EU AI Act, die praxisorientierte Empfehlungen für Governance fairer KI bereitstellen
- Outreach an mehr als 12.000 Organisationen, unterstützt durch umfangreiche Disseminationsaktivitäten
Wirkung und Vermächtnis
MAMMOth hat die Grundlagen intersektionaler, multimodaler und multidimensionaler Fairness in KI nachhaltig gestärkt. Durch die Verbindung methodischer Innovation mit praxisnahen Werkzeugen setzte das Projekt neue Standards für die Bewertung und Minderung von Bias in realen KI-Systemen.
Die Open-Source-Software, Datensätze, methodischen Rahmenwerke und politischen Empfehlungen des Projekts bleiben über die AI-on-Demand-Plattform, GitHub und mammoth-ai.eu zugänglich und sichern eine langfristige Wirkung über das Projektende hinaus.