MAMMOth
Über das Projekt
- Vollständiger Name des Projekts: Multiattributive und multimodale Bias-Minderung in KI-Systemen
- Projektakronym: MAMMOth
- Förderzeitraum: November 2022 – Oktober 2025 (36 Monate)
- Finanzierung: Europäische Union unter dem Grant Agreement ID: 101070285
- Projekt-Homepage: MAMMOth
Künstliche Intelligenz (KI) wird zunehmend in öffentlichen und privaten Sektoren eingesetzt, um Entscheidungen mit hoher Tragweite zu unterstützen. Obwohl diese Systeme Effizienz, Skalierbarkeit und Prognoseleistung verbessern können, bergen sie zugleich erhebliche Risiken diskriminierender Auswirkungen. Bias kann entstehen, wenn Modellvorhersagen direkt oder indirekt von geschützten Merkmalen wie Geschlecht, Herkunft oder Alter beeinflusst werden. Trotz umfangreicher Forschung zur algorithmischen Fairness gehen viele bestehende Ansätze von nur einem geschützten Merkmal aus, basieren auf stark vereinfachten Datenannahmen und erfassen nicht die Komplexität realweltlicher, heterogener Datensätze.
Um diese Einschränkungen zu überwinden, entwickelt das Projekt neue rechnergestützte Rahmenwerke zur Definition und Operationalisierung multiattributiver Fairness, also Fairness-Kriterien, die den gemeinsamen und interagierenden Einfluss mehrerer geschützter Merkmale explizit modellieren. Das Projekt entwickelt Methoden zur Erkennung, Minderung und Erklärung multidimensionaler Diskriminierung in komplexen Datenmodalitäten, darunter strukturierte tabellarische Daten, relationale Netzwerkstrukturen und multimodale Eingaben wie Bilddaten. Der methodische Schwerpunkt liegt auf der Modellierung von Attributinteraktionen, der Quantifizierung intersektionaler Verzerrungen sowie der Entwicklung fairness-orientierter Lernverfahren, die auch bei zunehmender Datenkomplexität robust bleiben. Diese Innovationen werden in drei anwendungsnahen, hochrelevanten Einsatzszenarien validiert: Kredit- und Risikoanalyse, Identitätsprüfsysteme und akademische Leistungsbewertung.
Unser Team leitet die Arbeiten zur multidimensionalen Diskriminationsminderung und entwickelt die theoretischen Grundlagen sowie die algorithmischen Methoden, die für multiattributive Fairness in komplexen KI-Systemen erforderlich sind.
Projektpartner
Projektkategorien
- Ethik und Regulierung von KI
- Sprach- und Bildverarbeitung
- Human-AI-Interaction und Rezilienzforschung
- Verantwortungsvolle/Vertrauenswürdige KI
