MAMMOth

MAMMOth

Ziel des Projekts ist die Weiterentwicklung vertrauenswürdiger KI durch die Förderung multiattributiver Fairness für tabellarische, netzwerkbasierte und multimodale Daten. Unser Team entwickelt Methoden zur Identifikation, Minderung und Erklärung komplexer Bias- und Diskriminierungsformen, die aus der Interaktion geschützter Merkmale sowie aus zunehmender Datenkomplexität entstehen.

Über das Projekt

  • Vollständiger Name des Projekts: Multiattributive und multimodale Bias-Minderung in KI-Systemen
  • Projektakronym: MAMMOth 
  • Förderzeitraum: November 2022 – Oktober 2025 (36 Monate)
  • Finanzierung: Europäische Union unter dem Grant Agreement ID: 101070285
  • Projekt-Homepage: MAMMOth

 

Künstliche Intelligenz (KI) wird zunehmend in öffentlichen und privaten Sektoren eingesetzt, um Entscheidungen mit hoher Tragweite zu unterstützen. Obwohl diese Systeme Effizienz, Skalierbarkeit und Prognoseleistung verbessern können, bergen sie zugleich erhebliche Risiken diskriminierender Auswirkungen. Bias kann entstehen, wenn Modellvorhersagen direkt oder indirekt von geschützten Merkmalen wie Geschlecht, Herkunft oder Alter beeinflusst werden. Trotz umfangreicher Forschung zur algorithmischen Fairness gehen viele bestehende Ansätze von nur einem geschützten Merkmal aus, basieren auf stark vereinfachten Datenannahmen und erfassen nicht die Komplexität realweltlicher, heterogener Datensätze.

Um diese Einschränkungen zu überwinden, entwickelt das Projekt neue rechnergestützte Rahmenwerke zur Definition und Operationalisierung multiattributiver Fairness, also Fairness-Kriterien, die den gemeinsamen und interagierenden Einfluss mehrerer geschützter Merkmale explizit modellieren. Das Projekt entwickelt Methoden zur Erkennung, Minderung und Erklärung multidimensionaler Diskriminierung in komplexen Datenmodalitäten, darunter strukturierte tabellarische Daten, relationale Netzwerkstrukturen und multimodale Eingaben wie Bilddaten. Der methodische Schwerpunkt liegt auf der Modellierung von Attributinteraktionen, der Quantifizierung intersektionaler Verzerrungen sowie der Entwicklung fairness-orientierter Lernverfahren, die auch bei zunehmender Datenkomplexität robust bleiben. Diese Innovationen werden in drei anwendungsnahen, hochrelevanten Einsatzszenarien validiert: Kredit- und Risikoanalyse, Identitätsprüfsysteme und akademische Leistungsbewertung.

Unser Team leitet die Arbeiten zur multidimensionalen Diskriminationsminderung und entwickelt die theoretischen Grundlagen sowie die algorithmischen Methoden, die für multiattributive Fairness in komplexen KI-Systemen erforderlich sind.

 


Projektpartner 

 


Projektkategorien

Kontakt

Univ.-Prof.'in Dr. Eirini Ntoutsi

Univ.-Prof.'in Dr. Eirini Ntoutsi

Univ.-Prof.
Gebäude Carl-Wery-Str. 18, Zimmer CWS18/2818
+49 89 6004-7420