Fairness in der KI vorantreiben: Schlüsselerkenntnisse vom 5. Plenum des MAMMOth-Projekts in Wien

16 Januar 2025

Tag 1: Präsentationen der Fortschritte und Schlüsselerkenntnisse

Der erste Tag der 5 Vollversammlung des MAMMOth-Projekts in Wien begann mit einer Reihe von aufschlussreichen Präsentationen, in denen Swati Swati, Arjun Roy und Prof. Eirini Ntoutsi, die jüngsten Fortschritte im Bereich des fairen maschinellen Lernens im Rahmen von MAMMOth vorstellte. Die Mitglieder des Konsortiums kamen zusammen, um über Fortschritte in verschiedenen Bereichen zu diskutieren. Die Präsentationen setzten ein deutliches Zeichen für den gemeinsamen Fortschritt bei der Bekämpfung von Unfairness und Verzerrungen in KI-Systemen.

Der erste Tag konzentrierte sich auf die wichtigsten Ergebnisse aus verschiedenen Forschungsbereichen:

  • Verzerrungen bei multimodalen Fusion: Herausforderungen und Auswirkungen von Verzerrungen bei der Integration verschiedener Datenmodalitäten in KI-Systemen wurden angesprochen, wobei Lösungen vorgeschlagen wurden, um Fairness über integrierte Datenmodalitäten hinweg zu gewährleisten.

[Swati Swati, Arjun Roy, Eirini Ntoutsi, Exploring Fusion Techniques in Multimodal AI-Based Recruitment: Insights from FairCVdb. Proceedings of the 2nd European Workshop on Algorithmic Fairness (EWAF’24)]

  • Bias-Minderung in Multi-Task-Learning und föderierten Umgebungen: Es wurden Fortschritte bei Strategien zur Abschwächung von Verzerrungen über mehrere Aufgaben hinweg sowie bei der Erforschung von Kompromissen zwischen Privatsphäre und Diskriminierung in föderierten Lernsystemen vorgestellt.

[Arjun Roy, Christos Koutlis, Symeon Papadopoulos, Eirini Ntoutsi, FairBranch: Mitigating Bias Transfer in Fair Multi-task Learning, International Joint Conference on Neural Networks (IJCNN’24)]

  • Synthetische Daten und kontrafaktische Erklärungen: Die laufenden Arbeiten zur Generierung synthetischer Daten für die Abschwächung von Verzerrungen wurden ebenso vorgestellt wie die Verwendung kontrafaktischer Erklärungen zur Bewertung der Fairness in gemischten tabellarischen Daten.

[Panagiotou Emmanouil, Arjun Roy, and Eirini Ntoutsi, Synthetic Tabular Data Generation for Class Imbalance and Fairness: A Comparative Study. 4th BIAS workshop, co-located with ECML PKDD 2024 (BIAS’24).]

[Emmanouil Panagiotou, Manuel Heurich, Tim Landgraf, Eirini Ntoutsi, TABCF: Counterfactual Explanations for Tabular Data Using a Transformer-Based VAE. 5th ACM International Conference on AI in Finance (ICAIF'24).]

  • Widerstandsfähigkeit und Ungleichheiten in Untergruppen: Es wurden Forschungsarbeiten zur Robustheit und zu Unterschieden zwischen demografischen Untergruppen bei der Prüfung gegen Angriffe von Angreifern erörtert. 

[Ramanaik Chethan Krishnamurthy, Arjun Roy, and Eirini Ntoutsi. Adversarial Robustness of VAEs across Intersectional Subgroups. 4th BIAS workshop, co-located with ECML PKDD 2024 (BIAS’24).]

Tag 2: Öffentliches Engagement und Workshop

Am zweiten Tag wurde das MAMMOth-Toolkit in einem praktischen Workshop einem breiteren Publikum vorgestellt, das wertvolle Rückmeldungen erhielt. Prof. Ntoutsi hielt auch einen Vortrag über die vielen Facetten der Verzerrung in der KI und unterteilte sie in i) nützliche Verzerrung, wie induktive Verzerrung, die das Lernen ermöglichen, ii) problematische Verzerrung, die die Verallgemeinerung von Modellen behindern (anhand des Anwendungsfalls der Ernteklassifizierung aus dem Projekt STELAR) und iii) schädliche Verzerrung, die zu Diskriminierung und Schaden führen.

Blick in die Zukunft

Auf dem Treffen in Wien wurden neue Ziele für die Verfeinerung des MAMMOth-Toolkits festgelegt, wobei sowohl interne Teams als auch externe Teilnehmer ihre Erkenntnisse einbrachten. Mit den Beiträgen der UniBwM, die für die Entwicklung des Projekts von zentraler Bedeutung sind, freut sich das Team darauf, weiter daran zu arbeiten, Fairness und Transparenz in der multimodalen KI sicherzustellen.