ICMLA 2021: Trainingsdaten als Risiko für die Privatsphäre?

14 September 2021

Model Inversion Attacks zielen darauf ab, Details von Trainingsdaten aus einem trainierten Modell zu extrahieren. Hierdurch können möglicherweise sensible Informationen über die Identität einer Person aufgedeckt werden. Um den Anforderungen an den Privatsphäreschutz gerecht zu werden, ist es wichtig, die Mechanismen zu verstehen, welche die Privatsphäre der Trainingsdaten erhöhen.

In ihrem Beitrag "Influence of Training Data on the Invertability of Neural Networks for Handwritten Digit Recognition" untersuchen Antonia Adler, Michaela Geierhos (beide UniBwM) und Eleanor Hobbley (ZITiS) systematisch den Einfluss der Trainingsdaten auf die Angriffs-Anfälligkeit für Model Inversion Attacks von Modellen, die für die Erkennung von handgeschriebenen Ziffern mit dem öffentlich zugänglichen MNIST-Datensatz trainiert wurden. 

Ihre Forschungsergebnisse präsentieren die drei Autorinnen auf der diesjährigen IEEE International Conference on Machine Learning and Applications (IEEE ICMLA 2021), die vom 13. bis 16. Dezember 2021 als virtuelles Event stattfindet.

Weitere Informationen zur ICMLA 2021: https://www.icmla-conference.org/icmla21/


Bildquellen: Pete Linforth / Pixabay ; Josef Steppan / Wikipedia

 

< Zur Newsübersicht