Version imprimable
"Faire confiance mais vérifier" : robustesse des audits statistiques des modèles d’apprentissage en boîte noire
("Trust but verify": robust statistical auditing of ML black-boxes)

Garcia Bourrée, Jade - (2025-10-06) / Université de Rennes - "Faire confiance mais vérifier" : robustesse des audits statistiques des modèles d’apprentissage en boîte noire

Langue : Anglais
Directeur de thèse:  Le Merrer, Erwan; Trédan, Gilles
Laboratoire :  INRIA-RENNES
Ecole Doctorale : MATISSE

Thématique : Informatique
Accès à la ressource : https://ged.univ-rennes1.fr/nuxeo/site/esupversion...

Mots-clés : audit, équité, apprentissage automatique, Apprentissage automatique, Commande robuste

Résumé : L'opacité des modèles d'apprentissage automatique soulève d'importantes questions quant à leur équité, en particulier lorsque leurs décisions ont une influence directe sur la vie des individus. Les audits externes, réalisés sans accès au code ou aux données internes, constituent un outil essentiel pour évaluer ces systèmes. Cette thèse analyse les conditions de validité des audits en boîte noire et met en évidence les tensions méthodologiques qu'ils soulèvent. Tout d'abord, elle montre que la détection des manipulations stratégiques par les plateformes, un phénomène connu sous le nom de fairwashing, nécessite que l'auditeur utilise des sources d'information indépendantes. Sur la base de cette observation, deux modèles d'audit sont proposés pour évaluer l'équité et identifier les manipulations. Ensuite, la pertinence de ces sources indépendantes est discutée et leurs limites sont précisées. Nous proposons également deux modèles d'audit collaboratif pour surmonter ces limites. Ces résultats conduisent à l'élaboration de modèles d'audit opérationnels qui alignent les pratiques d'audit sur les exigences réglementaires, soulignant l'importance de cette recherche dans le domaine des audits d'apprentissage automatique.

Résumé (anglais) : The opacity of machine learning models raises important questions about their fairness, particularly when their decisions directly influence people's lives. External audits, conducted without access to internal code or data, are a key tool for evaluating these systems. This thesis analyzes the conditions for the validity of black-box audits and highlights the methodological tensions they raise. First, it shows that detecting strategic manipulation by platforms, a phenomenon known as fairwashing, requires the auditor to use independent sources of information. Based on this observation, two audit models are proposed to assess fairness and identify manipulation. Second, the relevance of these independent sources is discussed, and we specify their limitations. We also propose two collaborative audit models to overcome these limitations. These results yield the development of operational audit models that align practices with regulatory requirements, highlighting the significance of this research in the field of machine learning audits.

Identifiant : rennes1-ori-wf-1-21327
Exporter au format XML