Reliability of Deep Learning with rare event simulation : theory and practice (Fiabilité du Deep Learning avec simulation d’événements rares : théorie et pratique) | ||
Tit, Karim - (2024-04-22) / Université de Rennes Reliability of Deep Learning with rare event simulation : theory and practice Langue : Anglais Directeur de thèse: Furon, Teddy; Rousset, Mathias Laboratoire : IRISA Ecole Doctorale : MATISSE Thématique : Informatique | ||
Mots-clés : simulation d'événements rares, ingénierie statistique de fiabilité, apprentissage profond, Réseaux neuronaux (informatique), Apprentissage profond Résumé : Cette thèse étudie la fiabilité des réseaux de neurones profonds en utilisant des algorithmes de simulation d’événements rares dans le cadre de l’ingénierie de la fiabilité statistique. L’objectif est d’évaluer et d’améliorer la robustesse de ces réseaux dans des situations peu communes mais cruciales. La recherche se concentre sur le développement de nouvelles méthodes statistiques spécifiquement pour les réseaux de neurones profonds. Ces méthodes sont conçues pour mieux comprendre comment ces réseaux se comportent face à des données inhabituelles ou corrompues. Une réalisation clé est la création d’un nouvel algorithme qui améliore l’applicabilité des techniques d’échantillonnage d’importance aux classificateurs différentiables, une caractéristique commune dans les modèles modernes d’apprentissage profond. L’étude met en évidence les difficultés d’application des méthodes traditionnelles de fiabilité statistique aux données complexes et de grande dimension typiques en apprentissage profond. Malgré ces défis, les résultats offrent des outils et des approches qui peuvent être appliqués à divers modèles d’apprentissage profond. Résumé (anglais) : This thesis investigates the reliability of deep neural networks using rare event simulation algorithms within the framework of statistical reliability engineering. The goal is to assess and improve the robustness of these networks in situations that are not commonly encountered but are critical. The research focuses on developing new statistical methods specifically for deep neural networks. These methods are designed to better understand how these networks behave when faced with unusual or corrupted data. A key achievement is the creation of a new algorithm that improves the applicability of importance sampling techniques to classifiers that are differentiable, a common trait in modern Deep Learning models. The study highlights the difficulties of applying traditional statistical reliability methods to the complex and high-dimensional data typical in Deep Learning. Despite these challenges, the findings offer valuable tools and approaches that can be applied to various deep-learning models. Identifiant : rennes1-ori-wf-1-19267 |
Exporter au format XML |