PhD defense: Gabriel Zaïd
The Tuesday, November 30, 2021
at 02:00 PM
Laboratoire Hubert Curien
"Bridging Deep Learning and Classical Profiled Side-Channel Attacks"
Jury de thèse :
- Emmanuel Prouff (Rapporteur), HDR, ANSSI & Sorbonne Université
- François-Xavier Standaert (Rapporteur), Professeur, Université Catholique de Louvain
- Thierry Artières (Examinateur), Professeur, Ecole Centrale Marseille
- Sonia Belaïd (Examinateur), PhD, CryptoExperts
- Benoît Gérard (Examinateur), PhD, Direction Générale de l’Armement & IRISA
- Marc Joye (Examinateur), HDR, Zama & Ecole Normale Supérieure
- Lilian Bossuet (Directeur de thèse), Professeur, Telecom Saint-Etienne
- Amaury Habrard (Co-directeur de thèse), Professeur, Université Jean-Monnet
- Alexandre Venelli (Responsable industriel), PhD, NXP Semiconductors
Résumé :
Au travers de cette thèse CIFRE, encadrée par le laboratoire Hubert-Curien et le CESTI de Thales, nous cherchons à mieux comprendre l’intérêt d’utiliser les techniques d’apprentissage profond dans la mise en place d’attaques par canaux auxiliaires. Difficile à configurer et à optimiser, les techniques d’apprentissage profond, très exploratoires, sont considérées comme des « boites-noires », ce qui est problématique dans le cadre d’une évaluation de sécurité où l’explicabilité et l’interprétabilité des résultats est primordial. A travers cette thèse, nous lions les paradigmes d’apprentissage profond et d’attaque par canaux auxiliaires via l’identification d’approches communes, dite générative et discriminative. Nous montrons que l’adaptation d’approches génératives, utilisées en apprentissage profond, peuvent être une première étape vers une meilleure compréhension et interprétabilité des résultats. Cela permet de réduire les limitations de « boites-noires » et ainsi, de résulter en une meilleure évaluation de sécurité. Cependant, nous montrons que ces approches ont encore quelques limitations pratiques. Considérées comme une alternative concrète, nous nous intéressons ensuite aux approches discriminatives et nous proposons une nouvelle métrique d’apprentissage, appelée Ranking Loss, qui vise à maximiser le taux de succès d’une attaque basée sur de l’apprentissage profond. Par ailleurs, pour pleinement exploiter l’information secrète, nous montrons qu’il n’est pas nécessaire d’avoir des réseaux de neurones avec une forte complexité. Cela permet notamment de réduire considérablement la phase de conception de ces réseaux, souvent exploratoire, et ainsi, réduire le temps nécessaire d’une évaluation de sécurité.