Description
Les attaques par observation (SCA) exploitent les failles d’une primitive cryptographique embarquée sur un composant (type carte à puce, IoT, …), en mesurant des grandeurs physiques qui dépendent indirectement de la valeur de la clé secrète. C’est pourquoi il est primordial pour les développeurs de proposer des contre-mesures adaptées et d’évaluer leur efficacité face à un attaquant potentiel.
Au cours de la dernière décennie, les progrès effectués en apprentissage profond ont permis de bouleverser de nombreux domaines de l’informatique, dont les attaques par observation.
Malgré les récents progrès en apprentissage profond et leur application pour les attaques par observation, la communauté scientifique reste sceptique quant à l’intérêt de ces techniques, du fait de leur aspect « boîte-noire ». Cette absence d’explication, non propre à ce domaine d’application, est pourtant cruciale du point de vue de l’évaluateur ou du développeur pour identifier la faille dans l’implémentation.
Cette présentation a pour but de dresser une meilleure compréhension de l’apprentissage profond dans un contexte d’attaques par observation. Nous montrerons comment l’entraînement de tels estimateurs peut être analysé, de façon à estimer a priori la complexité d’une attaque à base de réseaux de neurones. Nous observerons également sur des simulations que ces modèles entraînés sans connaissance a priori des contre-mesures peuvent atteindre les bornes de sécurité théoriques prévues par la littérature, validant la pertinence de certaines contre-mesures comme le masquage ou la permutation aléatoire (shuffling) contre les réseaux de neurones.
Par ailleurs, nous verrons comment exploiter un réseau entraîné pour effectuer une caractérisation des traces efficace, même en présence de contre-mesures rendant d’autres techniques classiques inopérantes. Cela permet une meilleure compréhension des fuites d’information exploitées par le réseau et d’affiner le diagnostic de l’évaluateur ou du développeur, afin de proposer des corrections.
Infos pratiques
Prochains exposés
-
ML-Based Hardware Trojan Detection in AI Accelerators via Power Side-Channel Analysis
Orateur : Yehya NASSER - IMT Atlantique
Our work discusses the security risks associated with outsourcing AI accelerator design due to the threat of hardware Trojans (HTs), a problem traditional testing methods fail to address. We introduce a novel solution based on Power Side-Channel Analysis (PSCA), where we collect and preprocess power traces by segmenting them and extracting features from both time and frequency domains. This[…]-
SemSecuElec
-
Side-channel
-
Machine learning
-
Hardware trojan
-