Sommaire

  • Cet exposé a été présenté le 10 janvier 2020.

Description

  • Orateur

    Loïc Masure

Les attaques par observation (SCA) exploitent les failles d’une primitive cryptographique embarquée sur un composant (type carte à puce, IoT, …), en mesurant des grandeurs physiques qui dépendent indirectement de la valeur de la clé secrète. C’est pourquoi il est primordial pour les développeurs de proposer des contre-mesures adaptées et d’évaluer leur efficacité face à un attaquant potentiel.
Au cours de la dernière décennie, les progrès effectués en apprentissage profond ont permis de bouleverser de nombreux domaines de l’informatique, dont les attaques par observation.
Malgré les récents progrès en apprentissage profond et leur application pour les attaques par observation, la communauté scientifique reste sceptique quant à l’intérêt de ces techniques, du fait de leur aspect « boîte-noire ». Cette absence d’explication, non propre à ce domaine d’application, est pourtant cruciale du point de vue de l’évaluateur ou du développeur pour identifier la faille dans l’implémentation.
Cette présentation a pour but de dresser une meilleure compréhension de l’apprentissage profond dans un contexte d’attaques par observation. Nous montrerons comment l’entraînement de tels estimateurs peut être analysé, de façon à estimer a priori la complexité d’une attaque à base de réseaux de neurones. Nous observerons également sur des simulations que ces modèles entraînés sans connaissance a priori des contre-mesures peuvent atteindre les bornes de sécurité théoriques prévues par la littérature, validant la pertinence de certaines contre-mesures comme le masquage ou la permutation aléatoire (shuffling) contre les réseaux de neurones.
Par ailleurs, nous verrons comment exploiter un réseau entraîné pour effectuer une caractérisation des traces efficace, même en présence de contre-mesures rendant d’autres techniques classiques inopérantes. Cela permet une meilleure compréhension des fuites d’information exploitées par le réseau et d’affiner le diagnostic de l’évaluateur ou du développeur, afin de proposer des corrections.

Infos pratiques

Prochains exposés

  • ML-Based Hardware Trojan Detection in AI Accelerators via Power Side-Channel Analysis

    • 16 janvier 2026 (11:00 - 12:00)

    • Inria Center of the University of Rennes - Espace de conférences

    Orateur : Yehya NASSER - IMT Atlantique

    Our work discusses the security risks associated with outsourcing AI accelerator design due to the threat of hardware Trojans (HTs), a problem traditional testing methods fail to address. We introduce a novel solution based on Power Side-Channel Analysis (PSCA), where we collect and preprocess power traces by segmenting them and extracting features from both time and frequency domains. This[…]
    • SemSecuElec

    • Side-channel

    • Machine learning

    • Hardware trojan

Voir les exposés passés