

Des menaces interconnectées qui ciblent un monde interdépendant
Sécurité et IA en 2022 et au-delà
L’IA en 2021
En 2021, les technologies de l’IA encore considérées récemment comme étant à la pointe du secteur (par exemple, l’IA qui génère des images et du texte réalistes, mais totalement fabriqués) sont devenues accessibles aux développeurs non experts, leur permettant ainsi d’intégrer l’arsenal des tactiques d’attaque des adversaires. Ce fut également une année au cours de laquelle de nouvelles percées en matière d’IA, telles que OpenAI et les systèmes d’IA de Google qui écrivent du code source fonctionnel de très bon niveau, ont confirmé l’impact continu de l’IA sur les règles du jeu en matière de cybersécurité. Et enfin ce fut l’année durant laquelle Google DeepMind a démontré que son approche AlphaFold en matière de deep learning avait résolu le problème de prédiction de la structure des protéines, un travail fondateur qui a été comparé au séquençage du génome humain.
Au sein de la communauté des produits de sécurité, 2021 a été l’année qui a marqué la fin d’une période de changement de paradigme au sein du secteur, lorsque le Machine Learning (ML) a été reconnu comme un paramètre indispensable des pipelines de détection moderne, évoluant ainsi vers l’intégration du ML en tant qu’acteur de premier plan aux côtés des technologies de détection traditionnelles. Dans les années 2020, le simple fait qu’un éditeur utilise le ML dans une technologie de protection particulière ne sera pas remarquable, il s’agira en réalité de l’enjeu majeur. La vraie question sera alors de savoir dans quelle mesure les solutions de détection à base d’IA des entreprises seront efficaces et quelles nouvelles capacités, en dehors des flux de travail de détection autonomes, les entreprises de sécurité développeront grâce à l’IA.
L’IA est de plus en plus accessible aux acteurs malveillants
Au début de cette décennie, l’IA a confirmé sa transition d’une discipline spécialisée vers un écosystème technologique dans lequel les prototypes réussis des laboratoires de recherche avancée deviennent rapidement des composants logiciels open source accessible à la fois aux développeurs de logiciels inoffensifs, mais aussi aux adversaires malveillants.
Par exemple, le modèle de génération de texte GPT-2 d’OpenAI, que ce dernier a gardé sous clé en 2019 pour empêcher son utilisation par des acteurs malveillants, a maintenant été reproduit par des chercheurs indépendants et peut être utilisé par le grand public, avec des startups comme HuggingFace et le service SageMaker d’Amazon, devenus d’une certaine matière les pionniers d’un type de service IA ‘point-and-click’ pour les fournisseurs de contenu.
Bien que nous n’ayons pas encore assisté à une adoption généralisée par l’adversaire de ces nouvelles technologies, nous pouvons néanmoins nous attendre à ce que ce soit le cas dans les années à venir, par exemple pour la génération d’attaques par point d’eau (watering-hole) de contenu Web et d’emails de phishing. Pas très loin de ces dernières dans le « pipeline d’industrialisation » de l’IA se trouveront les technologies de synthèse vocale des réseaux neuronaux et la technologie deepfake vidéo, qui sont moins matures que les technologies de l’IA dans le domaine de l’image et du texte.