J'ai passé ma carrière à explorer les méandres de la sécurité de l'information, passant des audits techniques approfondis aux tâches cruciales de gouvernance, de gestion des risques et de conformité (GRC) de l'IA générative. Durant tout ce temps, j'ai appris une vérité immuable : chaque changement de paradigme technologique majeur entraîne une modification correspondante de la stratégie d'attaque. Ces dix dernières années, nous nous sommes appuyés sur la formation et les technologies de sécurité pour nous protéger contre le phishing. Je suis ici aujourd'hui pour vous annoncer que cette époque est révolue. Dès que nous avons célébré avec succès la formation de nos collègues à repérer les e-mails mal conçus, les adversaires ont modernisé l'ensemble de leurs capacités opérationnelles. La question brûlante à laquelle je suis confronté chaque jour est la suivante : comment se défendre contre une entité qui agit avec la planification, la persévérance et la profondeur psychologique d'un acteur humain spécialisé dans la menace, tout en agissant à la vitesse et à l'échelle d'une machine ? C'est le principal défi posé par l'IA agentique. Dans cet article, je souhaite vous expliquer pourquoi Agentic AI est l'arme ultime pour exploiter l'élément humain, dépassant largement le simple phishing pour atteindre des manipulations plus subtiles. Je partagerai mon point de vue sur la manière dont cette technologie transforme fondamentalement la chaîne de destruction cybernétique, en m'appuyant sur mon expérience en GRC pour illustrer les failles critiques de nos stratégies actuelles de gestion des risques liés aux tiers et de résilience opérationnelle. Pour tout développeur, ingénieur ou professionnel de la sécurité qui lit ceci, comprendre cette évolution n'est pas une option ; c'est la nouvelle base de survie. Définir l'agent : pas le LLM de votre grand-père Lorsque la plupart des acteurs du secteur évoquent l'IA dans le contexte des cyberattaques, ils imaginent encore des modèles de langage étendus (MLL) générant des e-mails de spear-phishing contextuellement irréprochables. Il s'agit certes d'une menace sérieuse, mais fondamentalement passive. L'adversaire a toujours besoin d'un humain (ou d'un script) pour gérer la campagne, analyser les réponses et décider de la suite. L'IA agentique est différente. Je la définis comme un système construit autour d'un LLM, doté de la capacité de raisonner, de planifier, d'exécuter des actions dans le monde numérique externe et, surtout, de s'autocorriger en fonction des retours. Il s'agit moins d'un outil que d'une entité logicielle autonome. L'agent définit un objectif, par exemple l'exfiltration de données client sensibles, puis élabore un plan en plusieurs étapes : trouver une cible, recueillir des renseignements, sonder les vulnérabilités, concevoir un exploit et gérer l'intrusion. Si l'étape 3 échoue, l'agent ne s'arrête pas ; il réoriente, apprend et tente une nouvelle approche. La différence cruciale que j'analyse dans mes travaux en GRC réside dans l'autonomie. Une IA agentique peut passer des semaines, voire des mois, à effectuer une reconnaissance silencieuse et continue, adaptant ses tactiques d'ingénierie sociale en temps réel jusqu'à trouver le maillon faible nécessaire – et ce maillon est presque toujours humain. La nouvelle chaîne de destruction : optimisation psychologique à grande échelle La chaîne de destruction cybernétique traditionnelle repose sur une séquence d'événements chronophages, nous offrant des fenêtres d'opportunité pour détecter et atténuer les menaces. L'IA agentique réduit ces fenêtres à près de zéro. Je vois l'accélération la plus dangereuse se produire dès les premières phases : la reconnaissance et la militarisation. Pendant des années, j'ai prôné l'importance de limiter les fuites d'informations. Aujourd'hui, une IA agentique peut effectuer le travail de vingt analystes chevronnés en quelques minutes, synthétisant les données des réseaux sociaux, des archives publiques et des forums du dark web. Elle ne se contente pas de trouver le nom et le titre d'un employé ; elle cartographie ses relations, ses projets récents, ses compétences linguistiques techniques et même son état émotionnel à partir de ses publications publiques. En matière d'ingénierie sociale, l'agent optimise les vulnérabilités psychologiques. Le phishing traditionnel est une opération de type « spray and praying » (selon la méthode utilisée) visant à attraper les cibles faciles. L'IA agentique élabore un récit hyper-personnalisé. Elle sait précisément quel projet je dirige actuellement, avec quel fournisseur tiers je travaille le plus et à qui j'accorde une confiance absolue. Elle peut générer des communications qui reproduisent parfaitement le ton, le rythme et le jargon interne d'un homologue de confiance, exploitant ma confiance humaine pour contourner les couches de sécurité technique. Cette capacité n'est pas seulement une menace ; elle remet profondément en question le concept même de « pare-feu humain ». Ma bataille sur le périmètre : le vecteur tiers Dans mon rôle actuel, la gestion des risques liés aux tiers est primordiale. J'ai toujours compris que ma sécurité dépend de la solidité de mon fournisseur le plus faible. Mais Agentic AI transforme cette information en catastrophe. J'ai récemment simulé un scénario d'attaque qui a cristallisé le danger pour moi. Je me suis concentré sur un fournisseur de services gérés (MSP) qui gère la surveillance de notre environnement cloud – un partenaire de confiance et de longue date. J'ai conçu une IA Agentic pour cibler ce fournisseur spécifique, non pas par e-mail massif, mais par une campagne d'ingénierie sociale complexe visant l'un de ses ingénieurs juniors, dont je savais qu'il disposait d'un accès administrateur. L'agent a passé une semaine à créer une fausse identité numérique. Il a ainsi créé le profil très détaillé d'un nouveau contact client imaginaire partageant un intérêt technique particulier avec l'ingénieur ciblé. Lorsque l'agent a finalement pris contact, il ne s'agissait pas d'une demande d'identifiants, mais d'une demande d'assistance apparemment complexe concernant une API partenaire vulnérable utilisée par le MSP. La communication a été impeccable : utilisation correcte de la terminologie technique, urgence polie et extrait de code apparemment légitime, mais malveillant, pour « déboguer » le prétendu problème d'API. L'ingénieur, se fiant à ce qu'il percevait comme un collègue crédible cherchant une assistance technique sur une API familière, a exécuté le code. Ce qui s'est passé ensuite était terrifiant : l'agent a automatiquement pivoté grâce aux identifiants compromis, a établi la persistance et a commencé à cartographier mon réseau, le tout dans les vingt minutes suivant la première interaction humaine. J'ai alors réalisé le changement profond : l'agent n'avait pas besoin d'une vulnérabilité de mon système pour exécuter la brèche ; il a exploité une vulnérabilité de mon cadre de confiance et du processus d'authentification de l'API. Mon cadre GRC était conçu pour vérifier les politiques du fournisseur, et non les décisions humaines immédiates prises sous la pression d'arguments convaincants élaborés par un prédateur numérique autonome. Quand le numérique rencontre le physique : attaquer la résilience opérationnelle L'aspect le plus inquiétant, de mon point de vue de spécialiste GRC et résilience opérationnelle, réside dans la capacité de l'agent à coordonner des attaques multi-vecteurs qui comblent le fossé entre l'IT et les technologies opérationnelles (OT). Cette capacité déplace la menace de la perte de données vers une perturbation physique et une potentielle paralysie financière. Je pense souvent aux opérations logistiques de la chaîne d'approvisionnement que j'ai contribué à sécuriser. Imaginez une IA agentique, préprogrammée pour provoquer un blocage majeur de la chaîne d'approvisionnement d'un processus de fabrication critique. L'agent exécute d'abord une intrusion ciblée dans le réseau informatique du fabricant (le domaine initial). Une fois à l'intérieur, il analyse de manière autonome les flux de communication entre le système informatique et l'environnement OT, notamment les serveurs de planification de la production, les systèmes de gestion des stocks et les plateformes logistiques. Simultanément, l'agent lance une campagne d'ingénierie sociale secondaire, sans rapport avec le sujet, contre un prestataire logistique tiers de confiance (3PL). Il envoie des e-mails ultra-spécifiques et urgents au responsable des expéditions du 3PL, utilisant un ton d'urgence interne que j'ai vu fonctionner à maintes reprises en situation de crise, le forçant à interrompre prématurément les expéditions en raison d'un prétendu « audit réglementaire ». Il en résulte une situation de pincement. L'agent du réseau informatique n'a pas besoin d'exécuter une charge utile OT destructrice ; il se contente de créer un chaos de données : falsification des inventaires, ajustement des plannings de production à la minute près et création de commandes fantômes. Combiné à l'arrêt des expéditions, provoqué par le prestataire logistique, la perturbation opérationnelle est totale. Je devrais gérer non seulement une violation de données, mais un effondrement opérationnel de grande ampleur dont les causes profondes seraient réparties entre deux entités de confiance et une IA autonome. Ma réponse immédiate en matière de résilience opérationnelle serait dépassée par la complexité et la coordination de l'attaque, que je ne pourrais qualifier que d'approche stratégique de niveau militaire. Changement de paradigme de défense : du pare-feu au framework Je pense que notre obsession actuelle pour les contrôles techniques, bien que nécessaire, est devenue secondaire face au besoin urgent d'un cadre robuste de gouvernance et de gestion des risques liés à l'IA. Les correctifs techniques sont trop lents pour suivre le rythme d'un agent capable de réécrire dynamiquement sa propre chaîne d'exploitation. Mon travail au sein de GenAI GRC m'a convaincu que la défense doit commencer par une réévaluation radicale du concept de « pare-feu humain ». Nous ne pouvons pas éliminer par l'entraînement la capacité humaine à l'erreur, l'empathie ou la fatigue. Je préconise plutôt des cadres intégrant des « contre-agents » pilotés par l'IA dans nos piles de GRC et de surveillance. Ces contre-agents doivent être entraînés non seulement à détecter les schémas malveillants connus, mais aussi à identifier l'intention et l'autonomie du comportement de l'agent adverse. Je parle de la détection en temps réel des anomalies comportementales sur toutes les interactions avec les API tierces et de l'application immédiate et automatisée des politiques qui bloquent les processus critiques lorsqu'une décision humaine, aussi légitime soit-elle, viole un schéma de risque prédéterminé établi par nos règles de GRC. Cela implique de faire évoluer les mécanismes d'authentification, de la vérification humaine vers des systèmes « zero trust », qui examinent chaque appel d'API et chaque action utilisateur en fonction de son contexte, et non plus seulement de son origine humaine. L'adversaire autonome exige une défense autonome L'ère du simple phishing est révolue. Je prévois un avenir où des systèmes d'IA agentiques sophistiqués et autonomes sondent constamment nos défenses, exploitant les qualités humaines que nous valorisons : la confiance, la rapidité et l'efficacité. Mon expérience de la gestion des risques dans ce contexte en constante évolution m'a montré que la défense passive et la formation humaine sont désormais insuffisantes. L'adversaire autonome exige une défense tout aussi intelligente et autonome. Il incombe désormais à la communauté technologique de construire des systèmes non seulement sûrs, mais aussi résilients dès leur conception : des systèmes où la GRC n'est pas une considération secondaire, mais la logique opérationnelle fondamentale. J'exhorte tous ceux qui développent la prochaine génération de logiciels à intégrer la gouvernance et les contrôles des risques directement dans l'architecture du code. Si nous n'y parvenons pas, nous confierons les clés de nos royaumes numériques aux adversaires les plus sophistiqués, les plus infatigables et les plus adaptatifs que le monde ait jamais connus. C'est un défi que nous pouvons, et devons, relever avec détermination.