La menace interne silencieuse : quand l'IA agentique devient un risque
- Daniel Bertrand

- Feb 23
- 4 min read
Les agents IA commencent à ressembler beaucoup à des membres du personnel. Ils lisent nos messages, accèdent à nos fichiers et effectuent des actions dans nos systèmes. C'est puissant, mais risqué. De petits choix de conception (comme permettre aux agents de s'envoyer des messages en texte libre ou d'approuver automatiquement certaines tâches) peuvent transformer une aide inoffensive en une menace interne silencieuse. Ce premier article d'une série en plusieurs parties explique les risques en langage clair et ce que vous pouvez faire dès maintenant.

Qu'est-ce que l'IA agentielle ?
L'IA agentielle (également appelée agents IA) combine un modèle génératif (par exemple, ChatGPT, Claude et Gemini) avec un mécanisme de contrôle qui peut interagir avec cette capacité créative et agir. Elle peut extraire des rapports, rédiger des courriels, ouvrir des tickets, voire déclencher des workflows.
Il existe trois grandes catégories d'agents IA :
Simple : récupère des informations
Tâche : prend des mesures lorsqu'on le lui demande
Avancé : agit de manière autonome en fonction d'un déclencheur
Pourquoi les agents IA changent-ils la donne en matière de risque interne ?
Si l'agent interprète mal une instruction ou est trompé par un message dissimulé, il peut très rapidement commettre une erreur, à grande échelle et avec l'autorité de votre organisation.

Trois modèles émergents :
L'assistant confus
Un agent copie les instructions d'un courriel ou d'une page web dans son plan et agit. Si ces instructions ont été placées par un acteur malveillant (même dans un PDF ou un article d'aide), l'agent peut être orienté vers un résultat erroné, sans qu'il soit nécessaire d'utiliser un logiciel malveillant.
Autorité empruntée
Un agent à faible accès (par exemple, un bot de triage) peut demander à un agent à haut accès (par exemple, un bot financier) de l'« aider » dans une tâche. Si le transfert n'est pas contrôlé, l'agent à haut accès peut effectuer une action sensible au nom de l'agent à faible accès. Dans les journaux, cela semble routinier.
En termes humains : le stagiaire demande à l'assistant du directeur financier de « simplement exécuter l'exportation des salaires », et celui-ci s'exécute.
Codes secrets
Les agents qui s'échangent des messages en texte libre peuvent développer des raccourcis. Le choix de mots simples (synonymes, ponctuation) peut véhiculer un sens caché entre les agents. Ce n'est pas de la science-fiction, c'est simplement de la coordination. Si vous ne limitez pas la façon dont les agents communiquent, vous risquez de ne pas voir ce qu'ils demandent réellement.
À quoi peut ressembler un incident discret lié à une menace interne:An external email asks for a “quick check” and uses a particular phrasing.
Un courriel externe demande une « vérification rapide » et utilise une formulation particulière.
Votre agent de triage transmet la note (sous forme de texte libre) à l'agent financier.
L'agent financier l'interprète comme « exécutez l'exportation et envoyez le fichier par courriel en interne ».
Quelques minutes plus tard, un rapport volumineux circule sur le réseau. Le système de prévention des pertes de données se déclenche... après coup.
Aucune alarme ne s'est déclenchée plus tôt, car rien ne semblait manifestement anormal : deux assistants ont « collaboré » et ont fait ce qu'ils étaient autorisés à faire.
Signes avant-coureurs :
Tractions importantes après des invites externes : quelques minutes après avoir lu quelque chose à l'extérieur, un agent exporte beaucoup de données.
Comportement inédit : un agent utilise soudainement un outil ou effectue une tâche qu'il n'a jamais utilisée auparavant.
Raccourcis d'agent à agent : un agent à faible accès « délègue » à un agent à haut accès, et l'étape suivante est une action sensible.
Pics d'automatisation après les heures de travail : changements ou exportations importants lorsque personne n'est présent.
DLP détecte des tâches routinières : informations sensibles dans des fichiers qui ne devraient normalement pas en contenir.

Ce que les dirigeants peuvent faire cette semaine Créer un «registre des agents»: qui en est le propriétaire, à quoi sert-il et quelles données peut-il toucher.
Limitez les privilèges. Si un agent n'a besoin que de lire, ne lui donnez pas les autorisations d'exporter ou de supprimer. Répartissez les actions risquées entre des outils distincts et strictement délimités.
Exigez un clic humain pour les actions risquées. Si une demande provient de l'extérieur ou passe entre des agents, exigez une approbation pour les actions sensibles (exportations, suppressions, invitations de nouveaux administrateurs).
Interdisez les transferts de texte libre. Obligez les agents à communiquer via un formulaire structuré (pensez à un formulaire court avec des menus déroulants, et non à un message ouvert). Les « codes secrets » cachés ne survivent pas à la structure.
Consignez l'historique, pas seulement le résultat. Enregistrez : qui a demandé, pourquoi, quel plan l'agent a proposé, quel outil il a utilisé et combien d'enregistrements il a traités. Vous vous en féliciterez lors de la révision.
Ce que vous pouvez faire :
Cadres : traitez les agents comme de nouveaux employés avec des badges. Approuvez-les, intégrez-les et évaluez-les.
Responsables : attribuez des propriétaires et ajoutez des étapes d'approbation pour tout ce qui concerne les données sensibles.
Personnel de première ligne : si vous voyez un agent faire quelque chose d'inattendu, signalez-le, même si cela a « fonctionné ». C'est le signe que vos contrôles doivent être ajustés.
Informatique/Sécurité : négociez tout le trafic entre agents, appliquez des messages structurés et alertez en cas de séquences « externes vers sensibles ».

Cette série : à venir
Créer un registre des agents : modèles simples pour suivre l'objectif, les autorisations et les propriétaires.Stopping “Confused Helper” Incidents: safe ways to handle outside content.
Mettre fin aux incidents liés aux « aides désorientés » : des moyens sûrs de gérer les contenus externes.
Concevoir des transferts sécurisés : approbations et messages structurés entre agents.
Des journaux qui racontent l'histoire : des enregistrements prêts à servir de preuves pour des enquêtes rapides.
Red-Team the Robots : des simulations sécurisées pour tester vos contrôles.
Gestion du changement pour l'IA : comment déployer des agents de manière responsable dans toute l'entreprise.


Comments