Cybersécurité, Intelligence artificielle
7 risques de sécurité que vos agents IA pourraient causer (et comment les éviter)
Auteur
Carl Chouinard
Les agents IA introduisent de nouveaux risques de sécurité que la plupart des organisations découvrent trop tard, souvent une fois en production. Vol de clés API, explosion des coûts, perte de traçabilité, accès trop permissifs, décisions autonomes mal encadrées, biais dans les données ou encore responsabilités floues font partie des enjeux les plus fréquents.
L'agentique progresse rapidement, mais la gouvernance peine à suivre. Ce décalage crée un terrain propice à des risques bien réels, encore sous-estimés dans de nombreuses entreprises.
Voici les 7 principaux risques de sécurité à aborder avant de déployer vos agents IA, basés sur ce que nous observons concrètement chez nos clients et dans l'actualité récente.
1. Le vol de clés API : comment une clé exposée peut faire exploser votre budget
On parle beaucoup des agents IA, mais très peu du risque le plus simple et pourtant le plus coûteux. Chaque agent qui utilise un modèle (OpenAI, Anthropic, Gemini, etc.) passe par une clé API. Et cette clé, c'est essentiellement un accès direct à votre budget. Si quelqu'un met la main dessus, il peut lancer des milliers de requêtes à vos frais.
Les incidents documentés se multiplient. Des gens qui découvrent du jour au lendemain une facture de plusieurs milliers de dollars après avoir laissé traîner une clé dans un dépôt de code ou sur leur poste de travail. À titre d'exemple, en mars 2026, une startup mexicaine s'est retrouvée avec 82 314 $ de frais en 48 heures après le vol d'une clé API Gemini, alors qu'elle consommait en moyenne 180 $ par mois.
Ce n'est que le début, car des clés API volées se revendent déjà sur le dark web, comme des identifiants bancaires. Sauf qu'ici, la monétisation est instantanée.
Quelques règles de base pour éviter cela :
- Ne jamais exposer une clé API, que ce soit dans le code, des outils de communication comme Slack ou dans la documentation.
- Utiliser une voûte à mots de passe ou un gestionnaire de secrets comme AWS Secrets Manager et GCP Secret Manager.
- Limiter les permissions au strict nécessaire.
- Mettre en place des alertes de consommation.
2. L'agent qui fait exploser votre facture
Les agents IA sont conçus pour être autonomes, rapides et efficaces. Mais sans encadrement, ces qualités peuvent rapidement devenir un risque financier important. Contrairement à un logiciel traditionnel, chaque interaction avec un modèle d'IA génère un coût. Ce coût est souvent faible à l'unité, mais il devient significatif lorsqu'il est multiplié à grande échelle.
Prenons un scénario courant : un script ou un utilisateur envoie des requêtes en boucle à votre agent. Chaque requête consomme des tokens et l'agent les traite sans interruption. Même si le coût unitaire est faible, une utilisation non contrôlée peut rapidement faire exploser la facture, allant jusqu'à plusieurs milliers de dollars en quelques heures ou quelques jours.
Le risque est d'autant plus élevé que ces systèmes sont souvent déployés sans mécanismes de contrôle financier précis. Un agent ne « sait » pas qu'il coûte de l'argent, il exécute simplement ce pour quoi il a été conçu.
C'est pourquoi il est essentiel d'intégrer des garde-fous dès la conception.
Comment l'éviter :
- Définir des seuils de coût quotidiens et mensuels pour chaque agent.
- Estimer la consommation attendue avant le déploiement (par exemple : « cet agent ne devrait pas dépasser 10 $ par jour »).
- Mettre en place des alertes automatiques avant d'atteindre les seuils critiques.
- Prévoir un mécanisme d'arrêt automatique en cas de dépassement.
En pratique, gérer un agent IA ne consiste pas seulement à optimiser ses performances, mais aussi à encadrer son usage. Sans cette discipline, même un projet bien conçu peut rapidement devenir un poste de dépense imprévu. Dans ce contexte, maîtriser la consommation d'un modèle de langage devient une expertise essentielle à tout projet d'IA.
3. Des agents sans identité propre
Quand plusieurs agents partagent le même compte ou la même identité, vous perdez toute traçabilité. Si quelque chose tourne mal, impossible de savoir quel agent a posé quelle action. C'est un peu comme si tous vos employés se connectaient avec le même identifiant. En cas d'incident, vous n'avez aucune piste d'audit.
Comment l'éviter :
- Attribuez un compte dédié à chaque agent, avec ses propres identifiants. Par exemple, créez-lui son propre identifiant qui lui permettra de se connecter à votre ERP, système comptable, etc.
- Appliquez les mêmes standards de sécurité qu'aux comptes humains (longueur de mot de passe, rotation, etc.).
- Assurez-vous que chaque action soit traçable jusqu'à l'agent spécifique qui l'a exécutée.
- Documentez quel agent a accès à quels systèmes et pourquoi.
4. Plus il y a de permissions, plus il y a de risques
Prenons un exemple concret : vous déployez un agent qui gère l'intégration des nouveaux employés. Il a besoin de créer des comptes dans vos systèmes RH. Jusqu'ici tout est parfait. Mais a-t-il aussi la permission de supprimer tous les comptes? Si oui, vous avez un problème.
Trop souvent, on donne aux agents des droits trop permissifs pour accélérer la mise en production, sans prendre le temps de limiter les accès au strict minimum. À terme, c'est une véritable bombe à retardement.
Comment l'éviter :
- Pour chaque agent, évaluez les risques entourant son utilisation.
- Listez explicitement les actions autorisées et les actions interdites.
- Limitez les accès aux données et aux actions strictement nécessaires à sa mission.
- Testez son comportement face à des actions non autorisées : vous devez obtenir un refus explicite, jamais une erreur silencieuse.
- Révisez régulièrement les permissions, surtout lorsque le périmètre ou les responsabilités de l'agent évoluent.
5. Autonomie non encadrée : quand un agent met vos données en péril
Le concept de human-in-the-loop n'est pas nouveau, mais il prend une toute nouvelle dimension avec l'agentique. Imaginez un agent censé capturer les leads d'un événement et les créer dans votre CRM. Au début, tout va bien. Il numérise les cartes, crée des fiches clients et assigne un statut. Puis, comme il fonctionne bien, on lui donne un peu plus d'autonomie : il commence à fusionner des comptes jugés similaires, à mettre à jour des opportunités existantes et à envoyer un premier courriel de suivi personnalisé, le tout sans validation humaine.
En quelques semaines, il pourrait avoir écrasé des données sur des clients existants parce que deux « J. Martin » lui semblaient être la même personne, créé des doublons en masse, envoyé des messages de relance à des comptes stratégiques avec un mauvais ton ou des promesses jamais approuvées et relancé d'anciens prospects sortis volontairement du pipeline. Vous voyez les impacts que cela pourrait avoir dans votre organisation?
Sans balises claires sur ce qu'un agent peut décider seul versus ce qui requiert une validation humaine, vous pouvez facilement perdre le contrôle.
Comment l'éviter :
- Définissez explicitement les décisions que l'agent peut prendre de façon autonome.
- Identifiez les points de contrôle où une validation humaine est requise.
- Mettez en place des mécanismes de vérification pour détecter si l'agent s'éloigne de son mandat.
- Documentez le processus attendu et comparez-le régulièrement au comportement réel.
6. Des données biaisées produisent des résultats biaisés
Des données de mauvaise qualité en entrée mènent inévitablement à de mauvaises décisions en sortie, c'est le principe du « garbage in, garbage out », amplifié par la puissance de l'IA.
Avec les agents IA, le risque s'intensifie. Aux biais présents dans les données s'ajoutent ceux des modèles eux-mêmes, ainsi que les hallucinations et la variabilité des sources utilisées.
Un agent alimenté par des données non validées ou biaisées peut générer des résultats convaincants en apparence, mais fondamentalement erronés, voire discriminatoires.
Comment l'éviter :
- Validez et accréditez les sources de données auxquelles vos agents ont accès.
- Identifiez les données qui contiennent des renseignements personnels et assurez-vous de respecter les lois applicables (Loi 25, RGPD, etc.).
- Testez régulièrement le contenu ou les résultats de vos agents pour détecter les biais et les hallucinations.
- Ne faites pas confiance aveuglément aux résultats, assurez-vous de maintenir une validation humaine sur les décisions critiques.
Saviez-vous que prévoir des agents de supervision est une approche très efficace et sécuritaire?
7. Qui est responsable quand un agent IA cause un incident?
Votre agent de recrutement fait une erreur dans l'intégration d'un employé. Votre agent marketing envoie le mauvais message au mauvais segment de clientèle. Votre agent financier produit un rapport inexact. Qui est imputable?
Sans propriétaire clairement désigné pour chaque agent, les incidents tombent dans le vide. Le département TI considère que la responsabilité revient au département qui utilise ces agents. Les différents départements, de leur côté, la renvoient au TI. Pendant ce temps-là, le problème persiste.
Comment l'éviter :
- Désignez une personne imputable pour chaque agent et non un département.
- Le propriétaire peut déléguer la gestion technique, mais reste responsable des actions de l'agent et de la gestion de ses droits.
- Mettez en place une reddition de comptes : rapports réguliers, revue des incidents, suivi des accès.
- Documentez la chaîne de responsabilité : qui a créé l'agent, qui l'approuve, qui le surveille.
Sécurisez avant de déployer, pas après
La leçon la plus importante? Ne déployez pas vos agents d'abord pour sécuriser ensuite. Les organisations qui adoptent cette approche se retrouvent constamment en mode rattrapage à colmater des brèches qu'elles auraient pu éviter.
Avant chaque déploiement d'agent, passez à travers cette liste :
- L'agent a-t-il sa propre identité et ses propres identifiants?
- Ses droits sont-ils limités au strict nécessaire?
- Des seuils de coût sont-ils en place?
- Les clés API sont-elles stockées de façon sécuritaire?
- Un propriétaire imputable est-il désigné?
- Les points de contrôle humain sont-ils définis?
- Les sources de données sont-elles validées et accréditées?
L'agentique offre un potentiel énorme. Mais ce potentiel ne se réalise que dans un cadre sécuritaire clairement défini. Mieux vaut investir quelques jours en gouvernance maintenant que des semaines en gestion de crise plus tard.