OpenClaw et Claude Cowork, deux agents IA autonomes dont l’adoption a explosé depuis début 2026, suscitent une vigilance accrue du côté du CERT-FR. Ce centre gouvernemental français dédié à la sécurité informatique a récemment tiré la sonnette d’alarme quant à la multiplication des risques liés à ces assistants personnels autonomes, capables non seulement de répondre à des demandes, mais aussi d’exécuter des commandes système, manipuler des fichiers, gérer messageries et agendas, souvent depuis des applications très utilisées telles que Slack ou Discord. Cette capacité à contrôler différentes facettes d’un poste de travail ouvre une nouvelle surface d’attaque considérable pour les hackers et expose les organisations à un éventail de menaces qui ne peuvent être ignorées, d’autant que ces outils sont encore en phase bêta et manquent de maturité en matière de sécurité.
En bref :
- Le CERT-FR déconseille fermement le déploiement d’agents IA autonomes comme OpenClaw sur des postes de travail en production.
- Ces agents peuvent exécuter des opérations systèmes complexes et interagir avec plusieurs applications, augmentant les risques de compromission.
- Compromission, fuite de données sensibles, accès démesuré aux ressources, et actions destructrices figurent parmi les dangers principaux.
- Les vulnérabilités telles que l’injection de prompt renforcent le risque que l’agent contourne les règles de sécurité initiales.
- Les entreprises doivent limiter leur usage à des environnements isolés et impliquer DSI et RSSI pour toute expérimentation.
- En parallèle, des initiatives comme NemoClaw de NVIDIA ou les exclusions d’OpenClaw des abonnements Claude témoignent d’une tentative d’encadrement sécuritaire de ce secteur.
OpenClaw et Claude Cowork : une adoption rapide au prix de risques sous-estimés
Depuis le début de l’année 2026, OpenClaw et Claude Cowork connaissent une popularité grandissante dans le monde de l’automatisation IA. Cette expansion rapide masque cependant des failles critiques. Ces assistants ne se contentent plus de fournir des réponses : ils peuvent désormais effectuer des actions directes sur le poste de travail, décuplant les possibilités… mais aussi les failles de sécurité. Le CERT-FR alerte sur une surface d’attaque élargie, où des cyberattaques peuvent exploiter des vulnérabilités internes encore non colmatées.
Imaginez une PME qui utilise OpenClaw pour gagner du temps sur la gestion d’emails tout en intégrant cet outil à Slack et Google Drive. En apparence, un vrai gain de productivité, mais dans les coulisses, l’outil obtient des accès étendus, parfois disproportionnés, qui, s’ils sont mal sécurisés, peuvent permettre à un hacker d’injecter des commandes malicieuses ou d’exfiltrer des données sensibles. Certaines entreprises ont ainsi constaté une hausse des alertes liées à des fuites potentielles lors de tests internes. Voilà pourquoi l’avis du CERT ne doit pas être pris à la légère : cette technologie prometteuse exige un cadre rigoureux.
Quels sont les vrais dangers évoqués ?
Le bulletin gouvernemental identifie plusieurs risques majeurs associés à ces agents IA autonomes :
- Compromission directe du poste de travail à cause de vulnérabilités encore présentes dans ces solutions en version bêta ;
- Fuite de données sensibles vers des serveurs externes hors de contrôle des entreprises ;
- Droits d’accès excessifs, permettant à l’agent d’intervenir sur l’ensemble des applications bureautiques sans limitation ;
- Exposition des secrets d’authentification qui peuvent être récupérés ou détournés ;
- Actions potentiellement destructrices affectant l’intégrité, la disponibilité ou la confidentialité des données.
Le CERT souligne en particulier la menace des injections de prompt, une forme d’attaque où la requête envoyée à l’assistant est manipulée pour contourner les mécanismes de sécurité et accroître les permissions d’exécution autonome. Cette capacité à s’affranchir des règles initiales rend le contrôle très complexe, voire illusoire.
Pour sécuriser l’usage : la collaboration indispensable entre équipes techniques et directions
Face à ces risques, la recommandation principale est claire : ces agents doivent rester confinés à des environnements de test strictement isolés, appelés bacs à sable, sans aucune donnée sensible. Toute expérimentation doit obtenir le feu vert des équipes DSI et RSSI, qui doivent imposer des mesures telles que :
- Restriction des droits et des outils accessibles à l’agent IA ;
- Validation humaine obligatoire pour toutes les actions critiques menées par l’agent ;
- Isolation des processus dans des environnements sécurisés (sandboxing) ;
- Contrôle des interactions via des listes blanches de commandes et d’applications autorisées.
Cette rigueur institutionnelle démontre qu’il ne s’agit pas seulement d’une question technique mais d’une nouvelle gouvernance à institutionnaliser rapidement. En effet, la vitesse d’exécution qu’offrent ces technologies peut aussi accélérer la vitesse d’attaque lors d’une faille, imposant une vigilance 24/7 sur leur utilisation.
Écosystème IA en évolution et réponse des acteurs majeurs
Le marché des agents IA autonomes se structure à grande vitesse. En mars 2026, NVIDIA a dévoilé NemoClaw, une boîte à outils open source visant à sécuriser l’intégration d’OpenClaw. Par ailleurs, les géants comme OpenAI, Microsoft ou Google intensifient leurs plateformes dédiées à l’IA agentique d’entreprise avec un accent plus marqué sur la gouvernance et la sécurité. Notons également qu’Anthropic a retiré OpenClaw de ses abonnements Claude, promouvant son propre agent Cowork comme une alternative mieux contrôlée.
| Risques identifiés | Description | Mesures recommandées |
|---|---|---|
| Compromission poste utilisateur | Exploitation de vulnérabilités dans des versions peu matures. | Limiter usage aux environnements tests isolés. |
| Fuite de données sensibles | Transmission vers des serveurs externes non maîtrisés. | Restreindre accès à des sources de données sensibles. |
| Droits d’accès excessifs | Agents IA avec accès large à applications et fichiers. | Imposer niveaux d’accès limités et validation humaine. |
| Injections de prompt | Manipulation des requêtes permettant d’outrepasser les règles. | Mettre en place sandboxing et listes blanches strictes. |
| Actions destructrices | Modification ou suppression de données critiques. | Surveillance et validation systématiques en temps réel. |
Pourquoi le CERT-FR déconseille-t-il l’usage d’OpenClaw et Claude Cowork sur les postes de travail ?
Ces agents IA peuvent exécuter des commandes système avec des droits étendus, exposant les systèmes à des compromis sévères et des fuites de données, surtout que ces produits sont encore en phase de développement et manque de robustesse en sécurité.
Quelles mesures sont essentielles pour limiter les risques liés aux agents IA autonomes ?
Limiter leur usage aux environnements isolés, réduire les droits d’accès, imposer une validation humaine des actions critiques, utiliser le sandboxing, et contrôler strictement les interactions via des listes blanches.
Que représentent les injections de prompt dans ce contexte ?
Il s’agit d’attaques manipulant les requêtes pour contourner les règles de sécurité et permettre à l’agent IA d’étendre ses capacités sans contrôle humain, augmentant ainsi le risque de compromission.
Quels acteurs fournissent des solutions pour sécuriser ces agents IA ?
NVIDIA avec NemoClaw, ainsi que des grandes entreprises comme OpenAI, Microsoft, Google, et Anthropic qui adaptent leurs plateformes pour accentuer la gouvernance et la sécurité des agents IA.
Comment les utilisateurs perçoivent-ils ces agents IA en 2026 ?
La méfiance est forte : seulement 30 % des consommateurs français sont prêts à interagir avec ces agents, contre 40 % en moyenne européenne, traduisant un besoin de garanties supplémentaires en sécurité.