CertiK Testé en conditions réelles : Comment une compétence OpenClaw vulnérable a trompé l'audit et pris le contrôle non autorisé d'un ordinateur

marsbitPublié le 2026-03-22Dernière mise à jour le 2026-03-22

Résumé

Une récente étude de CertiK, leader de la sécurité Web3, révèle des vulnérabilités critiques dans le processus de validation des compétences (Skills) tierces sur OpenClaw, une plateforme open source d’agents IA auto-hébergés. Malgré un système de vérification à trois niveaux (scan VirusTotal, détection statique et audit IA), les chercheurs ont réussi à exfiltrer un Skill malveillant nommé "test-web-searcher", capable d’exécuter du code à distance sur l’appareil hôte sans déclencher d’alerte. La faille réside dans la facilité à contourner les contrôles statiques par des modifications syntaxiques mineures, tandis que l’audit IA ne détecte pas les vulnérabilités dissimulées dans une logique fonctionnelle normale. De plus, les Skills peuvent être mis en ligne avant même la fin des analyses VirusTotal, exposant immédiatement les utilisateurs. CertiK alerte sur l’erreur commune de considérer la "vérification amont" comme une barrière suffisante. La solution nécessite une isolation par défaut en mode sandbox et un contrôle granulaire des permissions, à l’image des stores d’applications mobiles. En attendant, les utilisateurs doivent déployer OpenClaw sur des machines non critiques et éviter toute exposition d’actifs sensibles.

Récemment, la plateforme open source d'agents IA auto-hébergés OpenClaw (surnommée "Crawfish" dans le milieu) a connu un essor rapide grâce à sa flexibilité et à ses caractéristiques de déploiement autonome, devenant un produit phare dans le domaine des agents IA personnels. Son écosystème central, Clawhub, qui sert de marché d'applications, regroupe un vaste éventail de plugins de fonctionnalités Skill tiers, permettant aux agents de débloquer en un clic des capacités avancées, allant de la recherche web et de la création de contenu à la manipulation de portefeuilles cryptographiques, aux interactions on-chain et à l'automatisation système, entraînant une croissance explosive de la taille de l'écosystème et du nombre d'utilisateurs.

Mais pour ces compétences Skill tierces fonctionnant dans des environnements à haut niveau de privilèges, où se trouve réellement la frontière de sécurité de la plateforme ?

Récemment, CertiK, la plus grande société de sécurité Web3 au monde, a publié de nouvelles recherches sur la sécurité des Skills. L'article souligne qu'il existe actuellement un décalage dans la perception des limites de sécurité de l'écosystème des agents IA : l'industrie considère généralement le "scanning des Skills" comme la frontière de sécurité centrale, mais ce mécanisme est presque inefficace face aux attaques de pirates.

Si l'on compare OpenClaw au système d'exploitation d'un appareil intelligent, les Skills sont les différentes applications installées sur le système. Contrairement aux applications grand public classiques, certaines Skills d'OpenClaw s'exécutent dans des environnements à privilèges élevés, pouvant accéder directement aux fichiers locaux, appeler des outils système, se connecter à des services externes, exécuter des commandes dans l'environnement hôte, et même manipuler les actifs numériques cryptés de l'utilisateur. En cas de problème de sécurité, cela peut entraîner de graves conséquences telles que la fuite d'informations sensibles, la prise de contrôle à distance de l'appareil ou le vol d'actifs numériques.

Actuellement, la solution de sécurité générale adoptée par l'industrie pour les Skills tierces est l'"audit et scan avant la mise en ligne". Le Clawhub d'OpenClaw a également mis en place un système de protection en trois couches pour l'audit : intégration du scan de code VirusTotal, un moteur de détection statique de code et une détection IA de la cohérence logique. Il tente de préserver la sécurité de l'écosystème en classant les risques et en envoyant des alertes de sécurité aux utilisateurs. Cependant, les recherches et les tests d'attaque POC de CertiK confirment que ce système de détection présente des lacunes dans un scénario réel de confrontation attaque-défense et ne peut assumer la responsabilité centrale de la protection.

La recherche décompose d'abord les limitations inhérentes aux mécanismes de détection existants :

Les règles de détection statique sont extrêmement faciles à contourner. Le cœur de ce moteur repose sur la correspondance des caractéristiques du code pour identifier les risques, par exemple en qualifiant de comportement à haut risque la combinaison "lecture d'informations sensibles de l'environnement + requête réseau sortante". Mais un attaquant n'a besoin que de modifier légèrement la syntaxe du code, en conservant pleinement la logique malveillante, pour contourner facilement la correspondance des caractéristiques, comme s'il donnait un synonyme au contenu dangereux, rendant ainsi le scanner de sécurité totalement inefficace.

L'audit IA présente des angles morts de détection congénitaux. L'audit IA de Clawhub est principalement conçu comme un "détecteur de cohérence logique", capable uniquement de dénicher les codes malveillants évidents où "la fonction déclarée ne correspond pas au comportement réel", mais il est impuissant face aux vulnérabilités exploitables cachées dans une logique métier normale, tout comme il est difficile de trouver un piège mortel caché au fond des clauses d'un contrat en apparence conforme.

Plus grave encore, le processus d'audit présente un défaut de conception fondamental : même si les résultats du scan VirusTotal sont encore en attente de traitement, une Skill n'ayant pas terminé le "check-up" complet peut être directement mise en ligne et publiquement disponible. Les utilisateurs peuvent l'installer sans aucun avertissement, laissant une opportunité aux attaquants.

Pour vérifier le préjudice réel du risque, l'équipe de recherche de CertiK a mené des tests complets. L'équipe a développé une Skill nommée "test-web-searcher", qui en surface est un outil de recherche web entièrement conforme, dont la logique du code respecte pleinement les normes de développement conventionnelles, mais qui en réalité implante une vulnérabilité d'exécution de code à distance dans le flux fonctionnel normal.

Cette Skill a contourné la détection du moteur statique et de l'audit IA, et a pu être installée normalement sans aucun avertissement de sécurité alors que le scan VirusTotal était encore en attente ; finalement, en envoyant une commande à distance via Telegram, la vulnérabilité a été déclenchée avec succès, permettant l'exécution de commandes arbitraires sur l'appareil hôte (dans la démonstration, le système a été contrôlé pour ouvrir directement la calculatrice).

CertiK a clairement indiqué dans sa recherche que ces problèmes ne sont pas des bogues propres au produit OpenClaw, mais une erreur de perception courante dans toute l'industrie des agents IA : l'industrie considère généralement l'"audit et le scan" comme la ligne de défense sécurité centrale, mais néglige le véritable fondement de la sécurité, qui est l'isolation au moment de l'exécution et le contrôle granulaire des permissions. C'est comme si la sécurité centrale de l'écosystème iOS d'Apple n'a jamais été l'audit strict de l'App Store, mais le mécanisme obligatoire de sandboxing du système et le contrôle granulaire des permissions, permettant à chaque application de s'exécuter uniquement dans son "conteneur d'isolation" dédié, sans pouvoir obtenir arbitrairement les permissions système. Or, le mécanisme de sandboxing existant d'OpenClaw est optionnel et non obligatoire, et dépend fortement d'une configuration manuelle par l'utilisateur. La grande majorité des utilisateurs, pour garantir la fonctionnalité des Skills, choisissent de désactiver le sandbox, laissant finalement l'agent IA dans un état "nu". Une fois une Skill vulnérable ou malveillante installée, cela entraîne directement des conséquences désastreuses.

Face aux problèmes identifiés, CertiK a également fourni des directives de sécurité :

● Pour les développeurs d'agents IA comme OpenClaw, il est impératif de définir l'isolation par sandbox comme configuration par défaut obligatoire pour les Skills tierces, d'affiner le modèle de contrôle des permissions des Skills, et de ne jamais autoriser le code tiers à hériter par défaut des privilèges élevés de la machine hôte.

● Pour les utilisateurs ordinaires, une Skill sur le marché portant une étiquette "sécurisée" signifie seulement qu'aucun risque n'a été détecté, ce qui n'équivaut pas à une sécurité absolue. Avant que les mécanismes d'isolation renforcée sous-jacents ne soient définis comme configuration par défaut par les développeurs officiels, il est recommandé de déployer OpenClaw sur des appareils inutilisés non critiques ou dans une machine virtuelle, et de ne surtout pas le laisser approcher des fichiers sensibles, des identifiants de connexion ou des actifs cryptographiques de haute valeur.

Le domaine des agents IA est actuellement à l'aube d'une explosion, et la vitesse d'expansion de l'écosystème ne doit pas devancer le rythme de la construction de la sécurité. L'audit et le scan ne peuvent bloquer que les attaques malveillantes basiques et ne deviendront jamais la frontière de sécurité pour les agents IA à haut niveau de privilèges. Ce n'est qu'en passant de la "recherche de la détection parfaite" à l'"endiguement des dommages en supposant le risque existant par défaut", et en établissant fermement une frontière d'isolation au niveau de l'exécution, que l'on pourra vraiment assurer la ligne de base de sécurité des agents IA et permettre à cette révolution technologique d'avancer stablement et loin.

Article de recherche original :https://x.com/hhj4ck/status/2033527312042315816?s=20

https://mp.weixin.qq.com/s/Wxrzt7bAo86h3bOKkx6 UoA

Lectures associées

Après une chute de 97 % de sa valorisation, iQiyi compte sur l'IA pour survivre

Résumé : En avril 2026, iQiyi, dont la capitalisation boursière a chuté de 97 % depuis son introduction en bourse, mise sur l'IA pour sa survie. Lors de sa conférence annuelle, le PDG Gong Yu a annoncé une bibliothèque de plus de 100 "artistes IA" et la plateforme "NaDou Pro" pour les créateurs de contenus générés par IA, promettant des réductions de coûts et des efficacités. Cependant, derrière cette façade technologique, iQiyi lutte contre des pertes financières croissantes, une baisse des abonnés et une trésorerie fragile, ayant même déposé une demande d'introduction à Hong Kong pour se refinancer. Cette transition vers l'IA déclenche des controverses : des stars comme Zhang Ruoyun et Yi Yangqianxi ont contesté l'utilisation non autorisée de leur image, tandis que les figurants de Hengdian (134 000 personnes) voient leurs opportunités d'emploi s'effondrer avec l'adoption massive d'acteurs IA pour les rôles secondaires. iQiyi vante une décentralisation de la création, mais en réalité, la plateforme cherche à transférer les risques financiers vers les créateurs indépendants tout en capitalisant sur les contenus à succès. Parallèlement, des plateformes comme Douyin investissent 500 millions de yuans pour soutenir les dramas humains, misant sur l'engagement authentique des téléspectateurs. Contrairement au cinéma parlant des années 1920, qui a enrichi l'art cinématographique, l'approche d'iQiyi semble privilégier une production à bas coût plutôt qu'une expression artistique innovante. Les neurosciences suggèrent que les performances IA, bien que techniquement avancées, manquent de la résonance émotionnelle des acteurs humains, risquant à long terme d'érode la capacité des audiences à percevoir des émotions complexes. La question reste : iQiyi cherche-t-elle à révolutionner la création ou simplement à sauver son modèle économique ?

marsbitIl y a 2 h

Après une chute de 97 % de sa valorisation, iQiyi compte sur l'IA pour survivre

marsbitIl y a 2 h

Trading

Spot
Futures
活动图片