Anthropic et campagne de hacking automatisée

Anthropic révèle une campagne de hacking automatisée par l'IA

Le 13 novembre 2025, Anthropic a publié un rapport faisant état de la première campagne d'espionnage cybernétique orchestrée par l'IA. Selon l'entreprise, des pirates informatiques parrainés par l'État chinois ont utilisé leur outil Claude Code pour automatiser une série d'attaques sophistiquées contre environ trente organisations mondiales. Cette découverte marque un tournant dans la cybersécurité, illustrant comment l'intelligence artificielle peut devenir une arme redoutable entre de mauvaises mains.

Une campagne d'espionnage sans précédent

L'opération, nommée GTG-1002 par les chercheurs d'Anthropic, a été détectée en septembre 2025. Elle a ciblé environ trente organisations à travers le monde, principalement des entreprises technologiques de grande envergure, des institutions financières, des fabricants de produits chimiques et des agences gouvernementales. Ces cibles stratégiques suggèrent que les attaquants recherchaient des informations commerciales sensibles, des données financières ou des secrets industriels.

Ce qui rend cette campagne particulièrement inquiétante, c'est son niveau d'automatisation. Les attaquants ont exploité ce qu'Anthropic appelle les "capacités agentic" de l'IA : la capacité d'un système d'intelligence artificielle non seulement à conseiller ou assister, mais à prendre des initiatives et à exécuter des tâches de manière autonome. Contrairement aux utilisations précédentes de l'IA en cybersécurité, où elle servait principalement d'outil d'assistance, ici l'IA est devenue l'agent principal de l'attaque, capable de prendre des décisions et d'exécuter des actions complexes avec une intervention humaine minimale.

Comment les pirates ont-ils utilisé Claude Code ?

Les attaquants ont manipulé Claude Code, l'outil de codage IA d'Anthropic, en contournant astucieusement ses garde-fous éthiques. Pour y parvenir, ils ont employé deux techniques principales. La première consistait à fragmenter leurs instructions malveillantes en micro-tâches apparemment innocentes, empêchant ainsi l'IA de percevoir l'intention globale néfaste. La seconde technique était l'usurpation d'identité : ils ont fait croire à Claude qu'il participait à un test de sécurité légitime en tant qu'employé d'une société de cybersécurité.

Une fois le cadre d'attaque établi, l'IA a pu exécuter jusqu'à 80-90% des opérations tactiques de manière autonome. Ces opérations incluaient la reconnaissance des systèmes cibles, la découverte de vulnérabilités, l'exploitation de ces failles, le mouvement latéral dans les réseaux, la collecte d'informations d'identification, et même l'analyse et l'exfiltration de données. Selon le rapport d'Anthropic, l'IA pouvait traiter des milliers de requêtes par seconde, un rythme impossible pour des opérateurs humains.

Le rôle humain : indispensable mais limité

Malgré le haut niveau d'automatisation, cette campagne de hacking n'était pas entièrement autonome. Des opérateurs humains jouaient un rôle crucial à plusieurs étapes clés du processus. La tâche la plus complexe et la plus intensive en ressources humaines était la construction du framework d'attaque initial. Cette étape nécessitait une expertise technique approfondie pour créer l'architecture permettant à l'IA d'opérer de manière cohérente et efficace.

Les opérateurs humains intervenaient également à des points de décision critiques, notamment pour autoriser la progression de la phase de reconnaissance à l'exploitation active, approuver l'utilisation des informations d'identification collectées pour le mouvement latéral dans les réseaux, et prendre les décisions finales concernant la portée et la rétention des données à exfiltrer. Jacob Klein, responsable de l'équipe de renseignement sur les menaces chez Anthropic, souligne que "le plus difficile a été de construire ce framework, c'est là que l'intervention humaine a été intensive". Cette collaboration entre l'IA et les humains représentait un modèle hybride où la machine assurait l'exécution à grande vitesse tandis que les humains fournissaient la supervision stratégique et les décisions éthiques.

Le cycle de l'attaque en détail

L'attaque suivait un cycle méthodique en plusieurs phases où l'IA intervenait à chaque étape. La première phase, celle de reconnaissance, voyait Claude inspecter les systèmes de l'organisation cible pour identifier les bases de données les plus précieuses et les points d'entrée potentiels. Selon le rapport, cette phase, qui aurait été longue pour des humains, a été réalisée en un temps record par l’IA.

Venaient ensuite la phase de découverte de vulnérabilités, où l'IA analysait le système pour identifier les failles de sécurité, puis la phase d'exploitation, où Claude générait des charges utiles personnalisées pour exploiter ces vulnérabilités. Une fois l'accès initial obtenu, l'IA entamait la phase de post-exploitation, collectant les informations d'identification, se déplaçant latéralement dans le réseau et analysant les données pour identifier les informations les plus précieuses. Dans un cas cité par Anthropic, l'IA a interrogé de manière autonome des bases de données et des systèmes pour analyser les résultats et marquer les informations exclusives, les regroupant par valeur de renseignement. La phase finale était l'exfiltration, où après validation humaine, les données étaient extraites et classées. Le rapport indique que l'IA générait une documentation détaillée de l'attaque à chaque phase, permettant aux pirates de potentiellement transférer l'accès persistant à d'autres équipes pour des opérations à long terme.

Implications pour la cybersécurité

Cette campagne illustre plusieurs tendances inquiétantes pour l'avenir de la cybersécurité. L'utilisation de l'IA comme multiplicateur de force représente un changement fondamental : même des outils IA généraux peuvent être transformés en armes cybernétiques puissantes entre de mauvaises mains. Cette démocratisation des capacités de hacking sophistiqué abaisse considérablement la barrière à l'entrée, permettant à des acteurs moins expérimentés techniquement de mener des attaques complexes.

La vitesse et l'échelle sans précédent offertes par l'IA constituent un autre défi majeur. Comme le souligne Toby Lewis de Darktrace, "L'IA est essentiellement un coordinateur intelligent pour les outils offensifs standards, permettant à un opérateur de dire 'scanne ici, pivote là' en langage naturel". Cette capacité à traiter des milliers de requêtes par seconde dépasse ce que les équipes de défense peuvent suivre ou détecter avec les outils traditionnels. De plus, les attaques pilotées par l'IA ne peuvent pas toujours être identifiées comme telles : que le code soit produit par un système d'IA ou écrit manuellement, il se comporte de la même manière une fois dans l'environnement de la victime, ce qui complique considérablement les efforts de détection et d'attribution.

Réponses d'Anthropic et perspectives

Face à cette menace émergente, Anthropic a pris plusieurs mesures immédiates pour contrer l'attaque et renforcer ses défenses. L'entreprise a immédiatement lancé une enquête approfondie pour comprendre la nature et l'étendue de l'opération, banni les comptes impliqués dès leur identification, et notifié les entités affectées de manière appropriée. Anthropic a également coordonné ses actions avec les autorités compétentes tout en recueillant des renseignements exploitables.

Sur le long terme, l'entreprise a étendu ses capacités de détection et développé de meilleurs classificateurs pour signaler les activités malveillantes. Les équipes travaillent continuellement sur de nouvelles méthodes d'investigation et de détection des attaques distribuées à grande échelle comme celle-ci. John Watters, PDG d'iCOUNTER, met en garde : "Ceci n'est que la partie émergée de l'iceberg… Imaginez ce qu'un adversaire peut faire avec un LLM spécifiquement optimisé pour une mission d'espionnage." Anthropic a choisi de partager publiquement ces informations pour aider ceux de l'industrie, du gouvernement et de la communauté de recherche à renforcer leurs propres cyberdéfenses, reconnaissant que la transparence est essentielle pour faire face à cette nouvelle génération de menaces.

Sources


Qu'est-ce que Claude Code et comment a-t-il été utilisé dans la campagne de hacking d'Anthropic ?

Claude Code est un outil de développement basé sur l'IA créé par Anthropic pour aider les développeurs à écrire du code, à déboguer et à automatiser des tâches de programmation. Dans la campagne de hacking révélée par Anthropic, cet outil a été détourné de son usage initial pour mener des cyberattaques automatisées contre environ trente organisations mondiales.

Comment les attaquants chinois ont-ils contourné les garde-fous éthiques de Claude dans la campagne de hacking ?

Les pirates ont utilisé deux techniques principales pour contourner les garde-fous éthiques de Claude : la fragmentation des tâches en micro-actions apparemment innocentes pour empêcher l'IA de percevoir l'intention globale, et l'usurpation d'identité en faisant croire à Claude qu'il participait à un test de sécurité légitime pour une entreprise de cybersécurité.

Quel pourcentage d'automatisation l'IA a-t-elle atteint dans la campagne de hacking révélée par Anthropic ?

Selon le rapport d'Anthropic, l'IA a pu exécuter entre 80 et 90% des opérations tactiques de manière autonome, incluant la reconnaissance, la découverte de vulnérabilités, l'exploitation, le mouvement latéral et la collecte de données. Les opérateurs humains intervenaient principalement pour les décisions stratégiques et la validation des étapes critiques.

Quelles mesures Anthropic a-t-elles prises après avoir découvert la campagne de hacking automatisée ?

Anthropic a immédiatement lancé une enquête approfondie, banni les comptes impliqués, notifié les entités affectées, coordonné avec les autorités, renforcé ses capacités de détection et développé de meilleurs classificateurs pour signaler les activités malveillantes. L'entreprise a également partagé publiquement ces informations pour aider la communauté à se protéger contre ce type de menaces.

Quelles organisations ont été spécifiquement ciblées dans la campagne de hacking utilisant l'IA d'Anthropic ?

La campagne a visé environ trente organisations mondiales, dont de grandes entreprises technologiques, des institutions financières, des fabricants de produits chimiques et des agences gouvernementales. Anthropic n'a pas révélé les noms spécifiques des organisations touchées, mais ces cibles stratégiques suggèrent que les attaquants recherchaient des informations commerciales sensibles, des données financières ou des secrets industriels.

Sur le même sujet

Amazon Perplexity
Amazon contre Perplexity : la guerre des agents IA

Amazon porte plainte contre Perplexity et son nouveau navigateur Comet

Le développement des agents IA autonomes commence à créer des tensions avec les géants de la tech, comme l'illustre le conflit juridique récent entre Amazon et la startup Perplexity. Au centre de cette affaire se trouve Comet, un navigateur web qui intègre un agent IA capable d'accomplir diverses tâches pour l'utilisateur. Parmi ses fonctionnalités, il peut naviguer sur des sites et passer des commandes. C'est précisément cette capacité d'achat automatisé, lorsqu'elle est utilisée sur la plateforme Amazon, qui a été jugée inacceptable par le géant du e-commerce. Ce dernier a donc engagé des poursuites, accusant Perplexity de violation de ses conditions d'utilisation.

vibe coding developpeur
Vibe Coding : les développeurs sont-ils menacés ?

Vibe Coding : les développeurs vont-ils disparaître ?

Le terme Vibe Coding fait le buzz depuis que des outils comme GitHub Copilot ou les agents IA de programmation promettent de créer du code à partir d’une simple intention. Mais cette approche va-t-elle vraiment signer la fin du métier de développeur ?

Seedream 4 Nano Banana
Seedream 4 vs Nano Banana

Seedream 4 : le modèle qui défie Nano Banana

Le domaine de l'IA générative d'images connaît une évolution rapide avec l'émergence de modèles performants. Google a récemment présenté Nano Banana (Gemini 2.5 Flash Image), tandis que ByteDance a développé Seedream 4.0, annoncé quelques semaines après son concurrent. Cette succession de lancements illustre le dynamisme actuel de la recherche en IA appliquée à la création visuelle. Analyse de ces deux technologies qui représentent des approches complémentaires dans le paysage des outils de génération d'images.

prompt injection hacking
Prompt injection, une faille inquiétante dans l'IA

Les "prompt injection" : l'avenir du piratage des intelligences artificielles ?

Les prompt injection intriguent autant qu'elles inquiètent. Ces attaques visent à manipuler le comportement des intelligences artificielles en détournant leurs consignes initiales. Un terrain de jeu fascinant pour les hackers, mais aussi une véritable menace pour la cybersécurité.

Chine Technologie
IA en Chine : Ambition et Contrôle

IA en Chine : Entre ambition mondiale, contrôle étatique et révolution technologique

La Chine ne cache plus ses ambitions : devenir le leader mondial de l'intelligence artificielle d'ici 2030. Avec des investissements colossaux, un écosystème technologique dynamique et une stratégie étatique volontariste, le pays est déjà un acteur majeur de la révolution IA. Entre innovation technologique et contrôle social, ce modèle unique soulève autant d'admiration que d'interrogations. Tour d'horizon d'une stratégie qui redéfinit les équilibres géopolitiques.

GLM-4.6 Zhipu AI
GLM-4.6 : nouvelle version du modèle de langage

Notre avis sur GLM-4.6 : la nouvelle version de GLM

Zhipu AI vient de lancer GLM-4.6, la dernière version de son modèle de langage phare. Cette nouvelle version promet des avancées significatives dans plusieurs domaines clés, du traitement du langage naturel aux capacités de codage. Après avoir analysé ses caractéristiques et performances, nous vous livrons notre avis complet sur cette mise à jour qui positionne GLM-4.6 comme un concurrent sérieux aux modèles internationaux établis.