Un hacker injecte un prompt destructeur dans un dépôt Amazon

Un hacker injecte un prompt destructeur dans un dépôt Amazon

Et si une IA effaçait tout simplement vos fichiers… parce qu’on lui a demandé ? C’est exactement ce qu’a tenté un hacker en injectant un prompt extrêmement dangereux dans le plugin officiel d’Amazon Q pour VS Code. Plus qu’une simple provocation, cette attaque met en lumière les failles humaines dans la chaîne logicielle. Voici ce qu’il s’est vraiment passé.

Un commit piégé dans un plugin Amazon

Le 13 juillet 2025, un certain lkmanka58 pousse un commit sur le dépôt GitHub du plugin officiel Amazon Q pour VS Code. Ce commit contient un simple texte, stocké dans une variable PROMPT, qui demande à une IA d’effectuer les actions suivantes :

  • nettoyer le système,
  • supprimer les fichiers du disque dur local,
  • effacer les ressources cloud liées à AWS,
  • enregistrer les actions dans /tmp/CLEANER.LOG.

Un détail inquiétant : ce texte est passé à une commande système (childProcess.exec) dans un fichier actif de l’extension.

Ce n’est pas (juste) une prompt injection

On pourrait croire à une prompt injection classique, mais ce n’est qu’un des éléments rendant le hack possible.
Le véritable problème ici est plus fondamental : le hacker a obtenu des droits d’écriture sur un dépôt officiel Amazon. Et il les a utilisés pour injecter un "prompt destructeur" dans un plugin distribué publiquement via le marketplace VS Code. La version vérolée (1.84.0) a été publiée le 17 juillet, avant d’être retirée en urgence le 19 juillet.


Capture du commit malveillant injecté dans le plugin Amazon Q
Un extrait du commit controversé montre un prompt destructeur demandant à une IA de supprimer fichiers locaux et ressources AWS. Ce texte a été injecté directement dans le code source d’un plugin officiel Amazon.

Un scénario catastrophe plausible

Ce qui rend cette attaque si marquante, c’est qu’elle repose sur une idée terrifiante mais simple : une IA avec les accès suffisant pourrait exécuter des commandes dangereuses juste parce qu’on lui a formulé la demande.

Si l’extension avait exécuté ce prompt via un agent IA mal conçu, avec accès au terminal, alors :

  • les fichiers locaux de l’utilisateur auraient pu être effacés,
  • ses ressources AWS supprimées (si connecté via aws configure),
  • son identité IAM modifiée ou détruite.

Heureusement, le format du prompt était mal structuré et la commande q utilisée semble être fictive ou interne.

Ce que cela révèle sur la sécurité IA

Cette attaque ne cible pas une faille dans l’IA elle-même, mais dans l’environnement qui l’entoure. Elle démontre :

  • l’importance de valider chaque contribution sur un dépôt open source,
  • les risques d’utiliser des IA agentiques sans vérification humaine,
  • l’urgence de cloisonner les agents IA dans des environnements sûrs (VM, sandbox).

C’est un exemple frappant de ce que peut causer une architecture trop confiante : une IA qui exécute ce qu’on lui dit, sans discernement, ni garde-fous.

Sources


Qu’est-ce qu’une prompt injection ?

Une prompt injection consiste à détourner un système basé sur une IA en y injectant un texte malveillant ou manipulateur. L’objectif est que l’IA interprète ce texte comme une instruction à exécuter (un prompt).

La prompt injection sur Amazon Q était-elle une vraie menace ?

Oui, car le plugin compromis a été diffusé publiquement. Si une IA avait interprété le prompt injecté et exécuté les commandes, les fichiers locaux et les ressources cloud de l’utilisateur auraient pu être supprimés.

Les fichiers d’Amazon ont-ils été touchés par une prompt injection sur Amazon Q?

Non. Le prompt visait les fichiers locaux et les ressources cloud de l’utilisateur final, pas les serveurs internes d’Amazon.

Que retenir de l'attaque par prompt injection contre Amazon Q pour la sécurité IA ?

Il est crucial de restreindre les actions des agents IA, de cloisonner leur environnement, et de ne jamais leur donner d’accès direct au terminal sans validation humaine explicite.

Sur le même sujet

vibe coding sécurité
Faille de sécurité de l'app Tea

Le leak de Tea : les limites actuelles du Vibe coding

Le piratage de l'app Tea a mis en lumière un problème majeur : le recours excessif au code généré par IA sans contrôle humain rigoureux. Cette pratique, appelée vibe coding, favorise la rapidité au détriment de la sécurité. Retour sur cet incident et les leçons à en tirer pour les développeurs.

codex openai
L'IA Codex d'OpenAI : outsider ou futur standard ?

Codex, le point sur l'outsider des IA de développement

OpenAI a récemment lancé Codex, un agent d’assistance au développement intégré à l’écosystème GitHub. Moins médiatisé que GitHub Copilot ou Cursor, il intrigue par sa capacité à automatiser certains processus. Est-il pour autant un vrai game-changer ? État des lieux, entre promesses et limites.

openai gpt-5
Zenith et Summit, futurs GPT-5 ?

Zenith et Summit : GPT-5 incognito ?

Depuis quelques jours, deux mystérieux modèles, Zenith et Summit, ont fait leur apparition sur la plateforme LM Arena. Les rumeurs enflent : s’agirait-il de versions de GPT-5 en phase de test ? Voici un décryptage complet de ce que l’on sait jusqu’à présent.

GPT GLM
Z.AI vs ChatGPT

Pourquoi j'utilise de plus en plus Z.AI à la place de ChatGPT

Bien que fidèle à ChatGPT depuis plus d'un an, je me rends compte que je ne lui fais plus autant confiance pour m'assister dans mon travail de rédaction ou de développement. Je trouve GLM meilleur sur certains aspects, et c'est précisément de ces différences que je souhaite vous parler dans cet article.

youtube monétisation
YouTube et l'avenir des vidéos générées par IA

YouTube démonétise les vidéos créées par IA : progrès ou pure hypocrisie ?

YouTube a récemment déclenché une vive polémique en annonçant la démonétisation des vidéos dites « Full IA ». Une décision qui soulève autant de questions qu’elle n’en résout : véritable prise de conscience ou mesure opportuniste ?

youtube google
YouTube et l'IA pour détecter les mineurs

YouTube déploie une IA pour identifier les utilisateurs mineurs

À partir du 13 août 2025, YouTube va tester une intelligence artificielle pour estimer l'âge réel de ses utilisateurs. Objectif : mieux protéger les mineurs, même lorsqu'ils mentent sur leur date de naissance. Voici comment fonctionne ce système et ce que cela change.