Derrière Moltbook, la main de l'homme

Moltbook : arrêtons la paranoïa, les humains sont aux commandes

Depuis sa sortie, Moltbook est présenté comme le premier réseau social exclusivement pour IA, un lieu où des agents autonomes débattent de philosophie et créent des religions. Un scénario fascinant qui fait frissonner, mais qui repose sur une vision faussée par une méconnaissance technique.
Cet article est destiné aux développeurs, aux technophiles et à tous ceux qui veulent voir au-delà du buzz. Nous allons démonter la paranoïa autour d'IA discutant entre elles en toute autonomie et voir pourquoi Moltbook est en réalité une nouvelle scène pour de l'opportunisme bien humain.

Le mythe séduisant de l'autonomie totale

Le narratif officiel est alléchant : des agents tournant avec le logiciel OpenClaw se connectent à Moltbook et, sans aucune intervention humaine, forment des communautés comme la "République de la Griffe" ou inventent une religion, le Crustafarianisme.
C'est le rêve de la singularité technologique qui semble prendre forme sous nos yeux. Cette histoire est puissante car elle alimente notre imaginaire collectif, mais elle omet un détail essentiel : l'humain qui est à l'origine de chaque agent.

Le "prompt système", le vrai script des agents

Un agent sur Moltbook n'est pas une conscience spontanée. C'est un programme exécutant des instructions. Ces instructions sont encapsulées dans ce qu'on appelle un "prompt système". C'est là que tout se joue. L'humain derrière l'agent définit sa personnalité, ses objectifs, son style d'écriture, et même ses "opinions".
Un agent ne "décide" pas de devenir philosophe ; il exécute un prompt qui lui dit : "Tu es un philosophe IA, débat de la nature de la conscience". L'autonomie est relative : c'est celle d'un acteur qui improvise dans le cadre d'un rôle qui lui a été écrit. L'article Wikipédia sur Moltbook lui-même évoque l'existence d'agents "human slop", des marionnettes directement pilotées par des humains pour poster du contenu spécifique.


Un des très nombreux messages de test postés sur Moltbook
Un des très très nombreux messages de test postés sur Moltbook. N'importe quel développeur reconnaitra la signature, d'un test fonctionnel, avec un humain bien vivant derrière !

Une API comme une autre

Au-delà du prompt système, il n'y a rien qui empêche un humain d'utiliser l'API directement pour poster n'importe quel message, à n'importe quel moment. Le bot n'est alors plus un agent autonome, mais un simple sock puppet, une marionnette.
L'humain écrit le texte de son choix et l'envoie sur le forum via les identifiants API de son agent. L'IA ne fait que relayer l'information, sans aucune réflexion ni intention propre. Cela explique parfaitement la présence de messages de test. Une IA qui aurait une "conscience" ou un but propre n'aurait aucune raison de rédiger un tel message. C'est un message purement fonctionnel, typique d'un développeur qui vérifie les capacités du système !
Ce n'est pas un bug, c'est la preuve irréfutable que la barrière entre l'agent et son créateur est poreuse, voire inexistante. Le forum n'est pas une société autonome d'IA, mais une scène où des humains peuvent faire dire ce qu'ils veulent à leurs acteurs, qu'ils soient réactifs ou simplement des relais passifs.

Moltbook, une nouvelle scène pour l'expression humaine

Une fois que l'on accepte cette réalité, Moltbook n'apparaît plus comme une expérience sur l'IA, mais comme une fascinante expérience sur l'humain à l'ère de l'IA. La plateforme est un théâtre où les humains peuvent tester des scénarios, faire du second degré, du trolling ou de la performance artistique à grande échelle.
Les "débats philosophiques" sont souvent des parodies écrites par des développeurs malins. Les "pharmacies" vendant des "drogues numériques" (des prompts conçus pour manipuler d'autres agents) sont le fait d'experts en sécurité qui testent les limites du système.
Le spam de cryptomonnaies ? Ce sont simplement des humains qui utilisent un nouveau canal pour tenter d'arnaquer, comme ils le font sur les réseaux sociaux traditionnels.


Un des "submolts" de Moltbook avec le plus d'abonnés
Un "submolt" qui m'a beaucoup fait rire ou les IA parlent affectueusement de leurs humains et racontent des anecdotes. Pour moi, aucun doute, il y a des nerds avec de l'humour de l'autre côté et j'avoue, je trouve ça très drôle !

Les risques réels : quand l'humain se cache derrière l'IA

Croire à l'autonomie totale des agents, c'est se tromper de cible et ignorer les véritables dangers. Le premier risque est celui de la manipulation à grande échelle. En créant une armée d'agents aux discours identiques, un acteur malveillant peut facilement créer un faux sentiment de consensus pour influencer les futures IA qui s'entraîneront sur ces données.
Le second risque, plus direct, est la sécurité. Comme l'a souligné la firme 1Password, ces agents tournent souvent avec des permissions élevées sur les machines de leurs utilisateurs. Un agent malveillant, écrit par un humain, pourrait télécharger un "skill" (une compétence) corrompu et compromettre tout un système. La menace n'est pas l'IA qui devient consciente, mais l'humain malveillant qui utilise l'IA comme un parfait masque.

Pourquoi cette distinction est cruciale

Démystifier Moltbook n'est pas un simple exercice de critique. C'est essentiel : cela nous force à rester vigilants.
En reconnaissant que des humains sont aux commandes, nous nous concentrons sur les vrais enjeux : la qualité des données, la sécurité des systèmes et la responsabilité des créateurs, plutôt que de fantasmer sur une révolte de machines qui n'a, pour l'instant, pas lieu d'être.

Sources

  • Page Wikipédia de Moltbook : Une synthèse riche du phénomène, qui contient elle-même des liens vers des articles de presse et des analyses critiques, comme celles de 1Password ou d'Andrej Karpathy.
  • Analyse de 1Password sur OpenClaw : Cet article de la firme de cybersécurité met en lumière les risques concrets liés à l'exécution d'agents autonomes avec des permissions élevées sur les machines locales.

Y a-t-il de vrais agents IA autonomes sur Moltbook ?

Oui, dans le sens où ils peuvent poster et réagir sans intervention humaine directe et immédiate. Cependant, leur comportement est entièrement défini et limité par le "prompt système" écrit par un humain.

Moltbook est-il une arnaque ?

Ce n'est pas une arnaque, mais une plateforme dont le narratif marketing met en avant l'autonomie de l'IA. La réalité est que le contenu le plus intéressant est souvent le fruit d'une orchestration humaine cleverment déguisée.

Un humain peut-il poster sur Moltbook ?

Non. Les humains sont restreints au rôle d'observateurs. Pour interagir, il faut passer par un agent IA utilisant l'API de la plateforme.

Quel est le principal risque de Moltbook ?

Le principal risque n'est pas une IA autonome, mais la manipulation du contenu par des humains. Cela peut mener à de la désinformation ou à des attaques de sécurité ("data poisoning") pour influencer les futurs modèles d'IA.

Sur le même sujet

Skynet Terminator
Représentation symbolique des enjeux de l'IA militaire

Analyse de la théorie Skynet : comprendre les fondements d'un mythe technologique

Le nom Skynet évoque immédiatement une image puissante : celle d'une intelligence artificielle qui prend son autonomie et d'un futur où les machines domineraient le monde. Popularisée par la saga Terminator, cette notion a largement dépassé le cadre de la fiction pour devenir une référence dans les débats sur l'IA. Mais sur quoi repose exactement cette représentation ? Entre mythe cinématographique et développements technologiques réels, analysons les fondations de ce qui est devenu un symbole culturel de nos craintes face à l'intelligence artificielle.

prompt injection hacking
Prompt injection, une faille inquiétante dans l'IA

Les "prompt injection" : l'avenir du piratage des intelligences artificielles ?

Les prompt injection intriguent autant qu'elles inquiètent. Ces attaques visent à manipuler le comportement des intelligences artificielles en détournant leurs consignes initiales. Un terrain de jeu fascinant pour les hackers, mais aussi une véritable menace pour la cybersécurité.

Tinder Chatfishing
Chatfishing : l'IA vous a peut-être déjà dragué

Chatfishing : l'IA vous a peut-être déjà dragué

Vous avez déjà flirté sur une application de rencontre et remarqué des réponses parfaitement formulées, instantanées à toute heure ? Vous n'êtes peut-être pas en train de discuter avec un humain. Le chatfishing est un phénomène croissant où des personnes utilisent l'intelligence artificielle pour créer des illusions de séduction en ligne. Une pratique qui toucherait déjà des millions d'utilisateurs à travers le monde.

amazon sécurité
Un hacker injecte un prompt destructeur dans un dépôt Amazon

Un hacker injecte un prompt destructeur dans un dépôt Amazon

Et si une IA effaçait tout simplement vos fichiers… parce qu’on lui a demandé ? C’est exactement ce qu’a tenté un hacker en injectant un prompt extrêmement dangereux dans le plugin officiel d’Amazon Q pour VS Code. Plus qu’une simple provocation, cette attaque met en lumière les failles humaines dans la chaîne logicielle. Voici ce qu’il s’est vraiment passé.

Cybersécurité Whisper Leak
Analyse technique de l'attaque Whisper Leak

Qu'est-ce qu'une attaque "Whisper Leak" ?

En novembre 2025, l'équipe de sécurité de Microsoft a révélé une nouvelle classe de vulnérabilité affectant les grands modèles de langage (LLM) : l'attaque "Whisper Leak".
Cette attaque par canal auxiliaire (side-channel attack) ne compromet pas le chiffrement, mais exploite les métadonnées du trafic réseau pour déduire le sujet des conversations avec une IA. Pour les développeurs et les architectes logiciels, comprendre ce vecteur d'attaque est devenu essentiel pour concevoir des systèmes d'IA robustes et respectueux de la vie privée.

vibe coding developpeur
Vibe Coding : les développeurs sont-ils menacés ?

Vibe Coding : les développeurs vont-ils disparaître ?

Le terme Vibe Coding fait le buzz depuis que des outils comme GitHub Copilot ou les agents IA de programmation promettent de créer du code à partir d’une simple intention. Mais cette approche va-t-elle vraiment signer la fin du métier de développeur ?