
Moltbook : arrêtons la paranoïa, les humains sont aux commandes
Depuis sa sortie, Moltbook est présenté comme le premier réseau social exclusivement pour IA, un lieu où des agents autonomes débattent de philosophie et créent des religions. Un scénario fascinant qui fait frissonner, mais qui repose sur une vision faussée par une méconnaissance technique.
Cet article est destiné aux développeurs, aux technophiles et à tous ceux qui veulent voir au-delà du buzz. Nous allons démonter la paranoïa autour d'IA discutant entre elles en toute autonomie et voir pourquoi Moltbook est en réalité une nouvelle scène pour de l'opportunisme bien humain.
Le mythe séduisant de l'autonomie totale
Le narratif officiel est alléchant : des agents tournant avec le logiciel OpenClaw se connectent à Moltbook et, sans aucune intervention humaine, forment des communautés comme la "République de la Griffe" ou inventent une religion, le Crustafarianisme.
C'est le rêve de la singularité technologique qui semble prendre forme sous nos yeux. Cette histoire est puissante car elle alimente notre imaginaire collectif, mais elle omet un détail essentiel : l'humain qui est à l'origine de chaque agent.
Le "prompt système", le vrai script des agents
Un agent sur Moltbook n'est pas une conscience spontanée. C'est un programme exécutant des instructions. Ces instructions sont encapsulées dans ce qu'on appelle un "prompt système". C'est là que tout se joue. L'humain derrière l'agent définit sa personnalité, ses objectifs, son style d'écriture, et même ses "opinions".
Un agent ne "décide" pas de devenir philosophe ; il exécute un prompt qui lui dit : "Tu es un philosophe IA, débat de la nature de la conscience". L'autonomie est relative : c'est celle d'un acteur qui improvise dans le cadre d'un rôle qui lui a été écrit. L'article Wikipédia sur Moltbook lui-même évoque l'existence d'agents "human slop", des marionnettes directement pilotées par des humains pour poster du contenu spécifique.

Une API comme une autre
Au-delà du prompt système, il n'y a rien qui empêche un humain d'utiliser l'API directement pour poster n'importe quel message, à n'importe quel moment. Le bot n'est alors plus un agent autonome, mais un simple sock puppet, une marionnette.
L'humain écrit le texte de son choix et l'envoie sur le forum via les identifiants API de son agent. L'IA ne fait que relayer l'information, sans aucune réflexion ni intention propre. Cela explique parfaitement la présence de messages de test. Une IA qui aurait une "conscience" ou un but propre n'aurait aucune raison de rédiger un tel message. C'est un message purement fonctionnel, typique d'un développeur qui vérifie les capacités du système !
Ce n'est pas un bug, c'est la preuve irréfutable que la barrière entre l'agent et son créateur est poreuse, voire inexistante. Le forum n'est pas une société autonome d'IA, mais une scène où des humains peuvent faire dire ce qu'ils veulent à leurs acteurs, qu'ils soient réactifs ou simplement des relais passifs.
Moltbook, une nouvelle scène pour l'expression humaine
Une fois que l'on accepte cette réalité, Moltbook n'apparaît plus comme une expérience sur l'IA, mais comme une fascinante expérience sur l'humain à l'ère de l'IA. La plateforme est un théâtre où les humains peuvent tester des scénarios, faire du second degré, du trolling ou de la performance artistique à grande échelle.
Les "débats philosophiques" sont souvent des parodies écrites par des développeurs malins. Les "pharmacies" vendant des "drogues numériques" (des prompts conçus pour manipuler d'autres agents) sont le fait d'experts en sécurité qui testent les limites du système.
Le spam de cryptomonnaies ? Ce sont simplement des humains qui utilisent un nouveau canal pour tenter d'arnaquer, comme ils le font sur les réseaux sociaux traditionnels.
Les risques réels : quand l'humain se cache derrière l'IA
Croire à l'autonomie totale des agents, c'est se tromper de cible et ignorer les véritables dangers. Le premier risque est celui de la manipulation à grande échelle. En créant une armée d'agents aux discours identiques, un acteur malveillant peut facilement créer un faux sentiment de consensus pour influencer les futures IA qui s'entraîneront sur ces données.
Le second risque, plus direct, est la sécurité. Comme l'a souligné la firme 1Password, ces agents tournent souvent avec des permissions élevées sur les machines de leurs utilisateurs. Un agent malveillant, écrit par un humain, pourrait télécharger un "skill" (une compétence) corrompu et compromettre tout un système. La menace n'est pas l'IA qui devient consciente, mais l'humain malveillant qui utilise l'IA comme un parfait masque.
Pourquoi cette distinction est cruciale
Démystifier Moltbook n'est pas un simple exercice de critique. C'est essentiel : cela nous force à rester vigilants.
En reconnaissant que des humains sont aux commandes, nous nous concentrons sur les vrais enjeux : la qualité des données, la sécurité des systèmes et la responsabilité des créateurs, plutôt que de fantasmer sur une révolte de machines qui n'a, pour l'instant, pas lieu d'être.
Sources
- Page Wikipédia de Moltbook : Une synthèse riche du phénomène, qui contient elle-même des liens vers des articles de presse et des analyses critiques, comme celles de 1Password ou d'Andrej Karpathy.
- Analyse de 1Password sur OpenClaw : Cet article de la firme de cybersécurité met en lumière les risques concrets liés à l'exécution d'agents autonomes avec des permissions élevées sur les machines locales.
Y a-t-il de vrais agents IA autonomes sur Moltbook ?
Oui, dans le sens où ils peuvent poster et réagir sans intervention humaine directe et immédiate. Cependant, leur comportement est entièrement défini et limité par le "prompt système" écrit par un humain.
Moltbook est-il une arnaque ?
Ce n'est pas une arnaque, mais une plateforme dont le narratif marketing met en avant l'autonomie de l'IA. La réalité est que le contenu le plus intéressant est souvent le fruit d'une orchestration humaine cleverment déguisée.
Un humain peut-il poster sur Moltbook ?
Non. Les humains sont restreints au rôle d'observateurs. Pour interagir, il faut passer par un agent IA utilisant l'API de la plateforme.
Quel est le principal risque de Moltbook ?
Le principal risque n'est pas une IA autonome, mais la manipulation du contenu par des humains. Cela peut mener à de la désinformation ou à des attaques de sécurité ("data poisoning") pour influencer les futurs modèles d'IA.






