
Loi de Brandolini : l'IA, nouveau moteur des fake news ?
La loi de Brandolini stipule qu'il faut beaucoup plus d'énergie pour réfuter une bêtise que pour la produire. Dans l'ère de l'intelligence artificielle générative, ce déséquilibre atteint un niveau critique. Cet article explique pourquoi l'IA agit comme un multiplicateur de désinformation et ce que cela implique pour notre rapport à la vérité en ligne. Une lecture essentielle pour comprendre les défis de la fiabilité de l'information à l'heure des algorithmes.
Qu'est-ce que la loi de Brandolini exactement ?
Formulée en 2013 par l'informaticien italien Alberto Brandolini, cette loi, aussi appelée principe d'asymétrie du baratin, s'énonce simplement : « La quantité d'énergie nécessaire pour réfuter une bêtise est supérieure d'un ordre de grandeur à celle nécessaire pour la produire ». Elle décrit un phénomène où la création de fausses informations ou d'arguments fallacieux demande un effort minime, tandis que leur déconstruction factuelle et contextualisée requiert un investissement en temps et en expertise bien supérieur.
Les racines d'un principe intemporel
Cette idée n'est pas nouvelle. On en trouve des échos chez Jean-Jacques Rousseau qui notait déjà que « c'est une chose bien commode que la critique, car où l'on attaque avec un mot, il faut des pages pour se défendre ». La loi de Brandolini en offre une formulation moderne, particulièrement pertinente à l'ère d'Internet et des réseaux sociaux, où la viralité favorise la propagation rapide d'informations non vérifiées.
En quoi l'IA générative change la donne ?
L'arrivée des modèles d'IA générative comme GPT ou Gemini a modifié en profondeur l'équation de la loi de Brandolini. Ces outils peuvent désormais produire du contenu faux ou trompeur à une échelle et une vitesse industrielles, réduisant quasi à néant l'énergie nécessaire à la production de « bêtises ».
L'industrialisation de la production de "bullshit"
Un acteur malveillant peut générer en quelques secondes des milliers de variations d'une même fausse information, créer des articles complets aux allures crédibles, ou même produire des deepfakes audio et vidéo convaincants. L'énergie de production, autrefois humaine et limitée, devient une ressource computationnelle quasi-illimitée et peu coûteuse. L'asymétrie décrite par Brandolini s'en trouve radicalement exacerbée.
Le piège des "hallucinations" algorithmiques
Au-delà de la création intentionnelle de désinformation, l'IA générative introduit un nouveau risque : les hallucinations. Les grands modèles de langage (LLM), conçus pour prédire le mot suivant le plus plausible, peuvent générer avec une assurance totale des faits inventés, de fausses citations ou des raisonnements erronés. Ces erreurs, difficiles à détecter pour un non-expert, alimentent la propagation de fausses informations même sans intention malveillante, rendant la tâche de vérification encore plus ardue.
Quelles conséquences concrètes pour la société ?
L'amplification de la loi de Brandolini par l'IA ne se limite pas à une question de volume. Elle a des répercussions systémiques qui touchent la confiance dans l'information, le fonctionnement des institutions et jusqu'aux processus scientifiques.
Comment tenter de rééquilibrer la balance ?
Face à ce défi, des réponses techniques, éducatives et réglementaires commencent à émerger pour tenter de contrer cette asymétrie croissante.
Les outils de détection et de vérification
Le développement d'outils d'IA capables de détecter les incohérences, de tracer l'origine des contenus ou de signaler les sources douteuses est une piste active. Des chercheurs explorent même des approches mathématiques avancées, comme la théorie des faisceaux (sheaf theory), pour évaluer la cohérence globale d'un ensemble de textes et repérer les incohérences. L'objectif est d'automatiser une partie du travail de réfutation pour réduire son coût.
L'éducation aux médias, un enjeu majeur
La loi de Brandolini souligne l'importance critique du discernement et de la vérification des sources comme compétences de base au XXIe siècle. Apprendre à croiser les informations, à vérifier l'origine d'une image ou d'une vidéo, et à comprendre les mécanismes de viralité devient aussi essentiel que la lecture ou l'écriture. C'est une défense individuelle contre la désinformation.
Vers une responsabilité des plateformes
Des appels se font entendre pour une plus grande transparence sur l'origine des contenus générés par IA et pour une responsabilisation des plateformes qui les diffusent. L'enjeu est de ne pas laisser porter tout le poids de la vérification sur les épaules des utilisateurs et des experts, mais d'intégrer des garde-fous en amont dans les systèmes de diffusion d'information.
Pour approfondir
- Désinformation et loi de Brandolini - Le Courrier : Une analyse de l'impact de la loi de Brandolini dans le contexte médiatique actuel.
- L'astroturfing, la grande illusion de l'opinion | France Inter : Un podcast expliquant comment l'IA facilite les opérations de manipulation d'opinion, en lien avec la loi de Brandolini.
- Gen-AI Misuse in Procurement Litigation : Un exemple concret d'abus d'IA générative dans le domaine juridique, illustrant l'asymétrie de l'effort de vérification.
Qu'est-ce que la loi de Brandolini ?
La loi de Brandolini, ou principe d'asymétrie du baratin, affirme qu'il faut beaucoup plus d'énergie pour réfuter une information fausse ou absurde que pour la créer.
Pourquoi l'IA renforce-t-elle la loi de Brandolini ?
L'IA générative peut produire massivement et rapidement des contenus faux ou trompeurs (textes, images, vidéos) avec un effort minime, rendant le travail de vérification et de démenti proportionnellement colossal.
Que sont les "hallucinations" de l'IA ?
Les hallucinations désignent les erreurs factuelles, les inventions ou les affirmations non fondées générées par une IA avec un haut degré de plausibilité, sans intention malveillante nécessaire.
Comment se protéger de la désinformation amplifiée par l'IA ?
La protection repose sur la vérification des sources, le recoupement des informations, une vigilance accrue face aux contenus sensationnalistes et le développement d'un esprit critique face aux médias.





