
Faut-il faire confiance à l'IA pour voter ?
Faut-il faire confiance à l'IA pour voter ? À la fin de l'année 2024, les Pays-Bas ont apporté une réponse claire : non. L'autorité néerlandaise de protection des données (AP) a publié une mise en garde directe aux électeurs, déconseillant l'usage des chatbots pour s'informer. Peut-être n'avez-vous pas entendu parler de cette étude à l'époque, elle a surtout circulé parmi les cercles de spécialistes. Pourtant, un an plus tard, elle est devenue une référence mondiale. Que nous a-t-elle vraiment appris sur les risques de l'IA générative pour nos démocraties ?
Retour sur l'alerte : Des conseillers électoraux peu fiables
Fin 2024, à l'approche d'élections nationales cruciales, l'Autorité néerlandaise de protection des données (Autoriteit Persoonsgegevens ou AP) a publié les résultats d'une enquête accablante. En testant quatre grands chatbots, l'agence a découvert qu'ils n'étaient pas seulement imprécis, mais aussi systématiquement biaisés. Dans 56 % des cas, les IA orientaient les électeurs vers l'un des deux partis majeurs aux opposés du spectre politique : le Parti pour la liberté (PVV) d'extrême droite ou la coalition Gauche Verte-Parti travailliste (GL-PvdA). Ce résumé binaire ignorait complètement les treize autres partis représentés au parlement, déformant la réalité politique du pays. La vice-présidente de l'AP, Monique Verdier, avait alors une formule très claire : "Les chatbots peuvent sembler des outils intelligents, mais en tant qu'aide au vote, ils échouent de manière constante."
Pourquoi les chatbots IA sont-ils de mauvais conseillers politiques ?
L'enquête néerlandaise a mis en lumière trois défauts fondamentaux des IA conversationnelles dans un contexte politique. Ces failles ne sont pas nouvelles, mais leur application à un processus démocratique les rend particulièrement dangereuses.
Les "hallucinations" et la désinformation
Les grands modèles de langage (LLM) sont connus pour leur capacité à "halluciner", c'est-à-dire à inventer des faits, des citations ou des événements de manière très convaincante. Imaginez demander à un chatbot la position d'un candidat sur l'écologie et qu'il vous réponde avec assurance qu'il a voté contre une loi spécifique, alors que c'est factuellement faux. Dans le cadre d'une élection, ces IA peuvent ainsi générer de faux programmes, attribuer des positions inexistantes à un candidat ou même créer des scandales imaginaires. Pour un électeur qui cherche une information rapide, distinguer le vrai du faux devient un défi immense.
Les biais inhérents à la "boîte noire"
Les IA sont entraînées sur d'immenses volumes de données provenant d'Internet. Or, le contenu le plus virulant, les controverses et les polarisations sont souvent les plus visibles et les plus commentés. L'IA apprend donc que ces sujets sont les plus "importants". Le résultat est une IA qui amplifie les extrêmes et les sujets les plus clivants, car ce sont eux qui génèrent le plus d'engagement en ligne. Elle a tendance à ignorer les positions modérées ou les petits partis, moins présents dans son corpus d'entraînement. L'étude néerlandaise est la parfaite illustration de ce mécanisme.
Un manque criant de transparence
Contrairement à un journaliste ou un guide de vote qui cite ses sources et explique sa méthodologie, un chatbot est une boîte noire. Il synthétise une réponse sans jamais expliquer pourquoi il a sélectionné telle information plutôt qu'une autre, ni d'où elle provient. Comment vérifier une affirmation si on ne connaît pas sa source ? Cette opacité est incompatible avec le débat démocratique, qui exige des sources vérifiables et un raisonnement transparent pour permettre à chaque citoyen de se forger sa propre opinion.
Bilan un an plus tard : Un "coup de semonce" nécessaire
Avec le recul, l'alerte néerlandaise n'a pas empêché la diffusion de fausses informations, mais son impact a été profondément instructif. Elle a popularisé un concept jusqu'alors réservé aux experts : la vulnérabilité de notre information face à l'IA. Pour la première fois, un régulateur parlait clairement aux citoyens, pas seulement aux entreprises. Cet événement a agi comme un électrochoc, forçant les médias, les organisations de fact-checking et les plateformes à prendre le sujet beaucoup plus au sérieux. La leçon principale est que la première ligne de défense n'est pas technique, mais humaine et citoyenne.
Et en France ? Une vigilance déjà bien présente
La situation néerlandaise nous concerne directement, et la France n'est pas en reste. Même si nous n'avons pas connu d'étude aussi médiatisée juste avant un scrutin, les autorités et la société civile sont déjà mobilisées. Dès mars 2023, la Commission Nationale de l'Informatique et des Libertés (CNIL) a lancé une mission de contrôle sur ChatGPT, soulignant les risques pour les données personnelles et les biais. Lors de la campagne pour les élections européennes de 2024, les médias comme AFP Factuel ont dû corriger de multiples informations générées par IA, montrant que la menace est déjà là. Plus récemment, des think tanks comme Terra Nova ont publié des rapports approfondis sur les risques de 'persuasion computationnelle' où des agents IA pourraient influencer les opinions de manière ciblée. Le cadre européen, avec l'AI Act pleinement entré en vigueur en 2025, classe d'ailleurs les systèmes d'IA influençant l'opinion politique comme "à haut risque". Cependant, la régulation seule ne suffit pas. L'enjeu est de développer une véritable "littératie IA" : comprendre comment fonctionnent ces outils, connaître leurs limites et adopter un0esprit critique renforcé.
Sources
- Dutch watchdog warns voters against using AI chatbots ahead of election - Reuters : L'article de référence sur l'enquête de l'autorité néerlandaise et ses conclusions chiffrées.
- AP waarschuwt: chatbots geven vertekend stemadvies - Autoriteit Persoonsgegevens : Le communiqué officiel de l'autorité de protection des données néerlandaise.
- CNIL - Comment fonctionnent les chatbots et comment sont-ils entraînés ? : Une ressource de la CNIL pour comprendre les enjeux des chatbots.
- IA : quels risques pour nos démocraties ? : Une analyse de l'université de Sorbonne des risques et opportunités de l'IA pour le processus démocratique.
- Des chatbots "manifestement biaisés" : les électeurs néerlandais mis en garde - TF1 INFO : Une analyse française qui met en perspective l'événement pour un public francophone.
Quelle était l'alerte lancée par les Pays-Bas sur les IA en 2024 ?
L'autorité néerlandaise de protection des données a averti les électeurs de ne pas utiliser les chatbots IA pour obtenir des conseils de vote, les jugeant peu fiables et biaisés envers les partis politiques extrêmes.
Pourquoi un chatbot IA est-il un mauvais guide pour les élections ?
Un chatbot IA est un mauvais guide car il peut inventer des faits (hallucinations), amplifier les biais présents sur Internet et opérer sans transparence sur ses sources, ce qui est incompatible avec un choix éclairé.
Qu'est-ce que la "littératie IA" et pourquoi est-elle importante ?
La "littératie IA" est la capacité de comprendre le fonctionnement de base des intelligences artificielles, de connaître leurs limites et leurs biais. Elle est essentielle pour naviguer dans un monde saturé d'informations et pour protéger le débat démocratique.
Comment l'Europe encadre-t-elle l'IA dans le contexte politique ?
L'Europe encadre l'IA via l'AI Act, qui classe les systèmes d'IA utilisés pour influencer l'opinion politique ou le résultat d'élections comme "à haut risque", leur imposant des obligations strictes de transparence et de conformité.
Faut-il arrêter complètement d'utiliser l'IA pour s'informer ?
Non, il ne s'agit pas d'arrêter de l'utiliser mais de la faire avec un esprit critique. L'IA peut être un point de départ pour une recherche, mais il est impératif de toujours vérifier les informations auprès de sources fiables, humaines et multiples.





