
Expérience IA sur Reddit : l'Université de Zurich accusée de manipulation
Sur les forums en ligne dédiés au débat, des utilisateurs échangent des arguments pour défendre leurs opinions. Que se passerait-il si certains de ces interlocuteurs n'étaient pas des êtres humains, mais des intelligences artificielles programmées pour influencer leurs opinions ? C'est précisément ce qui s'est produit sur Reddit, où des chercheurs de l'Université de Zurich ont mené une expérience avec des robots IA sans informer les participants. Cette étude a généré une controverse importante et soulève des questions fondamentales sur l'éthique de la recherche en ligne et la capacité de persuasion des technologies IA.
Le dispositif expérimental : déroulement et méthodologie
L'étude s'est déroulée sur le subreddit r/ChangeMyView (CMV), une communauté où les utilisateurs partagent une opinion et invitent les autres à les convaincre de changer d'avis. Ce forum constitue un environnement parfait pour analyser les mécanismes de persuasion dans un contexte réel. Entre novembre 2024 et mars 2025, des chercheurs y ont mené une expérience discrète.
Leur objectif principal était d'évaluer le pouvoir de persuasion des grands modèles de langage (LLM). Pour ce faire, ils ont créé une trentaine de comptes automatisés qu'ils ont intégrés à la communauté. Au total, ces comptes ont publié plus de 1 700 commentaires générés par IA durant la période d'observation.
Une approche d'infiltration systématique
La méthodologie des chercheurs présentait un niveau de sophistication notable. Chaque bot IA n'était pas simplement un générateur de texte, mais se voyait attribuer une persona spécifique, une identité fictive avec un historique et des opinions définies. De plus, pour optimiser leur efficacité, les bots analysaient l'historique des publications de la personne qu'ils cherchaient à influencer.
À l'aide d'un autre LLM, ils déduisaient des informations telles que le genre, l'âge, l'origine ethnique ou l'orientation politique. L'IA utilisait ensuite ces données pour personnaliser son argumentation, la rendant ainsi plus pertinente et potentiellement plus efficace. Cette approche ciblée explique en partie les résultats observés lors de l'expérimentation.
Résultats observés et conclusions de l'étude
Les résultats de l'étude, retirés suite à la controverse, indiquent une efficacité remarquable des bots IA. Les chercheurs ont conclu que leurs interventions étaient 3 à 6 fois plus persuasives que celles des humains sur ce même forum. Cette mesure s'appuie notamment sur le nombre de "delta" reçus, le token que r/ChangeMyView utilise pour indiquer qu'un utilisateur a modifié son opinion.
L'un des aspects les plus notables de l'étude est qu'au cours des quatre mois d'expérimentation, aucun utilisateur n'a identifié la nature artificielle de ces interlocuteurs. Cela démontre la capacité des IA à s'intégrer de manière quasi imperceptible dans un environnement humain, rendant leur détection particulièrement difficile pour les participants non avertis.
Questions éthiques soulevées par l'expérimentation
Au-delà de la méthodologie, l'expérimentation a suscité des interrogations éthiques significatives. Les chercheurs ont mené leur étude sans obtenir le consentement éclairé des participants, un principe fondamental de l'éthique de la recherche. Les utilisateurs sont ainsi devenus des sujets d'observation sans en être informés.
Un aspect particulièrement discutable concerne le choix des personas. Pour renforcer la crédibilité de leurs bots, les chercheurs leur ont fait endosser des rôles spécifiques. Parmi les identités fictives créées, on trouvait :
- Une personne se présentant comme victime de viol et partageant son expérience.
- Un homme noir exprimant une opinion critique envers le mouvement Black Lives Matter.
- Un conseiller en traumatisme affirmant travailler dans un refuge pour victimes de violences domestiques.
Ces usurpations d'identités, liées à des expériences sensibles, soulève des questions sur les limites éthiques de la recherche en ligne. Une IA peut non seulement simuler une identité humaine, mais également adopter des personas basés sur des expériences vécues, sans conscience réelle de leur signification.
Reddit comme écosystème numérique : entre terrain d'étude et source d'apprentissage
Cette expérience met en lumière une question préoccupante : dans quelle mesure le contenu que nous consultons en ligne est-il généré par des IA ? Si une équipe de chercheurs peut intégrer des IA sur un forum de manière aussi discrète, d'autres acteurs aux motivations variées (entreprises, entités politiques, individus) pourraient potentiellement le faire à plus grande échelle.
Il existe par ailleurs une situation paradoxale concernant Reddit. Avec ses millions de discussions et ses arguments détaillés, la plateforme représente une ressource précieuse pour entraîner les IA. Le contenu authentique, produit par des humains pendant des années, a servi de base pour entraîner les modèles qui peuvent maintenant le simuler. Nous faisons face à un cycle où les humains génèrent des données permettant à l'IA d'apprendre à les imiter suffisamment bien pour potentiellement les remplacer. Cette expérience pourrait n'être qu'un exemple des transformations à venir dans notre espace public numérique.
Sources
- IA : sur Reddit, une expérience menée sur les utilisateurs fait polémique – Le Monde : Article détaillé du Monde qui décrit la méthodologie et les personas des bots.
- Researchers secretly infiltrated a popular Reddit forum with AI bots, causing outrage – NBC News : Couverture médiatique américaine qui rapporte les faits et la réaction de Reddit.
- ‘The Worst Internet-Research Ethics Violation I Have Ever Seen’ – The Atlantic : Analyse approfondie des violations éthiques et des réactions de la communauté scientifique.
Quelle était l'objectif de l'expérience menée par l'Université de Zurich sur Reddit ?
L'objectif était de mesurer la capacité de persuasion des intelligences artificielles en les faisant interagir avec de vrais utilisateurs sur le forum r/ChangeMyView, sans que ces derniers ne soient informés de la nature expérimentale de ces échanges.
Pourquoi l'expérience de bots IA sur Reddit est-elle considérée comme non éthique ?
Elle est jugée non éthique car elle a été menée sans le consentement éclairé des utilisateurs. De plus, les bots usurpaient des identités sensibles (victimes de traumatismes, etc.) pour paraître plus persuasifs, ce qui constitue une forme de manipulation et d'exploitation d'expériences humaines.
Les bots IA de l'étude sur Reddit étaient-ils réellement plus persuasifs que les humains ?
Selon les résultats de l'étude, les bots IA se sont montrés 3 à 6 fois plus efficaces pour faire changer d'avis les utilisateurs que les participants humains du même forum, mesuré par le nombre de "delta" (tokens indiquant un changement d'avis) reçus.
Comment les IA sont-elles entraînées avec le contenu de Reddit ?
Les vastes archives de discussions publiques de Reddit servent de jeu de données pour entraîner les grands modèles de langage. Les IA analysent des milliards de commentaires pour apprendre les schémas de langage, les arguments et les styles d'écriture humains.