
D'après une récente étude, nous ne savons pas utiliser l'IA
Les outils d'IA générative ont envahi nos flux de travail, mais une étude récente publiée sur arXiv révèle une réalité brutale : la plupart d'entre nous ne savons pas les utiliser correctement. Loin d'être des assistants fiables, ces modèles sont souvent utilisés de manière passive, conduisant à des erreurs évitables et à un apprentissage superficiel. Cet article décrypte les mécanismes de cette incompétence collective et propose des pistes concrètes pour reprendre le contrôle sur la machine.
Le constat accablant de la recherche
L'étude "Teaching Students to Question the Machine" (Chung, Chun, & Mayer, 2026) a examiné comment des élèves utilisaient des LLM pour des tâches scientifiques. Le résultat est sans appel : sans formation spécifique, les utilisateurs font preuve d'une confiance aveugle envers la machine. Ils acceptent les "hallucinations" (inventées par l'IA) comme des faits réels et négligent la vérification.
Ce phénomène, connu sous le nom de biais d'automatisation, nous pousse à baisser notre garde cognitive face à une réponse articulée. L'étude démontre que ce n'est pas tant l'outil qui est en faute, mais notre manque de "littératie en IA", c'est-à-dire notre incapacité à évaluer et à réguler nos interactions avec ces systèmes.
Pourquoi nous échouons : le mythe de l'expertise
Même dans la sphère technique, l'expertise ne protège pas de ces erreurs. Un développeur chevronné peut être trompé par un code généré qui semble fonctionner mais qui contient des vulnérabilités de sécurité ou des erreurs de logique subtiles. Le problème réside dans notre compréhension fondamentale de l'IA. Nous la traitons souvent comme un moteur de recherche fiable alors qu'elle fonctionne comme un moteur de prédiction statistique. Lorsque nous ne comprenons pas cette différence, nous attribuons à tort une intention ou une vérité à la machine, ce qui sabote notre propre jugement critique.
L'épreuve de réalité : l'absence de régulation
Les résultats concrets de l'expérience soulignent ce décalage entre la perception de l'outil et son usage réel.
Dans le groupe témoin de l'étude, les élèves acceptaient les informations générées par le modèle comme des vérités absolues, intégrant des erreurs factuelles sans sourciller. Ce comportement révèle un déficit de régulation métacognitive : l'utilisateur ne surveille pas sa propre compréhension ni la fiabilité de la source. L'étude démontre ainsi que l'échec n'est pas technologique mais comportemental ; sans un acte délibéré de vérification, l'IA agit comme un amplificateur de passivité plutôt que comme un levier d'intelligence
Que se passe-t-il réellement dans les écoles ?
Cette inertie intellectuelle, je l'observe quotidiennement depuis que j'ai entamé une nouvelle facette de ma carrière en animant des cours dans plusieurs grandes écoles d'ingénieurs. Sur le terrain, le décalage entre l'ambition pédagogique et la réalité des étudiants est saisissant. L'objectif affiché des écoles est de former des ingénieurs en développement web capables de réflexion, d'architecture et d'adaptation à des environnements complexes. Pourtant, avec l'utilisation de l'IA, on finit par obtenir un profil unique : celui de l'utilisateur passif de ChatGPT. Ce qui manque cruellement dans les cursus actuels, c'est précisément cet enseignement de l'interaction critique avec l'intelligence artificielle. Les nouvelles générations abordent ces outils sans le recul nécessaire, dotés d'une confiance aveugle dans la machine. Ils acceptent les réponses générées comme des acquis, livrant souvent en retour un travail médiocre qui trahit un abandon total de la pensée critique.
Ces mêmes étudiants seront un jour les travailleurs de demain et seront inadaptés à la réalité du terrain
Réapprendre à questionner la machine
Pour contrer cette passivité, la méthode proposée par l'étude repose sur trois piliers distincts.
Il faut d'abord instaurer une suspicion par défaut, considérant toute information générée comme une hypothèse à tester plutôt qu'un verdict final. Ensuite, la validation technique doit devenir systématique : un développeur ne doit jamais intégrer un bloc de code suggéré par l'IA sans une revue ligne par ligne et des tests unitaires rigoureux. Enfin, il est crucial de lutter contre la paresse cognitive en reformulant ses demandes et en forçant l'IA à justifier ses raisonnements, transformant ainsi une simple requête en un dialogue constructif.
L'IA comme outil de pensée, pas de substitution
Apprendre à utiliser l'IA, c'est accepter qu'elle nous force à travailler davantage sur le fond. Au lieu de nous faire gagner du temps en remplaçant notre réflexion, elle devrait nous servir de sparring partner. En développement, elle permet de générer des tests ou de documenter du code, nous libérant pour l'architecture. En design, elle propose des variations sur un thème, laissant le choix final à l'œil humain.
L'objectif n'est pas de devenir un expert en "prompting", mais de redevenir un expert dans son domaine, assisté par une machine puissante mais imparfaite.
Source et référence
- Teaching Students to Question the Machine: An AI Literacy Intervention Improves Students Regulation of LLM Use in a Science Task : L'étude de référence qui démontre l'efficacité d'une formation courte pour améliorer l'utilisation critique des LLM.
Pourquoi l'étude "Teaching Students to Question the Machine" conclut-elle que nous utilisons mal l'IA ?
Car l'étude montre que les utilisateurs, en particulier les élèves, acceptent passivement les réponses des IA sans vérification, victimes du "biais d'automatisation".
Qu'est-ce que le biais d'automatisation face à une IA comme ChatGPT ?
C'est la tendance humaine à faire une confiance excessive aux systèmes automatisés, ce qui réduit la vigilance et l'effort cognitif nécessaire pour vérifier les informations générées.
Comment corriger une mauvaise utilisation de l'IA générative dans l'éducation ?
En développant la "littératie en IA" : il faut enseigner que l'IA prédit des mots et non des vérités, et imposer une validation humaine systématique des résultats.
Est-ce que l'IA remplacera la compétence critique des ingénieurs et développeurs ?
Non. Sans expertise humaine pour réguler l'outil, l'IA produit des résultats inférieurs ou faux. L'humain reste le responsable final de la qualité du travail.





