
Pourquoi Microsoft est accusé d'IA slop ?
Alors que l'intelligence artificielle continue de transformer le paysage numérique, un nouveau terme émerge dans le discours critique : l'"AI slop". Ce concept, popularisé récemment, décrit l'inflation de contenus médiocres, inexacts ou insensibles générés par des machines. Au centre de cette tempête se trouve Microsoft, dont la plateforme d'actualités, Microsoft Start, est devenue le cas d'école des dérives de l'automatisation à outrance.
Le contexte : La stratégie d'automatisation de Microsoft Start
Pour comprendre les accusations, il faut remonter à la stratégie de contenu de Microsoft. La plateforme Microsoft Start, qui alimente le widget d'actualités de Windows 11 et Edge, a drastiquement réduit ses équipes de journalistes et d'éditeurs humains au profit d'une automatisation basée sur l'IA. L'objectif est économique : produire un volume maximal d'articles pour maximiser les revenus publicitaires.
Cependant, cette approche "sans mains" a conduit à une série d'incidents qui ont non seulement ridiculisé la technologie, mais ont aussi posé de graves problèmes éthiques. C'est cette accumulation de bévues algorithmiques qui vaut à Microsoft l'étiquette infamante de producteur d'"AI slop".
Les trois scandales qui ont cristallisé la colère
Les critiques ne portent pas sur une théorie, mais sur des faits précis. Trois incidents, survenus principalement en 2023, ont servi de catalyseur à la polémique en raison de leur gravité et de leur manque flagrant de discernement.
1. L'affaire du sondage sur le décès de Lilie James
L'épisode le plus choquant concerne la mort tragique de Lilie James, une jeune entraîneuse de water-polo australienne âgée de 21 ans. Alors que le journal The Guardian publiait un article factuel et respectueux sur l'enquête, l'IA de Microsoft Start a décidé de générer un sondage pour engager les lecteurs.
La question posée était de voter sur la cause de la mort : "Meurtre", "Accident" ou "Suicide". Ce sondage, apparu automatiquement à côté de l'article du Guardian, a provoqué la colère de la direction du média. Anna Bateson, PDG de Guardian Media Group, a écrit au président de Microsoft, Brad Smith, pour accuser l'entreprise de causer un "dommage réputationnel significatif". De nombreux lecteurs, confus, avaient en effet cru que le sondage provenait des journalistes du Guardian eux-mêmes.
2. Le "Digital Grave-Robbing" et les nécrologies fantaisistes
Le second volet du problème concerne l'automatisation des nécrologies. L'IA de Microsoft a publié une série d'articles biographiques sur des personnalités décédées, contenant des informations tellement incohérentes qu'elles en étaient incompréhensibles (du charabia). Pire, le système a annoncé la mort de personnes qui étaient en réalité toujours en vie.
Ce phénomène, qualifié de "digital grave-robbing" (pillage numérique de tombes) par des observateurs comme CNET, illustre la froideur de l'IA. L'algorithme "scrape" des données éparses sur le web pour créer du contenu, sans aucune vérification, transformant la mémoire des défunts en simple pâture pour clics.
3. Le guide de voyage absurde d'Ottawa
Enfin, l'IA de Microsoft a démontré son manque de sens commun avec un article de voyage sur la ville d'Ottawa. L'algorithme avait classé la Banque Alimentaire d'Ottawa (Ottawa Food Bank) comme la 3ème attraction touristique incontournable de la ville.
L'article suggérait aux visiteurs de s'y rendre "à jeun", ignorant totalement la nature caritative et sociale de l'organisation. Face au tollé, Microsoft a retiré l'article et justifié l'erreur par une "erreur humaine", affirmant qu'elle n'avait pas été publiée par une "IA non supervisée". Cependant, la fréquence de ces erreurs suggère un problème systémique dans la chaîne de publication.
La réponse de Microsoft : excuses et communication
Face à cette vague de critiques, la réponse de Microsoft s'est organisée sur deux fronts. D'une part, opérationnelle : suppression immédiate des contenus problématiques et annonces d'enquêtes internes. D'autre part, communicationnelle : minimisation de l'impact.
L'entreprise soutient que ces incidents sont "isolés" et inévitables compte tenu de l'échelle des millions d'articles traités quotidiennement. En fin d'année 2025, Satya Nadella, le PDG de Microsoft, a même publié un billet sur son blog personnel "Scratchpad", invitant le public à arrêter de penser à l'IA comme du "slop" et à la considérer plutôt comme une aide humaine bienveillante pour 2026.
L'impasse de l'automatisation sans garde-fous
Si Microsoft tente de refonder son image autour d'une IA "utile", les faits restent têtus. La polémique de l'"AI slop" met en lumière une contradiction fondamentale : on ne peut pas supprimer les humains de la boucle éditoriale sans s'attendre à des catastrophes contextuelles.
L'IA actuelle, performante pour générer du texte, est dénuée de jugement moral et de compréhension du monde réel. Pour Microsoft, le défi est désormais de réintroduire une supervision humaine (human-in-the-loop) crédible, sans quoi le terme "slop" risque de définir durablement la qualité perçue de ses plateformes d'information.
Sources
- The Guardian - Microsoft accused of damaging Guardian's reputation : Article détaillant la réaction du Guardian et la lettre de sa PDG au sujet du sondage sur Lilie James.
- CNET - Digital Grave-Robbing: How AI Is Plundering Online Obituaries : Enquête sur le phénomène des nécrologies automatisées et ses conséquences.
- The Verge - Microsoft says listing the Ottawa Food Bank as a tourist spot : Rapport sur l'incident de la banque alimentaire et les justifications de Microsoft.
Qu'est-ce que le phénomène de l'IA Slop chez Microsoft ?
L'"AI Slop" désigne la production de contenus médiocres et inexacts par l'IA sur la plateforme Microsoft Start. Chez Microsoft, cela s'est manifesté par des erreurs éthiques majeures comme des sondages macabres ou de fausses nécrologies, dues à une automatisation excessive sans supervision humaine.
Pourquoi le cas de Lilie James a-t-il provoqué un scandale ?
Le scandale vient de la publication par Microsoft d'un sondage invitant les lecteurs à voter sur la cause de la mort de Lilie James à côté d'un article sérieux du Guardian. Le journal a accusé Microsoft de porter atteinte à sa réputation et de manquer de respect envers la victime et sa famille.
Qu'appelle-t-on le "Digital Grave-Robbing" sur MSN ?
C'est le terme utilisé pour décrire la création automatisée de nécrologies par IA sur MSN. L'IA génère des biographies erronées ou annonce la mort de personnes vivantes en pillant des données en ligne sans vérification, transformant le deuil en contenu clickbait.
Comment Microsoft justifie-t-il ces erreurs d'IA ?
Microsoft invoque souvent le caractère "isolé" des incidents liés à l'énorme volume de données traitées. L'entreprise rejette parfois la faute sur des erreurs humaines dans le processus de validation, alors même que sa stratégie repose sur la réduction des équipes humaines au profit de l'automatisation.





