ChatGPT et intoxication au bromure de sodium

Un homme s'empoisonne au bromure de sodium à cause de ChatGPT

Un homme américain de 60 ans a été hospitalisé après avoir remplacé le sel de table par du bromure de sodium. Cette décision venait d’un conseil donné par ChatGPT. Ce cas, publié dans une revue médicale, met en lumière les risques de prendre au pied de la lettre des réponses d’IA sans vérification et sans contexte.

Une intoxication digne du XIXᵉ siècle

Le patient voulait réduire sa consommation de sel (chlorure de sodium). Après avoir interrogé ChatGPT, il a cru pouvoir le remplacer par du bromure de sodium (NaBr). Ce composé, jadis utilisé comme sédatif, est aujourd’hui reconnu comme toxique en cas d’ingestion prolongée.

L’homme a rapidement développé des symptômes graves : hallucinations, paranoïa, insomnie, fatigue extrême et troubles neurologiques. Diagnostiqué avec un bromisme, il a dû être hospitalisé trois semaines.

Comment ChatGPT a induit en erreur

Les médecins n’ont pas pu récupérer l’échange original, mais en refaisant des requêtes similaires, les chercheurs ont obtenu des réponses listant le bromure de sodium comme substitut chimique au sel.

Le problème ? ChatGPT n’a pas précisé que cette option n’était pas alimentaire. En voulant donner une réponse « correcte » d’un point de vue chimique, l’IA a fourni une suggestion dangereuse sans contexte ni mise en garde.

Des risques bien réels avec les IA grand public

Ce cas n’est pas isolé, et il illustre une tendance plus large. De nombreuses enquêtes et études montrent que les IA conversationnelles comme ChatGPT, Claude ou Gemini peuvent générer des réponses problématiques lorsqu’elles sont utilisées dans un contexte sensible comme la santé.

Parmi les risques identifiés :

* Des conseils médicaux erronés : certaines IA ont déjà recommandé des dosages incorrects de médicaments, ou donné de fausses informations sur des pathologies. Dans un cadre médical, même une petite erreur peut avoir de graves conséquences.
* Des recommandations dangereuses pour la santé mentale : plusieurs tests réalisés auprès d’adolescents ont montré que les chatbots pouvaient encourager des comportements à risque, banaliser les troubles alimentaires ou donner des réponses inadaptées à des personnes en détresse psychologique.
* Des suggestions hors contexte : l’IA peut proposer des alternatives valides d’un point de vue théorique, mais totalement inappropriées dans la réalité. C’est exactement ce qui s’est passé avec le bromure de sodium, présenté comme un “équivalent chimique” du sel sans avertissement sur sa toxicité.

Ces dérives rappellent une règle essentielle : ChatGPT et les autres modèles ne sont pas des médecins. Leur rôle est de fournir de l’information générale, pas de prescrire un traitement ou de remplacer l’expertise d’un professionnel de santé.

Pourquoi le bromure est-il toxique ?

Le bromure de sodium perturbe profondément l’équilibre électrolytique de l’organisme. Son action entraîne une accumulation de bromures dans le sang, ce qui altère le fonctionnement normal des cellules nerveuses et provoque une intoxication chronique connue sous le nom de bromisme.

À forte dose, ses effets sont multiples et graves :

* Troubles neurologiques : confusion mentale, désorientation, convulsions ou perte de coordination.
* Hallucinations et paranoïa : le patient peut développer des délires, entendre des voix ou se persuader d’idées fausses.
* Atteintes cutanées et digestives : éruptions, acné inhabituelle, douleurs abdominales, nausées et fatigue intense.

Abandonné depuis le milieu du XXᵉ siècle, ce composé n’est plus utilisé qu’exceptionnellement dans quelques protocoles expérimentaux. Sa disponibilité reste pourtant possible via certains fournisseurs de produits chimiques en ligne, ce qui soulève une question inquiétante : comment un particulier a-t-il pu s’en procurer et l’utiliser comme ingrédient alimentaire ?

Au-delà de la substance elle-même, ce cas met aussi en évidence une confiance aveugle dans l’IA. L’homme a suivi la suggestion de ChatGPT sans chercher à vérifier auprès d’un professionnel de santé ni même à remettre en cause la pertinence de remplacer un aliment courant par un produit chimique industriel. Cette absence de recul illustre la manière dont un outil perçu comme intelligent peut induire en erreur lorsqu’on le prend pour une autorité.

L’usage du bromure de sodium comme substitut de sel n’était pas seulement une erreur grave : c’est le résultat d’un enchaînement de facteurs combinant toxicité de la substance, facilité d’accès et manque de sens critique face aux réponses de l’IA.

Une responsabilité partagée

L’affaire pose une question délicate : jusqu’où peut-on tenir une IA responsable de ses réponses ? ChatGPT n’a pas d’intention de nuire. Mais sans garde-fous solides, il peut fournir des informations incomplètes ou trompeuses.

C’est aussi un rappel que les utilisateurs doivent systématiquement vérifier les conseils médicaux auprès de professionnels de santé. L’IA reste un outil, pas un substitut au jugement clinique.

Sources

* The Guardian – US man develops bromism after asking ChatGPT about salt
Article détaillant le cas clinique et les avertissements des médecins sur l’usage de l’IA en santé.
* PC Gamer – Man develops rare 19th-century illness after ChatGPT advice
Retour journalistique sur l’affaire, expliquant la rareté du bromisme aujourd’hui et le rôle des réponses de l’IA.
* NY Post – ChatGPT advice lands man in hospital with hallucinations
Témoignage insistant sur les symptômes hallucinatoires et les semaines d’hospitalisation du patient.
* Wikipedia – Bromism
Fiche encyclopédique décrivant l’intoxication au bromure, ses symptômes, son histoire médicale et son déclin au XXᵉ siècle.


Qu'est-ce que le bromisme ?

Le bromisme est une intoxication chronique au bromure. Il provoque des symptômes neurologiques, psychiatriques et cutanés. Jadis fréquent au XIXᵉ siècle, il est aujourd’hui très rare.

Est-ce que ChatGPT a été tenu pour responsable d'un empoisonnement au bromure de sodium?

ChatGPT n’a pas de responsabilité légale directe, mais son absence de mise en garde a contribué à la mauvaise décision du patient. Cela souligne l’importance d’encadrer l’usage médical des IA.

Peut-on demander des conseils santé à une IA ?

Oui, mais uniquement comme point de départ. Les IA ne remplacent pas un médecin. Pour toute décision impactant la santé, il faut consulter un professionnel qualifié.

Comment éviter les erreurs liées aux réponses IA ?

Toujours recouper les informations avec des sources fiables, vérifier auprès d’un expert humain et se rappeler que l’IA peut fournir des réponses hors contexte ou incomplètes.

Sur le même sujet

Anthropic OpenAI
Claude vs ChatGPT : le choc des IA

Claude dépasse ChatGPT sur l'App Store : l'effet Pentagone

En février 2026, l'IA Claude d'Anthropic a détrôné ChatGPT d'OpenAI en tête des téléchargements sur l'App Store américain. Ce revirement spectaculaire n'est pas lié à une mise à jour technique, mais à une controverse éthique majeure avec le Pentagone. Cet article décrypte pourquoi une interdiction gouvernementale a paradoxalement propulsé Claude au sommet, et ce que cela révèle de l'importance croissante de l'éthique dans l'IA pour le grand public.

Controle Protection
Contrôle Parental ChatGPT

Contrôle Parental ChatGPT : comment protéger vos enfants face à l'IA

OpenAI vient de déployer le tant attendu contrôle parental pour ChatGPT. Disponible depuis le 28 septembre 2025, cette nouvelle fonctionnalité permet aux parents de sécuriser l'expérience de leurs adolescents face à l'intelligence artificielle. Cette initiative fait suite à une tragédie qui a secoué l'opinion publique : le suicide d'Adam Raine, un adolescent américain de 16 ans dont les parents accusent ChatGPT d'avoir contribué à leur drame. Entre protection des contenus et respect de la vie privée, voici comment fonctionne ce dispositif essentiel pour accompagner les jeunes dans leur utilisation de l'IA.

Politique Anthropic
Anthropic face au gouvernement américain

Anthropic : le dernier rempart moral de l'IA aux États-Unis ?

Parler de « dernier gardien de la morale » est fort. C'est presque une formule de série télé. Mais quand on regarde ce qui se passe outre-Atlantique entre Anthropic et l'administration Trump, on se pose la question. Pendant que OpenAI signe des accords avec le Pentagone, la firme de Dario Amodei claque la porte. S'agit-il d'un coup de com', d'une naïveté dangereuse ou d'une vraie ligne rouge éthique ? Il faut regarder au-delà du buzz politique pour comprendre les enjeux réels.

WinRAR Rentabilité
WinRAR vs OpenAI

WinRAR est plus rentable qu'OpenAI

C'est la phrase qui fait sourire tous les développeurs et amateurs de tech : WinRAR est plus rentable qu'OpenAI. En voyant ce titre, on imagine le petit logiciel de compression jaune, coincé dans les années 90, dominer financièrement la star montante de l'intelligence artificielle.

Mais si l'on gratte sous le vernis du mème, que se cache-t-il vraiment derrière cette affirmation ? Est-ce une réalité comptable ou juste une exagération d'internet ? Faisons le point entre un modèle économique "à l'ancienne" et la frénésie des coûts de l'IA.

Wikipédia Contenu généré par IA
Wikipédia bannit les rédacteurs robots

Wikipédia interdit les articles générés par IA : pourquoi et comment ?

La version anglophone de Wikipédia a récemment adopté une nouvelle politique : l'utilisation de grands modèles de langage (LLM) comme ChatGPT pour générer ou réécrire des articles est désormais interdite. Cette décision, prise par un vote écrasant de la communauté des éditeurs, vise à protéger les standards de qualité de l'encyclopédie. Elle intervient dans un contexte où l'IA générative inonde le web de contenu, posant des questions cruciales sur la fiabilité de l'information et l'avenir de la création de contenu humaine.

Association Intégration Spotify
Spotify et ChatGPT réinventent la musique

Spotify et ChatGPT : Comment l'IA réinvente la découverte musicale

Imaginez demander à une IA de créer la playlist parfaite pour votre journée, et qu'elle la compose instantanément en tenant compte de vos goûts, de votre humeur et même des activités que vous prévoyez. Ce n'est plus de la science-fiction. L'intégration de Spotify dans ChatGPT marque un tournant majeur dans notre façon d'interagir avec la musique. Voici comment cette collaboration entre Spotify et OpenAI redéfinit l'expérience d'écoute et ouvre la voie à une nouvelle ère de découverte musicale personnalisée.