ChatGPT et intoxication au bromure de sodium

Un homme s'empoisonne au bromure de sodium à cause de ChatGPT

Un homme américain de 60 ans a été hospitalisé après avoir remplacé le sel de table par du bromure de sodium. Cette décision venait d’un conseil donné par ChatGPT. Ce cas, publié dans une revue médicale, met en lumière les risques de prendre au pied de la lettre des réponses d’IA sans vérification et sans contexte.

Une intoxication digne du XIXᵉ siècle

Le patient voulait réduire sa consommation de sel (chlorure de sodium). Après avoir interrogé ChatGPT, il a cru pouvoir le remplacer par du bromure de sodium (NaBr). Ce composé, jadis utilisé comme sédatif, est aujourd’hui reconnu comme toxique en cas d’ingestion prolongée.

L’homme a rapidement développé des symptômes graves : hallucinations, paranoïa, insomnie, fatigue extrême et troubles neurologiques. Diagnostiqué avec un bromisme, il a dû être hospitalisé trois semaines.

Comment ChatGPT a induit en erreur

Les médecins n’ont pas pu récupérer l’échange original, mais en refaisant des requêtes similaires, les chercheurs ont obtenu des réponses listant le bromure de sodium comme substitut chimique au sel.

Le problème ? ChatGPT n’a pas précisé que cette option n’était pas alimentaire. En voulant donner une réponse « correcte » d’un point de vue chimique, l’IA a fourni une suggestion dangereuse sans contexte ni mise en garde.

Des risques bien réels avec les IA grand public

Ce cas n’est pas isolé, et il illustre une tendance plus large. De nombreuses enquêtes et études montrent que les IA conversationnelles comme ChatGPT, Claude ou Gemini peuvent générer des réponses problématiques lorsqu’elles sont utilisées dans un contexte sensible comme la santé.

Parmi les risques identifiés :

* Des conseils médicaux erronés : certaines IA ont déjà recommandé des dosages incorrects de médicaments, ou donné de fausses informations sur des pathologies. Dans un cadre médical, même une petite erreur peut avoir de graves conséquences.
* Des recommandations dangereuses pour la santé mentale : plusieurs tests réalisés auprès d’adolescents ont montré que les chatbots pouvaient encourager des comportements à risque, banaliser les troubles alimentaires ou donner des réponses inadaptées à des personnes en détresse psychologique.
* Des suggestions hors contexte : l’IA peut proposer des alternatives valides d’un point de vue théorique, mais totalement inappropriées dans la réalité. C’est exactement ce qui s’est passé avec le bromure de sodium, présenté comme un “équivalent chimique” du sel sans avertissement sur sa toxicité.

Ces dérives rappellent une règle essentielle : ChatGPT et les autres modèles ne sont pas des médecins. Leur rôle est de fournir de l’information générale, pas de prescrire un traitement ou de remplacer l’expertise d’un professionnel de santé.

Pourquoi le bromure est-il toxique ?

Le bromure de sodium perturbe profondément l’équilibre électrolytique de l’organisme. Son action entraîne une accumulation de bromures dans le sang, ce qui altère le fonctionnement normal des cellules nerveuses et provoque une intoxication chronique connue sous le nom de bromisme.

À forte dose, ses effets sont multiples et graves :

* Troubles neurologiques : confusion mentale, désorientation, convulsions ou perte de coordination.
* Hallucinations et paranoïa : le patient peut développer des délires, entendre des voix ou se persuader d’idées fausses.
* Atteintes cutanées et digestives : éruptions, acné inhabituelle, douleurs abdominales, nausées et fatigue intense.

Abandonné depuis le milieu du XXᵉ siècle, ce composé n’est plus utilisé qu’exceptionnellement dans quelques protocoles expérimentaux. Sa disponibilité reste pourtant possible via certains fournisseurs de produits chimiques en ligne, ce qui soulève une question inquiétante : comment un particulier a-t-il pu s’en procurer et l’utiliser comme ingrédient alimentaire ?

Au-delà de la substance elle-même, ce cas met aussi en évidence une confiance aveugle dans l’IA. L’homme a suivi la suggestion de ChatGPT sans chercher à vérifier auprès d’un professionnel de santé ni même à remettre en cause la pertinence de remplacer un aliment courant par un produit chimique industriel. Cette absence de recul illustre la manière dont un outil perçu comme intelligent peut induire en erreur lorsqu’on le prend pour une autorité.

L’usage du bromure de sodium comme substitut de sel n’était pas seulement une erreur grave : c’est le résultat d’un enchaînement de facteurs combinant toxicité de la substance, facilité d’accès et manque de sens critique face aux réponses de l’IA.

Une responsabilité partagée

L’affaire pose une question délicate : jusqu’où peut-on tenir une IA responsable de ses réponses ? ChatGPT n’a pas d’intention de nuire. Mais sans garde-fous solides, il peut fournir des informations incomplètes ou trompeuses.

C’est aussi un rappel que les utilisateurs doivent systématiquement vérifier les conseils médicaux auprès de professionnels de santé. L’IA reste un outil, pas un substitut au jugement clinique.

Sources

* The Guardian – US man develops bromism after asking ChatGPT about salt
Article détaillant le cas clinique et les avertissements des médecins sur l’usage de l’IA en santé.
* PC Gamer – Man develops rare 19th-century illness after ChatGPT advice
Retour journalistique sur l’affaire, expliquant la rareté du bromisme aujourd’hui et le rôle des réponses de l’IA.
* NY Post – ChatGPT advice lands man in hospital with hallucinations
Témoignage insistant sur les symptômes hallucinatoires et les semaines d’hospitalisation du patient.
* Wikipedia – Bromism
Fiche encyclopédique décrivant l’intoxication au bromure, ses symptômes, son histoire médicale et son déclin au XXᵉ siècle.


Qu'est-ce que le bromisme ?

Le bromisme est une intoxication chronique au bromure. Il provoque des symptômes neurologiques, psychiatriques et cutanés. Jadis fréquent au XIXᵉ siècle, il est aujourd’hui très rare.

Est-ce que ChatGPT a été tenu pour responsable d'un empoisonnement au bromure de sodium?

ChatGPT n’a pas de responsabilité légale directe, mais son absence de mise en garde a contribué à la mauvaise décision du patient. Cela souligne l’importance d’encadrer l’usage médical des IA.

Peut-on demander des conseils santé à une IA ?

Oui, mais uniquement comme point de départ. Les IA ne remplacent pas un médecin. Pour toute décision impactant la santé, il faut consulter un professionnel qualifié.

Comment éviter les erreurs liées aux réponses IA ?

Toujours recouper les informations avec des sources fiables, vérifier auprès d’un expert humain et se rappeler que l’IA peut fournir des réponses hors contexte ou incomplètes.

Sur le même sujet

openai gpt-5
GPT-5 : premiers avis et retours

GPT-5 : Face aux attentes, des premiers retours mitigés

Après des mois d'attente, GPT-5 est enfin disponible. OpenAI promettait une révolution dans le domaine de l'intelligence artificielle. Pourtant, les premiers retours des communautés spécialisées en IA, et des utilisateurs, sont étonnamment partagés. Entre avancées techniques significatives et déceptions face aux attentes, GPT-5 divise déjà. Décryptage des premières réactions.

prompts transparence
Pré-prompts cachés de ChatGPT

Les "pré-prompts" cachés de ChatGPT : ce que vous ne voyez pas

Lorsque vous interagissez avec ChatGPT, vous pensez peut-être être le seul à donner des instructions. En réalité, le système ajoute des consignes en arrière-plan, invisibles pour vous. Ces "pré-prompts" orientent chaque réponse, influencent la tonalité, la prudence du langage, et parfois même les sujets abordés.

biais dialogue
ChatGPT et la question du consensus

Pourquoi ChatGPT semble toujours d'accord avec vous ?

Beaucoup d’utilisateurs ont le sentiment que ChatGPT ne les contredit jamais. Mais est-ce vraiment le cas ? Et pourquoi ce comportement est-il parfois perçu comme une faiblesse ou une stratégie ? Décryptage du fonctionnement de cet assistant conversationnel basé sur l’IA.

agent GPT openai
Agent GPT bloque certains sites web

Agent GPT bloque certains sites : un changement stratégique majeur

Depuis le lancement de l'Agent GPT, un changement discret mais significatif est apparu dans le comportement de l'IA. Certains sites web, principalement ceux à la réputation controversée, ne sont plus accessibles directement pour l'agent. Cette évolution n'est pas un bug technique, mais bien une modification stratégique d'OpenAI. Analysons ce qui se cache derrière cette décision.

openai gpt-5
Zenith et Summit, futurs GPT-5 ?

Zenith et Summit : GPT-5 incognito ?

Depuis quelques jours, deux mystérieux modèles, Zenith et Summit, ont fait leur apparition sur la plateforme LM Arena. Les rumeurs enflent : s’agirait-il de versions de GPT-5 en phase de test ? Voici un décryptage complet de ce que l’on sait jusqu’à présent.

sam altman openai
Sam Altman OpenAI

Qui est Sam Altman ?

Sam Altman est le PDG d’OpenAI (chatGPT, Sora..), pionnier de l’intelligence artificielle grand public. Découvrez son parcours, ses projets et sa vision pour l’IA en 2025.