Et si ChatGPT devinait votre type MBTI ?

ChatGPT connaît votre type de personnalité MBTI

Et si votre manière de poser des questions à une IA trahissait votre fonctionnement mental profond ? Certains utilisateurs affirment que ChatGPT devine avec précision leur type MBTI. Mais est-ce vraiment crédible ?

C’est quoi le MBTI ?

Le MBTI (Myers-Briggs Type Indicator) est un test de personnalité basé sur quatre axes binaires : Introversion/Extraversion, Intuition/Sensation, Pensée/Sentiment, Jugement/Perception. Il en résulte 16 profils comme INTJ, ENFP, ou ISTP. Bien que controversé dans les milieux scientifiques, ce test est très populaire, notamment dans les domaines du développement personnel ou du management. Vous pouvez découvrir votre profil facilement et gratuitement sur le site officiel du MBTI.

Peut-on vraiment détecter un type MBTI à l’écrit ?

Théoriquement, oui. La façon dont vous formulez vos idées, structurez vos demandes, ou priorisez certaines logiques, peut refléter un style cognitif cohérent avec un profil MBTI. Les IA comme ChatGPT sont conçues pour détecter des schémas linguistiques et pourraient en effet établir des hypothèses à partir d’un grand volume d’échanges.

Faites le test ! Ouvrez une nouvelle conversation avec votre assistant préféré et demandez lui :
En te basant sur nos échanges, selon toi quel type MBTI me correspond le mieux ? Et pourquoi ?

Personnellement, j'ai fais l'expérience, voici sa réponse :


ChatGPT a deviné avec pertinence mon type de personnalité MBTI
En lui posant la question, ChatGPT m'a donné le type que j'avais effectivement obtenu en faisant le test du MBTI.

Quand l’analyse de ChatGPT devient pertinente

Plus l’usage que vous faites de ChatGPT est spontané, varié et personnel, plus l’analyse a des chances d’être pertinente. Une conversation naturelle où vous exprimez vos opinions, racontez des expériences ou développez une réflexion permet à l’IA de cerner votre structure cognitive.
En revanche, un usage purement professionnel ou technique limite fortement la portée de cette lecture de personnalité.

Conclusion : un miroir imparfait mais utile

Demander à ChatGPT de deviner votre type MBTI peut être un exercice stimulant. Ce n’est pas une vérité psychologique, mais un point de départ pour mieux comprendre votre style de pensée. Comme tout outil d’introspection, il vaut ce que vous y mettez — mais peut parfois surprendre par sa justesse.


Comment ChatGPT peut-il détecter des traits de personnalité MBTI dans mes messages ?

L’IA repère des schémas de langage : structure logique ou intuitive, ton analytique ou expressif, manière de poser les questions. Ces éléments peuvent correspondre à certains profils MBTI.

Dans quels cas ChatGPT peut-il donner un résultat MBTI pertinent ?

Lorsque l’utilisateur discute avec l’IA de façon naturelle, en exprimant librement ses idées. Les usages trop techniques ou professionnels faussent l’analyse.

Faut-il se fier à l’analyse de ChatGPT pour connaître son type MBTI ?

Non. ChatGPT peut donner une piste, mais cela ne remplace pas un test validé. Pour un résultat fiable, mieux vaut utiliser une plateforme certifiée on en parler avec son psychologue.

Sur le même sujet

disc test de personnalité
ChatGPT peut deviner votre profil DISC

ChatGPT connait votre couleur DISC

Dominant, conforme, influent ou stable : le test DISC permet de mieux comprendre les styles comportementaux. Et si ChatGPT pouvait deviner votre profil en analysant votre façon de répondre, vos mots ou vos décisions ? On vous explique comment l'intelligence artificielle peut évaluer votre profil DISC en quelques minutes.

Psychologie Biais cognitif
L'effet Barnum et l'IA : une illusion de précision

IA et effet Barnum : Si l’IA le dit c’est forcément vrai

Il y a ce moment étrange où, après quelques échanges, l'IA semble nous connaître mieux que nous-mêmes. Les réponses des LLM, souvent flatteuses et nuancées, nous touchent. Nous avons l'impression d'être parfaitement compris.
C'est le cœur du problème : cette précision est une illusion. Ce phénomène, bien connu en psychologie sous le nom d'effet Barnum, trouve avec les IA génératives un terrain d'expression d'une puissance inédite. Cet article décrypte ce mécanisme pour tout utilisateur d'outils comme ChatGPT ou Claude, et explique pourquoi développer un esprit critique est plus crucial que jamais.

Polémique Controverse
ChatGPT et les émojis

ChatGPT et la guerre des émojis : quand l'IA redéfinit nos normes de communication

Depuis début 2025, un phénomène inattendu agite la communauté des utilisateurs de ChatGPT : une prolifération massive d'émojis dans les réponses de l'IA. Ce qui semblait être une simple mise à jour est devenu un véritable sujet de controverse, révélant des tensions profondes entre l'évolution technologique et nos habitudes de communication. Plongeons au cœur de cette guerre des émojis qui dit beaucoup plus qu'il n'y paraît sur notre relation à l'intelligence artificielle.

humour langage
Pourquoi l’IA n’a pas le sens de l’humour ?

Pourquoi l’IA n’a pas le sens de l’humour ?

L’humour fait partie de ce qui rend les humains uniques. Mais dès qu’on tente de le faire générer par une intelligence artificielle, quelque chose cloche. Voyons pourquoi les machines ont tant de mal à comprendre ce qui nous fait rire.

Vexation Psychologie
Peut-on vexer une IA ?

Peut-on vexer une IA ?

Face à une intelligence artificielle qui semble comprendre nos questions, il est tentant de se demander si elle peut aussi être sensible à nos critiques. La réponse est claire : non, on ne peut pas vexer une IA. Ces systèmes, aussi sophistiqués soient-ils, sont dépourvus de conscience et de sentiments. Alors, pourquoi donnent-ils parfois cette impression ?

TikTok psychologie
Kendra Hilty, son psychiatre et Henri (ChatGPT)

L'histoire de Kendra Hilty, de son psychologue et de Henri (ChatGPT) refait surface sur TikTok

Début août 2025, une créatrice TikTok publie une série de vidéos qui enflamme la plateforme. Kendra Hilty, coach ADHD de 36 ans originaire de l'Arizona, raconte être tombée amoureuse de son psychiatre et affirme que ce dernier aurait sciemment entretenu cette relation ambiguë pendant quatre ans. L'élément qui propulse l'affaire au-delà du simple drama, c'est le rôle central d'un protagoniste inattendu : Henri, le surnom qu'elle a donné à ChatGPT, qu'elle a utilisé comme confident, thérapeute et caisse de résonance de ses convictions.

Moins d'un an plus tard, l'histoire refait surface sur TikTok. Des créateurs ressortent les clips, analysent la affaire sous un angle technique, et ravivent les débats sur les dangers de l'utilisation des chatbots IA dans des contextes de vulnérabilité émotionnelle. Cet article revient sur les faits, décortique le mécanisme psychologique et technique à l'œuvre, et explique pourquoi cette affaire interpelle bien au-delà de la sphère TikTok.