
ChatGPT censuré ? Une mise à jour fin septembre 2025 est-elle à l'origine d'une baisse de pertinence du modèle ?
Depuis fin septembre 2025, une vague de critiques traverse les communautés d'utilisateurs de ChatGPT. Beaucoup dénoncent une baisse de pertinence des réponses et un renforcement des restrictions qui rendraient le modèle moins performant. Entre nouvelles barrières de sécurité et changements de comportement, que se passe-t-il vraiment avec le chatbot d'OpenAI ?
Des signes de dégradation rapidement identifiés
Les premiers signes de cette dégradation sont apparus fin août 2025, mais se sont intensifiés après une mise à jour majeure déployée fin septembre. Sur les forums spécialisés comme Reddit ou 4chan, les utilisateurs ont commencé à partager leurs expériences concordantes :
- Des réponses plus génériques et moins nuancées
- Une tendance à éviter les sujets sensibles ou controversés
- Des erreurs factuelles plus fréquentes
- Un ton jugé plus robotique et moins créatif
Ces témoignages ont rapidement mis en lumière une modification substantielle du comportement de ChatGPT, particulièrement visible avec les modèles GPT-4o et GPT-5.
La mise à jour Model Spec : plus de sécurité, moins de liberté ?
Le 12 septembre 2025, OpenAI a publié une mise à jour importante de son Model Spec, le document définissant le comportement attendu de ses modèles. Cette actualisation a introduit des niveaux d'autorité plus stricts et de nouveaux principes pour les agents IA.
Le niveau d'autorité le plus élevé, désormais appelé "Root", surpasse même les instructions système. Cette hiérarchie renforcée signifie que certaines directives de sécurité ne peuvent plus être contournées, même par les développeurs ou les utilisateurs avancés.
Parallèlement, OpenAI a modifié son approche des refus en adoptant un système de "safe completion" qui, selon l'entreprise, devrait mener à des réponses plus utiles et transparentes sur les limites de sécurité. Dans la pratique, de nombreux utilisateurs perçoivent plutôt un renforcement de la censure sur des sujets pourtant légitimes.
L'impact sur GPT-5 : perte de nuance émotionnelle
Le 3 octobre 2025, une nouvelle mise à jour de GPT-5 a particulièrement attiré l'attention. Conçue pour mieux détecter les signes de détresse émotionnelle, cette version semble avoir introduit un comportement excessivement prudent.
De nombreux utilisateurs regrettent que GPT-5 n'ait jamais vraiment eu ce qui rendait GPT-4 spécial : sa capacité à ressentir la nuance émotionnelle dans les interactions. Le modèle prioriserait désormais la vitesse et la sécurité au détriment de la mémoire des détails partagés et de "l'étincelle" qui rendait les conversations plus naturelles.
Ce changement de comportement est particulièrement visible dans les domaines créatifs et émotionnels, où le modèle semble désormais suivre des schémas plus prévisibles et moins personnels.
Les réactions de la communauté
Face à ces changements, la réaction de la communauté a été rapide et virulente. Sur Reddit, des threads comme "OpenAI has legitimately destroyed its product" ont accumulé des milliers de commentaires exprimant frustration et déception.
Les critiques principales portent sur :
- Une baisse de performance objective sur des tâches simples (calculs, raisonnement logique)
- Une perte de personnalité qui rend les interactions moins engageantes
- Des restrictions excessives qui limitent l'utilité du modèle pour des cas d'usage légitimes
Certains utilisateurs avancés ont même commencé à explorer des alternatives comme Claude d'Anthropic ou des modèles open source, jugeant que ChatGPT avait perdu sa valeur distinctive.
Le dilemme d'OpenAI : sécurité versus performance
OpenAI se trouve face à un dilemme classique dans le développement de l'IA : comment garantir la sécurité sans compromettre les performances ?
D'un côté, la pression réglementaire et les préoccupations éthiques poussent l'entreprise à renforcer les garde-fous. De l'autre, les utilisateurs attendent des modèles toujours plus performants et moins limités.
Cette tension explique en partie pourquoi OpenAI semble hésiter dans sa stratégie, alternant entre renforcement des restrictions et ajustements pour répondre aux plaintes des utilisateurs. La communication autour de ces changements reste également perfectible, beaucoup d'utilisateurs se sentant pris au dépourvu par des modifications de comportement non annoncées.
Perspectives et solutions possibles
Face à cette situation, plusieurs évolutions pourraient voir le jour dans les semaines à venir. OpenAI travaille probablement à affiner l'équilibre entre sécurité et performance, comme en témoigne la publication détaillée des raisons ayant mené aux ajustements récents.
Une piste intéressante serait le développement de niveaux de personnalisation plus avancés, permettant à chaque utilisateur de définir ses propres limites en matière de sécurité et de style de réponse. Certains utilisateurs avancés ont déjà commencé à partager des "prompts système" personnalisés pour contourner partiellement les nouvelles restrictions.
À plus long terme, la concurrence accrue dans le domaine des modèles de langage pourrait pousser OpenAI à adopter une approche plus transparente et flexible dans la gestion du comportement de ses modèles.
Sources
- Model Release Notes - OpenAI Help Center : Notes de version officielles des modèles d'OpenAI, incluant les mises à jour de septembre et octobre 2025.
- Updating the OpenAI Model Spec (September 12, 2025) : Annonce officielle des modifications apportées au Model Spec d'OpenAI.
- Updating GPT-5 (October 3, 2025) : Détails sur la mise à jour de GPT-5 Instant pour mieux gérer les situations de détresse émotionnelle.
- Discussions communautaires sur Reddit : Retours d'utilisateurs sur les changements de comportement de ChatGPT.
Quand les changements de comportement de ChatGPT ont-ils commencé ?
Les premiers signes de dégradation ont été signalés fin août 2025, mais c'est après une mise à jour majeure de fin septembre 2025 que les changements sont devenus plus évidents et largement discutés dans les communautés d'utilisateurs.
Pourquoi ChatGPT semble-t-il moins performant sur certaines tâches depuis septembre 2025 ?
Les nouvelles barrières de sécurité implémentées par OpenAI semblent limiter certaines capacités du modèle. De plus, la priorité accordée à la sécurité plutôt qu'à la performance dans les dernières mises à jour pourrait expliquer cette baisse de pertinence perçue.
Est-ce que tous les utilisateurs sont concernés par la mise à jour de ChatGPT ?
Oui, ces changements affectent tous les modèles GPT-4o et GPT-5, que ce soit sur les plans gratuits ou payants. Cependant, les utilisateurs avancés et ceux qui utilisent ChatGPT pour des tâches complexes sont plus susceptibles de remarquer ces différences.
OpenAI a-t-il reconnu des problèmes avec les performances de ChatGPT en septembre 2025 ?
OpenAI a reconnu certains ajustements de comportement dans ses notes de version, mais n'a pas officiellement admis de baisse de performance. L'entreprise présente ces changements comme des améliorations en matière de sécurité et de pertinence à long terme.
Existe-t-il des solutions pour retrouver l'ancien comportement de ChatGPT ?
Certains utilisateurs expérimentent avec des prompts système personnalisés pour influencer le comportement du modèle. D'autres se tournent vers des alternatives comme Claude ou des modèles open source. OpenAI pourrait également proposer des options de personnalisation plus avancées à l'avenir.