
Grok autorise à dénuder des femmes... mais uniquement aux abonnées premium
Ça ressemble à une mauvaise blague, ou à une ligne dystopique d'un scénario de Black Mirror, mais c'est la réalité actuelle de la plateforme X. Face à l'incapacité de modérer les abus de son IA Grok, la société d'Elon Musk a trouvé une "solution" : au lieu de fermer la fonctionnalité qui permet de dénuder des femmes par deepfake, ils l'ont réservée à ceux qui paient. Une approche qui laisse pantois, et qui commence déjà à se heurter au mur de la réalité politique.
L'outil qui a dérapé
Rappelons les faits rapidement. Grok, le chatbot IA de X, dispose d'une fonction de génération d'images très puissante. Très vite, les utilisateurs ont trouvé comment détourner cette technologie pour créer des deepfakes non consensuels. En clair : prendre une photo d'une femme réelle (une streamer, une inconnue, ou même une mineure) et demander à l'IA de la générer nue.
Le résultat a été une avalanche de harcèlement automatisé. Des milliers de femmes ont vu leur image détournée sans leur accord, directement sur la plateforme qui les héberge. C'est un désastre humain et technique que même ChatGPT ou Midjourney avaient eu la sagesse d'éviter en verrouillant leurs outils dès le départ.
La réponse de X : Payez pour abuser
Normalement, quand une fonctionnalité casse votre service et blesse vos utilisateurs, on la désactive. Chez X, ils ont décidé de la monnayer. La génération d'images, et donc potentiellement de deepfakes, est désormais verrouillée derrière l'abonnement Premium+.
Ce qui signifie concrètement : si vous voulez utiliser l'IA pour déshabiller quelqu'un, vous devez payer environ 16 € par mois (au tarif actuel). C'est une première dans l'histoire du web moderne qui consiste à mettre un paywall devant une fonctionnalité de harcèlement.
Pourquoi c'est techniquement et moralement bancal
En tant qu'observateur de la tech, je cherche à comprendre la logique derrière une telle décision. Il n'y a pas vraiment de justification technique saine, surtout quand on la compare aux standards de l'industrie.
Analyse comparative de la modération
| Approche standard (DALL-E, Midjourney) | Approche de X (Grok) |
|---|---|
| Interdiction stricte : Les prompts demandant de la nudité ou des tenues suggestives sont bloqués par des filtres robustes. | Restriction par le coût : Les prompts ne sont bloqués que si vous n'êtes pas abonné. Si vous payez, l'IA génère l'image. |
| Sécurité avant tout : L'outil est conçu pour ne pas créer de contenu nuisible. | Monétisation du risque : L'outil est conçu pour être permissif (mode "spicy"), mais son accès est filtré par l'argent. |
L'Indonésie tape du poing sur la table
On ne peut pas ignorer que la stratégie de X a franchi une ligne rouge pour certains États. L'Indonésie a récemment pris une décision radicale et historique : bloquer purement et simplement l'accès à Grok sur son territoire.
Ce n'est pas un avertissement, c'est une sanction exécutoire. Le gouvernement indonésien a justifié ce blocage en pointant directement du doigt l'incapacité de l'IA à empêcher la création d'images sexuelles, incluant des mineurs. C'est un séisme géopolitique pour xAI. Cela prouve que l'argument du "contrôle par l'abonnement" ne tient pas la route face aux législations qui protègent les citoyens. Si l'Indonésie a osé couper l'accès, d'autres pays, en Europe ou ailleurs, pourraient bien suivre la même voie si X ne corrige pas le tir de manière drastique.
Une dette éthique impayée
Le problème ici n'est pas seulement que l'IA peut être malveillante. Toute technologie puissante peut l'être. Le problème est la responsabilité. En mettant cette fonctionnalité derrière un paywall, X admet implicitement qu'elle sait que l'outil est dangereux, mais refuse de le désactiver probablement pour ne pas perdre un argument de vente face à la concurrence.
C'est une vision de la tech qui me déplaît profondément. Elle considère les utilisateurs comme des données et des revenus, même au prix de la dignité des victimes. Le blocage indonésien devrait servir de signal d'alarme : on ne peut pas construire l'avenir de l'IA sur des fondations aussi fragiles.
Et maintenant ?
Pour nous, créateurs, développeurs et simples utilisateurs, c'est un rappel brutal que l'IA a besoin de garde-fous solides. La liberté absolue dans un algorithme mène souvent au pire. J'espère que la pression suffira à forcer une vraie mise à jour : le blocage total de ces fonctions, pour tout le monde, payant ou non. Sinon, l'IA risque de devenir synonyme, pour le grand public, non plus de progrès, mais de danger permanent.
Sources
- Images dénudées : suspension de Grok en Indonésie – Journal de Québec : Reportage sur la décision du gouvernement indonésien de bloquer l'accès à Grok suite aux abus.
- X Didn't Fix Grok's 'Undressing' Problem. It Just Makes People Pay for It – WIRED : Article clé analysant la décision de X de restreindre l'accès via un abonnement plutôt qu'une suppression technique.
- Grok’s 'spicy' video mode instantly made me Taylor Swift nude deepfakes – The Verge : Une démonstration troublante de la facilité de création de contenu non consensuel avec l'outil.
Pourquoi l'accès à l'IA Grok a-t-il été bloqué en Indonésie ?
Le gouvernement indonésien a suspendu l'accès à Grok car l'IA ne parvenait pas à empêcher la création et la diffusion d'images sexuelles, y compris de mineures, violant ainsi les lois locales.
Est-il possible de générer des photos dénudées avec l'IA Grok ?
Oui, l'IA Grok possède la capacité technique de créer des deepfakes montrant des personnes réelles dénudées ou en tenue légère sans leur consentement.
Pourquoi la fonctionnalité de "nudification" de Grok est-elle réservée aux abonnés ?
Suite à la polémique mondiale, X a restreint l'accès à son générateur d'images aux seuls abonnés Premium+, au lieu de désactiver la fonctionnalité jugée dangereuse.
Créer des deepfakes à caractère sexuel est-il puni par la loi ?
Oui, dans de nombreux pays comme la France, le délit de montage à caractère sexuel d'une personne sans son consentement est puni de deux ans d'emprisonnement et de 60 000 € d'amende.





