
Pourquoi les images de personnes décédées générées avec Sora font polémique ?
L’arrivée de Sora 2, la nouvelle version de l’outil de génération d’OpenAI, a relancé un débat brûlant : celui de la résurrection numérique des célébrités disparues. Avec Sora 2, dont le réalisme dépasse tout ce qu’on avait vu jusque-là, la prouesse technologique se double d’un malaise éthique. Peut-on vraiment recréer un visage sans consentement ? Derrière l’effet de fascination, c’est la dignité et le contrôle de l’image qui sont remis en question.
Sora 2 : un outil qui change la donne
Lancée en octobre 2025, Sora 2 marque une avancée majeure dans la génération vidéo par IA. L'outil permet de créer des séquences de 10 secondes en qualité photoréaliste, avec des mouvements fluides et un rendu cinématographique, en quelques minutes seulement et en partant d'un simple prompt.
Cette version a introduit une distinction technique clé : alors que les personnes vivantes doivent donner leur consentement explicite, OpenAI autorise l'utilisation de l'image de personnes décédées, considérées comme des "figures historiques". Cette spécificité a rapidement conduit à la création de contenus qui ont alimenté un débat éthique et juridique complexe.
Les raisons de la polémique
Plusieurs facteurs expliquent pourquoi ces créations suscitent une vive controverse, bien au-delà de la simple curiosité technologique.
Absence de consentement et atteinte à la dignité
Le cœur du problème réside dans l'absence de consentement des personnes représentées et de leurs familles. Contrairement aux vivants qui peuvent autoriser ou non l'utilisation de leur image, les défunts n'ont pas cette possibilité. Leurs proches se retrouvent confrontés à des représentations qu'ils n'ont jamais approuvées, souvent dans des contextes qu'ils jugent inappropriés.
Cette situation est vécue comme une atteinte à la dignité de la personne disparue et à la sphère privée de ses proches. Beaucoup estiment que la mémoire des défunts devrait être protégée, même après leur mort, et que leur image ne devrait pas être exploitée sans un cadre éthique clair.
La souffrance des familles
De nombreux proches de célébrités décédées ont exprimé leur détresse et leur colère face à ces vidéos. Zelda Williams, fille de Robin Williams, a publiquement demandé aux internautes d'arrêter de lui envoyer des contenus IA de son père, rappelant que cela ne correspondait pas à ce qu'il aurait souhaité.
Ilyasah Shabazz, fille de Malcolm X, a qualifié ces représentations de "profondément irrespectueuses", notamment lorsque son père est montré dans des scènes dégradantes. Ces témoignages révèlent l'impact émotionnel concret sur les familles, déjà confrontées au deuil.
TikTok : un amplificateur de la controverse
La plateforme TikTok joue un rôle central dans la diffusion et la viralité de ces contenus. Son algorithme, qui privilégie les vidéos choc ou surprenantes, a entraîné une exposition massive des créations générées par Sora 2. La nature éphémère et rapide de la consommation sur TikTok favorise une utilisation irrespectueuse de ces images.
Les défis et tendances virales incitent les utilisateurs à produire des contenus toujours plus spectaculaires, souvent au détriment de la dignité des personnes représentées. Ce phénomène illustre comment les dynamiques des réseaux sociaux peuvent amplifier considérablement les enjeux éthiques liés à ces nouvelles technologies.
Usages respectueux vs dérives : la technologie n'est pas le problème
Il est essentiel de distinguer la technologie elle-même de ses usages. De nombreux fans emploient Sora 2 de manière respectueuse pour créer des hommages ou des représentations artistiques de célébrités disparues, comme on le ferait avec une peinture ou un dessin. Ces créations, bien que générées par IA, s'inscrivent dans une tradition d'hommage et de mémoire.
Le problème ne réside donc pas dans l'outil en soi, mais dans les utilisateurs peu scrupuleux qui produisent volontairement des contenus polémiques pour attirer l'attention et monétiser leur audience sur des plateformes comme TikTok. Celles-ci, par leur modération parfois laxiste et leurs algorithmes favorisant le sensationnel, portent une responsabilité équivalente à celle d'OpenAI dans la prolifération de ces vidéos.
Cette situation rappelle la polémique des vidéos de singes créées avec Véo 3 pour propager des messages racistes. En soi, créer une vidéo de singe n'est pas problématique ; c'est l'intention derrière et le message véhiculé qui déterminent la nature du contenu. La même logique s'applique aux représentations de personnes décédées par IA.

Ce qui change radicalement avec l'IA
Si la distinction entre usage respectueux et dérive est essentielle, il faut reconnaître que l'IA bouleverse profondément la donne par rapport à des outils comme Photoshop. Trois éléments clés expliquent l'ampleur inédite de la polémique :
- Accessibilité : plus besoin de compétences techniques avancées. N'importe qui peut générer une vidéo réaliste en quelques secondes à partir d'un simple texte.
- Échelle : des millions d'utilisateurs peuvent créer et partager ces contenus, produisant un effet de masse inédit.
- Réalisme : les vidéos générées par Sora 2 atteignent un niveau de réalisme et de fluidité tel que le faux devient presque indiscernable du vrai.
Ces différences fondamentales expliquent pourquoi les enjeux éthiques et juridiques deviennent urgents à encadrer.
Un flou juridique préoccupant
Sur le plan légal, la situation est complexe et varie selon les pays. Aux États-Unis, la protection du droit à l'image après la mort dépend des États et n'est pas uniforme. En France, ce droit s'éteint généralement avec la personne, bien que certaines jurisprudences reconnaissent un droit moral des héritiers.
La question centrale est de savoir si OpenAI peut être tenue responsable des contenus générés par ses utilisateurs. L'entreprise pourrait invoquer la Section 230 aux États-Unis, qui exonère les plateformes de la responsabilité des contenus tiers. Cette incertitude juridique inquiète les experts et les familles.
La réponse mitigée d'OpenAI
Face à la polémique, OpenAI a adopté une approche prudente. L'entreprise a accepté, à la demande de la succession de Martin Luther King Jr., de suspendre temporairement les générations de vidéos le représentant, promettant de renforcer ses "garde-fous".
Cependant, aucune mesure générale ni communication claire n'a été prise concernant les autres célébrités. Cette réponse limitée est jugée insuffisante par de nombreux observateurs, qui appellent à un cadre éthique global pour l'utilisation de l'image des personnes, qu'elles soient vivantes ou décédées.
Vers un nouveau paradigme numérique
La polémique autour de Sora 2 nous confronte à une réalité inévitable : notre capacité à recréer des représentations humaines toujours plus fidèles, qu'elles concernent des vivants ou des morts. Ce débat dépasse le cas des célébrités décédées pour interroger le contrôle de notre image numérique à l'ère de l'IA.
De nombreuses personnes vivantes refusent déjà leur reproduction par des systèmes d'intelligence artificielle, sans toujours disposer des moyens légaux pour l'empêcher. La question devient alors : qui contrôle notre image numérique, et selon quelles règles ? Faudra-t-il demain donner explicitement son consentement pour être reproduit par une IA, comme on le fait pour le don d'organes ?
Plutôt que de rejeter ces technologies, la société doit s'engager dans une réflexion collective sur leur encadrement. Comment protéger la dignité humaine tout en permettant l'innovation ? Comment responsabiliser les plateformes comme TikTok qui amplifient les dérives ?
Chaque avancée technologique majeure s'accompagne de défis éthiques et juridiques qu'il nous revient de résoudre collectivement. L'histoire montre que nous finissons toujours par trouver des équilibres, souvent après des périodes de tension et d'expérimentation. La question n'est plus de savoir si nous devons utiliser ces technologies, mais comment les encadrer pour qu'elles servent le bien commun sans porter atteinte à notre humanité.
Sources
- Sur Sora, des vidéos générées par IA mettant en scène des célébrités décédées suscitent l'indignation – Le Monde
- 'Legacies condensed to AI slop': OpenAI Sora videos of the dead raise alarm with legal experts – The Guardian
- AI videos of dead celebrities are horrifying many of their families – The Washington Post
Pourquoi les images de célébrités décédées générées par Sora 2 sont-elles controversées ?
Elles sont controversées car créées sans le consentement des personnes représentées ni de leurs familles, portant atteinte à leur dignité et causant une détresse psychologique aux proches. De plus, elles déforment parfois l'héritage des célébrités dans des contextes inappropriés. Le réalisme et l'accessibilité de Sora 2 ont amplifié ces préoccupations.
Quelle est la différence entre les montages Photoshop et les générations par IA comme Sora 2 ?
Contrairement à Photoshop, qui demandait des compétences techniques et du temps, Sora 2 permet à quiconque de créer des vidéos réalistes en quelques secondes. L'IA offre aussi un réalisme supérieur et une diffusion massive, notamment sur des plateformes comme TikTok, amplifiant considérablement l'impact et les risques.
Le problème de Deepfake avec Sora 2 se limite-t-il aux personnes décédées ?
Non. Le problème concerne aussi les personnes vivantes. Beaucoup refusent d'être reproduites par des systèmes d'IA sans en avoir le contrôle. Le débat dépasse donc les défunts pour englober la question du contrôle de notre image numérique à l'ère de l'IA.
Quel rôle joue TikTok dans la prolifération des deepfakes de personnes décédées?
TikTok agit comme un amplificateur majeur de la controverse. Son algorithme favorise les vidéos choc ou virales, contribuant à une exposition massive des créations générées par Sora 2. Les défis et tendances encouragent la production de contenus spectaculaires, souvent au détriment du respect des personnes représentées.
Toutes les utilisations de Sora 2 pour représenter des défunts sont-elles problématiques ?
Non. De nombreux fans utilisent Sora 2 de manière respectueuse pour créer des hommages ou des œuvres artistiques, comme on le ferait avec une peinture. Le problème vient surtout d’utilisateurs qui exploitent ces images pour provoquer ou monétiser l’audience.
Faudra-t-il donner son consentement pour être reproduit par l'IA à l'avenir ?
C'est l'une des questions clés soulevées par cette polémique. Plusieurs experts suggèrent la mise en place d'un système de consentement explicite pour l'utilisation de notre image par l'IA, comparable au don d'organes. Cela permettrait de protéger la dignité humaine tout en encadrant ces technologies.