Le Droit à l'oubli face aux IA génératives

Le "Droit à l'oubli" à l'ère des IA génératives

Imaginez une photo de vous, prise lors d'une soirée il y a 10 ans. Vous l'aviez supprimée de vos réseaux sociaux, pensant l'affaire enterrée. Aujourd'hui, vous demandez à une IA de générer une image "d'un groupe d'amis s'amusant dans une fête des années 2010". Et parmi les visages générés, vous reconnaissez... le vôtre. L'IA n'a pas "trouvé" votre photo. Elle a simplement assemblé des briques de connaissance qu'elle avait apprises de milliers d'autres photos : le style de votre pull, l'expression de votre visage, l'éclairage typique de l'époque. Comment exercer son droit à l'oubli lorsque la machine n'a pas de bouton "supprimer" ?

Le droit à l'oubli, un concept pré-IA

Le droit à l'oubli est le principe permettant à une personne de demander la suppression d'informations la concernant lorsque celles-ci sont devenues obsolètes, inadéquates ou excessives. En Europe, le Règlement Général sur la Protection des Données (RGPD) l'a consacré comme un droit fondamental. Traditionnellement, ce droit s'appliquait à des données "structurées" : une page web, une fiche dans une base de données. On savait quoi supprimer et où le trouver. Par exemple, on pouvait demander à un moteur de recherche de déréférencer un article de presse ancien, une tâche complexe mais techniquement réalisable car l'information avait une localisation précise.

Pourquoi l'IA générative change tout

Les IA génératives comme GPT-4, DALL-E ou Midjourney fonctionnent différemment. Pour comprendre, utilisons une métaphore : une base de données est une bibliothèque où l'on peut retirer un livre. Une IA générative, c'est une éponge trempée dans l'océan d'Internet. L'éponge a absorbé toute l'eau, avec toutes ses "impuretés". On ne peut pas "extraire" la goutte d'eau contenant votre information. Le savoir est diffus, distribué dans l'ensemble des "poids" du modèle. Ces poids sont des milliards de petites "valves" numériques ajustées pendant l'entraînement. L'IA ne "copie" pas vos données, elle apprend les corrélations entre elles. Même si on retire les données sources, le modèle a déjà "appris" et peut encore générer du contenu vous concernant.

La course technologique pour "désapprendre"

Face à ce défi, les chercheurs ont développé le concept de "Machine Unlearning" (désapprentissage). Ce domaine vise à faire "oublier" des informations spécifiques à une IA sans avoir à tout ré-entraîner. Plusieurs approches existent :

  • L'approche "chirurgicale" : identifier et modifier les paramètres du modèle impliqués dans la mémorisation de l'information. Le risque est de créer des "trous" de connaissance et de dégrader les performances.
  • L'approche "contre-poison" : entraîner le modèle sur des données contradictoires pour qu'il "désapprenne" les associations fautives. Le risque est de sur-corriger et de faire oublier des informations utiles.
  • L'approche par "isolation": créer des "pare-feu" autour de certaines connaissances pour empêcher leur activation.

En 2025, ces techniques sont encore expérimentales. C'est un véritable casse-tête technique, d'autant plus qu'il existe des "attaques par inférence d'appartenance". Ces techniques permettent de vérifier si une donnée spécifique faisait partie de l'ensemble d'entraînement, prouvant ainsi que l'IA "se souvient".

Les limites actuelles du désapprentissage

Le "Machine Unlearning" fait face à plusieurs obstacles majeurs. D'abord, il est difficile de vérifier qu'une IA a vraiment "oublié" une information. Comment prouver l'absence de connaissance ? Les attaques par inférence aident, mais ne sont pas parfaites. Ensuite, ces techniques peuvent dégrader les performances globales du modèle. Enfin, elles sont actuellement très spécialisées : une technique développée pour faire oublier un visage ne fonctionnera pas nécessairement pour faire oublier un texte. Les entreprises comme Google, OpenAI ou Anthropic investissent massivement, mais les solutions robustes restent à venir.

Les enjeux concrets et les questions qui brûlent

Cette situation soulève des questions cruciales. Pour l'individu, c'est l'épée de Damoclès numérique : une erreur de jeunesse, une opinion passée ou une victimisation peuvent-elles un jour être véritablement effacées ? Pour les entreprises, c'est un champ de mines juridique. Prenons un exemple : une entreprise de santé utilise une IA entraînée sur d'anciens dossiers patients pour aider au diagnostic. Si un patient demande l'oubli, comment l'entreprise peut-elle garantir que l'IA ne générera pas une conclusion basée sur les "souvenirs" de ce patient ? Pour la justice, comment un juge peut-il ordonner la "suppression" d'une information qui n'existe pas de manière tangible ?

L'AI Act de l'Union Européenne face à ce défi

L'AI Act européen, entré en application progressive, commence à adresser ces questions, mais reste limité face à la complexité technique. La régulation impose surtout aux fournisseurs d'IA de documenter leurs ensembles de données et de permettre la correction d'inexactitudes. Elle se concentre sur la transparence de ce qui entre dans le modèle, mais ne propose pas de solution concrète pour l'oubli au niveau des connaissances du modèle lui-même. Un vide juridique persiste, laissant les citoyens démunis face à des technologies qui ne "oublient" pas naturellement.

Vers une nouvelle définition de l'oubli ?

Face à ces défis, plusieurs pistes émergent. Certains experts prônent le développement de "modèles amnésiques" par conception, conçus pour pouvoir désapprendre efficacement. D'autres suggèrent d'interdire purement et simplement l'entraînement sur des données personnelles sans consentement explicite. Une troisième voie consiste à accepter cette mémoire éternelle et à développer des contre-mesures : des outils permettant de "polluer" notre présence numérique pour la rendre moins exploitable. Le droit à l'oubli tel que nous le connaissons est peut-être voué à disparaître, remplacé par de nouveaux mécanismes de contrôle de notre identité numérique.

Plus la technologie progresse, plus un droit fondamental régresse. La question n'est plus de savoir si l'IA va changer notre rapport à l'oubli, mais comment nous allons collectivement décider d'encadrer cette transformation. Entre protection de la vie privée et progrès technologique, l'équilibre reste à trouver.

Sources


Qu'est-ce que le droit à l'oubli exactement ?

Le droit à l'oubli est le droit pour une personne de demander la suppression d'informations la concernant lorsque celles-ci sont devenues obsolètes, inadéquates ou excessives. Il est principalement encadré par le RGPD en Europe.

Pourquoi les IA génératives ne peuvent-elles pas simplement supprimer des données ?

Les IA génératives ne stockent pas les données de manière structurée. Elles apprennent des corrélations à partir des données d'entraînement, et ces connaissances sont distribuées dans l'ensemble du modèle. On ne peut donc pas "supprimer" une information spécifique comme on supprimerait un fichier.

Qu'est-ce que le Machine Unlearning ?

Le Machine Unlearning (désapprentissage) est un domaine de recherche qui vise à faire "oublier" des informations spécifiques à une IA sans avoir à tout ré-entraîner depuis zéro. Plusieurs techniques existent mais elles sont encore expérimentales et limitées.

Qu'est-ce qu'une attaque par inférence d'appartenance ?

C'est une technique qui permet de vérifier si une donnée spécifique (par exemple, une photo) faisait partie de l'ensemble de données utilisé pour entraîner une IA. Cela prouve que l'IA "se souvient" de cette donnée.

Existe-t-il des lois pour protéger le droit à l'oubli face à l'IA ?

L'AI Act européen commence à adresser ces questions mais reste limité face à la complexité technique du désapprentissage. Un vide juridique persiste, car les lois actuelles ont été conçues pour des données structurées, pas pour les connaissances intégrées dans les modèles d'IA.

Sur le même sujet

LinkedIn Données personnelles
LinkedIn et l'utilisation des données pour l'IA en 2025

LinkedIn va utiliser les données personnelles de ses utilisateurs pour entraîner son IA

LinkedIn a officiellement annoncé qu'à partir du 3 novembre 2025, le réseau social professionnel utilisera les données personnelles de ses utilisateurs pour entraîner son intelligence artificielle générative. Depuis le 18 septembre 2025, les utilisateurs ont la possibilité de s'opposer à cette pratique, mais l'option est activée par défaut. Cette décision s'inscrit dans une tendance plus large des réseaux sociaux, comme Facebook (Meta), qui exploitent déjà les données de leurs utilisateurs pour développer leurs IA. Elle soulève des questions importantes sur la vie privée, le consentement et l'équilibre entre innovation technologique et protection des données à l'ère du RGPD.

Sora OpenAI
Polémique Sora célébrités décédées

Pourquoi les images de personnes décédées générées avec Sora font polémique ?

L’arrivée de Sora 2, la nouvelle version de l’outil de génération d’OpenAI, a relancé un débat brûlant : celui de la résurrection numérique des célébrités disparues. Avec Sora 2, dont le réalisme dépasse tout ce qu’on avait vu jusque-là, la prouesse technologique se double d’un malaise éthique. Peut-on vraiment recréer un visage sans consentement ? Derrière l’effet de fascination, c’est la dignité et le contrôle de l’image qui sont remis en question.

Deuil Décès
Clonage numérique et deuil à l'heure de l'IA

Clonage numérique post-mortem : quand l'IA nous permet de parler aux défunts

Parler à un proche disparu après sa mort. L'idée, autrefois confinée à la science-fiction, devient une réalité grâce à l'avancée de l'intelligence artificielle. Des entreprises proposent désormais de créer des avatars numériques de personnes décédées, capables d'interagir avec leurs proches. Ce phénomène, appelé clonage numérique post-mortem ou Grief Tech, soulève des espoirs mais aussi de profondes questions éthiques et psychologiques.

données personnelles protection des données
Illustration des recours juridiques lorsque vos données personnelles sont utilisées pour entraîner une intelligence artificielle

Vos données utilisées pour entraîner une IA : quels recours ?

De ChatGPT à Midjourney, les intelligences artificielles (IA) se nourrissent de gigantesques volumes de données. Et si les vôtres en faisaient partie ? Nom, photos, écrits... Vos informations personnelles sont peut-être utilisées sans votre accord. Le RGPD vous protège, mais comment agir concrètement ? Ce guide détaille vos droits et les recours possibles.

Droit à l'image Acteurs
Tilly Norwood et Briony Monroe

Tilly Norwood : une actrice écossaise accuse l'IA de lui avoir volé son visage et son jeu

En septembre 2025, l'arrivée de Tilly Norwood, une actrice entièrement générée par intelligence artificielle, faisait des vagues à Hollywood. Mais au-delà de la polémique sur l'avenir du métier d'acteur, une accusation plus personnelle a émergé : celle de Briony Monroe, une actrice écossaise qui affirme que son visage et son jeu ont été utilisés sans son consentement pour créer cette IA. Une affaire qui soulève des questions cruciales sur le droit à l'image, la propriété artistique et les limites éthiques de l'intelligence artificielle dans le monde du spectacle.

proton lumo
Lumo : assistant IA privé par Proton

Lumo, l'IA de Proton : transparente sur tous les plans

Lumo est le tout nouvel assistant IA lancé par Proton. Avec une promesse forte : proposer une intelligence artificielle respectueuse de la vie privée, chiffrée, hébergée en Europe, et indépendante des géants américains. Mais derrière cette posture éthique, que vaut vraiment ce chatbot dans la pratique ?