
Qui est responsable quand une IA fait une erreur ?
L'intelligence artificielle est partout. Elle nous conseille, nous conduit, nous aide à diagnostiquer des maladies. Mais que se passe-t-il quand l'IA se trompe ? La question de la responsabilité devient alors cruciale et complexe. Dans les faits, la machine n'est pas (encore) tenue pour responsable. Alors, qui paie pour les erreurs d'une IA ?
Le principe de base : la machine n'a pas de personnalité juridique
Avant toute chose, un rappel essentiel. En droit, pour être responsable, il faut avoir une personnalité juridique. C'est ce qui permet à une personne physique (un humain) ou morale (une entreprise) d'avoir des droits et des devoirs, et d'être jugée. Aujourd'hui, une IA n'a pas de personnalité juridique. Elle ne peut donc pas être poursuivie, condamnée ou aller en prison. La responsabilité retombe toujours sur un acteur humain ou une personne morale impliquée dans la chaîne de création et d'utilisation de l'IA. Le défi est ensuite d'identifier le ou les bons maillons de cette chaîne.
Le chatbot d'Air Canada invente une politique
Cette affaire, jugée en 2024 au Canada, est un excellent point de départ car elle est simple et claire.
Le contexte : Jake Moffatt doit prendre un vol d'urgence pour les funérailles de sa grand-mère. Avant d'acheter son billet, il discute avec le chatbot d'Air Canada sur le site de la compagnie. Il lui demande s'il peut bénéficier d'un tarif pour un décès. Le chatbot lui répond que oui, et qu'il peut acheter le billet plein tarif, puis faire une demande de remboursement dans les 90 jours. Se fiant à cette information, M. Moffatt achète son billet pour plus de 800 $.
L'erreur : Le chatbot s'est complètement trompé. La politique réelle d'Air Canada, clairement indiquée ailleurs sur le site, stipule que les tarifs de deuil doivent être demandés avant l'achat. Lorsque M. Moffatt présente sa demande de remboursement, la compagnie la refuse, en invoquant sa politique officielle.
La décision de justice : M. Moffatt porte l'affaire devant le tribunal. Air Canada tente un argument audacieux : le chatbot est une "entité juridique distincte", responsable de ses propres actions. Le juge rejette cet argument sans la moindre hésitation. Sa décision est limpide : "bien qu'un chatbot ait une composante interactive, il n'est qu'une partie du site web d'Air Canada. Il devrait être évident pour Air Canada qu'elle est responsable de toutes les informations figurant sur son site web". La compagnie a été condamnée à rembourser son client.
Leçon clé : Cette affaire établit un principe fondamental : l'entreprise qui déploie un outil d'IA est responsable des informations qu'il fournit, comme si elles étaient écrites par un employé. On ne peut pas se cacher derrière l'"autonomie" de la machine pour esquiver ses devoirs.
L'accident Tesla Autopilot, une responsabilité partagée
Les accidents impliquant le système Autopilot de Tesla sont bien plus complexes et illustrent parfaitement l'idée de responsabilité partagée.
Le contexte : Plusieurs accidents, dont certains mortels, ont eu lieu alors que le système Autopilot était activé. Il est crucial de comprendre que l'Autopilot n'est pas un véhicule entièrement autonome, mais un système d'aide à la conduite (ADAS). Tesla rappelle constamment que le conducteur doit rester vigilant, les mains sur le volant, et prêt à reprendre le contrôle à tout moment.
L'erreur : Dans plusieurs cas, le système a échoué à identifier correctement un obstacle. Par exemple, en 2019 en Floride, une Model S a percuté un camion-poubelle traversant sa route. L'IA n'a pas "compris" la situation. Mais dans le même temps, les données du véhicule ont montré que le conducteur n'avait pas les mains sur le volant et n'a pas amorcé de manœuvre d'évitement.
La décision de justice : Contrairement à l'affaire Air Canada, il n'y a pas de réponse unique. La responsabilité est souvent une question de degrés :
- Le conducteur est responsable s'il n'a pas supervisé le système comme l'exige la loi et le manuel du véhicule. Sa négligence est une faute claire.
- Tesla peut être tenue pour responsable s'il est prouvé qu'il y avait un défaut de conception ou de logiciel. C'est une affaire de "responsabilité du fait des produits défectueux". Si l'IA n'a pas fonctionné comme promis, l'entreprise peut être poursuivie. D'ailleurs, un jury en Floride a récemment jugé Tesla partiellement responsable dans un accident mortel de 2019.
Leçon clé : Avec les technologies d'assistance, la faute est rarement le fait d'un seul. C'est une enquête complexe pour déterminer la part de responsabilité entre l'erreur humaine (manque de vigilance) et la défaillance technique (un produit qui n'est pas parfait).
Alors, vers qui se tourner ?
Ces deux exemples montrent que la réponse dépend du contexte. On peut schématiser les principaux responsables :
- Le concepteur ou le développeur : Responsable si l'IA est défectueuse dès sa conception (biais dans les données, erreurs de code). C'est la faute de "naissance" du produit.
- L'entreprise qui déploie l'IA : Responsable de l'outil qu'elle met sur le marché ou à disposition de ses clients et employés. C'est le cas d'Air Canada.
- L'utilisateur : Responsable s'il utilise l'IA de manière inadéquate, en dehors de son cadre d'utilisation prévu, ou sans la supervision nécessaire. C'est souvent le cas pour les conducteurs de véhicules assistés.
- L'employeur : Il peut être responsable des fautes commises par son employé (l'utilisateur) dans le cadre de ses fonctions.
Comment le droit s'adapte à ce casse-tête ?
Face à ces défis, le droit évolue, mais lentement. L'Union européenne est à la pointe avec deux textes majeurs :
L'AI Act : Ce règlement, qui entre progressivement en application, classe les systèmes d'IA par niveau de risque. Pour les IA à haut risque (santé, justice, infrastructures critiques...), il impose des obligations strictes de transparence, de surveillance humaine et de robustesse. Le non-respect engage la responsabilité des fournisseurs et utilisateurs.
La directive sur la responsabilité du fait des produits défectueux : Elle a été mise à jour pour inclure explicitement les logiciels et les systèmes d'IA. Cela facilite grandement l'indemnisation des victimes, qui n'ont plus à prouver une faute du fabricant, mais seulement le défaut du produit et le dommage.
En parallèle, une proposition de "directive sur la responsabilité en matière d'IA" visait à alléger la charge de la preuve pour les victimes, mais elle a été récemment abandonnée, ce qui montre la difficulté pour les législateurs de trouver un équilibre parfait.
Une responsabilité finalement bien humaine
Quand une IA fait une erreur, la recherche d'un coupable est un exercice complexe qui nous renvoie à nos propres responsabilités. L'affaire Air Canada nous dit que l'entreprise est garante de ses outils. Les accidents Tesla nous montrent que l'utilisateur reste le dernier rempart. La responsabilité n'est pas dans la machine, mais dans la chaîne de décisions humaines qui l'entourent : celui qui l'a conçue, celle qui la vend, celui qui l'utilise. Le véritable défi n'est pas de rendre les IA responsables, mais de répartir équitablement la responsabilité humaine qui leur est attachée.
Sources
- L'hallucination du chatbot d'Air Canada révèle la responsabilité juridique des entreprises face à l'IA - Le Monde Informatique : Analyse détaillée de la décision de justice contre Air Canada.
- Who is liable for a crash caused by Tesla's autopilot? - For Your Rights : Explication des facteurs de responsabilité dans les accidents avec Autopilot.
- Tesla found partly to blame for fatal Autopilot crash - BBC : Article sur le jugement en Floride qui a reconnu la responsabilité partielle de Tesla.
Une IA peut-elle être poursuivie en justice ?
Non. Une IA n'a pas de personnalité juridique, elle ne peut donc pas être jugée ou condamnée. La responsabilité est toujours attribuée à un acteur humain ou une entreprise.
Qui est responsable si un chatbot donne une mauvaise information ?
C'est l'entreprise qui déploie le chatbot qui est responsable. Comme pour n'importe quelle information sur son site web, elle est tenue de garantir la fiabilité des outils qu'elle met à disposition de ses clients.
Est-ce que le conducteur est toujours responsable avec une voiture autonome ?
Pas "toujours". La responsabilité est souvent partagée. Le conducteur est responsable de sa vigilance, mais le constructeur peut être tenu pour responsable s'il est prouvé qu'il y avait un défaut de conception ou un logiciel défaillant.
Qu'est-ce que l'AI Act change pour la responsabilité ?
L'AI Act européen impose des obligations de transparence, de sécurité et de surveillance humaine strictes pour les systèmes d'IA à haut risque. Le non-respect de ces règles engage la responsabilité des fournisseurs et des utilisateurs.
Que faire si je subis un préjudice à cause d'une IA ?
Conservez toutes les preuves (captures d'écran, échanges). La première étape est d'identifier l'entreprise qui fournit le service. Vous pouvez ensuite engager une démarche à l'amiable ou une action en justice sur la base du droit de la responsabilité civile ou du droit de la consommation.





