Décryptages
1/07/25
La réparation des préjudices économiques résultant de l’usage d’un système d’IA

Parmi les enjeux cruciaux que pose l’utilisation des systèmes d’Intelligence artificielle[1] (ci-après désignés « SIA »), la réparation des préjudices économiques résultant de ces SIA suscite de nombreux questionnements et implique aussi bien l’interprétation des règles spéciales issues du Règlement (UE) 2024/1689 sur l’intelligence artificielle (ci-après désigné « AI Act »)[2] et d’autres législations, que l’adaptation des règles de la responsabilité civile de droit commun, pour délimiter la responsabilité de chaque acteur intervenant dans la chaîne de valeur de l’intelligence artificielle (ci-après désignée « IA »). Des difficultés émergent également sur le plan probatoire, du fait de la pluralité de ces acteurs et du caractère souvent opaque des SIA, complexes technologiquement et entraînés parfois à partir de millions de données.
La Cour d’appel de Paris, dans une fiche méthodologique[3] récemment publiée, avance plusieurs hypothèses et éléments de réponse sur ces différentes problématiques, dans l’attente des premières décisions de justice en la matière.
L’approche par les risques adoptée par l’AI Act
Avant d’envisager la question de la réparation en aval des préjudices économiques inhérents à l’utilisation d’un SIA, le groupe de travail rattaché à la Cour d’appel de Paris rappelle les règles posées en amont par l’AI Act visant à prévenir la survenance de tels préjudices, par une approche dite par les risques. En vertu de cette approche, plus un SIA présente de menaces pour les intérêts publics et droits fondamentaux protégés par la Charte des droits fondamentaux de l’Union européenne (UE), plus il se verra appliquer de normes régulant son fonctionnement, un risque inacceptable pour les valeurs de l’UE (démocratie, Etat de droit, protection de l’environnement, etc.) entraînant même son interdiction pure et simple, conformément à l’article 5 de l’AI Act, entré en vigueur le 2 février 2025[4]. En ce qui concerne les SIA à haut risque, l’AI Act fait notamment peser des obligations d’information, de transparence et de conformité sur leurs fournisseurs[5].
Le rejet d’une responsabilité personnelle du SIA
La Cour d’appel de Paris, dans sa fiche didactique, explore ensuite les différentes alternatives du droit commun de la responsabilité civile et interroge leur pertinence dans l’hypothèse d’un préjudice économique inhérent à l’utilisation d’un SIA. Tout d’abord, elle exclut la responsabilité personnelle du « robot » sur le fondement des articles 1240 et 1241 du Code civil en rappelant les débats cristallisés autour de la reconnaissance d’une personnalité juridique aux SIA. Une telle fiction juridique, qui aurait abouti à ce que le SIA soit en même temps sujet et objet de droit et aurait comporté le risque d’une déresponsabilisation des acteurs économiques de l’IA, a finalement été rejetée.
Dès lors, il convient de rechercher la responsabilité des différents acteurs de la chaîne de valeur sur d’autres fondements.
La responsabilité pour faute des acteurs de la chaîne de valeur de l’IA
Les articles 1240 et 1241 du Code civil prévoient que la responsabilité de l’auteur d’une faute, ou d’une imprudence ou négligence fautive, est engagée dès lors que cette faute a causé un préjudice direct et certain à la victime. Il revient à cette dernière de démontrer la faute, le préjudice et le lien de causalité.
Or, l’obstacle probatoire dû à la complexité technologique de certains SIA et au phénomène de « boîte noire »[6] impose, selon la Cour d’appel, de faciliter la démonstration de la responsabilité de l’auteur de la faute, au besoin via un système de présomptions judiciaires réfragables analogue à ce qui était consacré dans la proposition de directive sur la responsabilité en matière d’IA[7], finalement abandonnée.
En ce qui concerne la faute, elle sera constituée par toute atteinte à un droit protégé et par toute violation d’une obligation consacrée par l’AI Act, telles les obligations pesant sur les fournisseurs de SIA à haut risque prévues par l’article 16.
En ce qui concerne l’identification de la personne responsable, le juge saisi s’appuiera sur l’article 25 de l’AI Act qui organise la responsabilité tout au long de la chaîne de valeur de l’IA en distinguant notamment le fournisseur initial du SIA des fournisseurs dits « secondaires » (distributeur, importateur, déployeur, ou autre tiers), le premier n’étant plus considéré comme fournisseur dans certaines circonstances strictement listées.
La responsabilité du fait des choses
La Cour d’appel de Paris envisage également la possibilité d’appliquer le régime de responsabilité du fait des choses de l’article 1242 du Code civil aux dommages financiers causés par des SIA. Elle rappelle que l’établissement d’une telle responsabilité suppose de rapporter la double preuve du fait de la chose et de la qualité de gardien du responsable. Or, la plus ou moins grande autonomie[8] des SIA implique de rechercher une répartition équitable des responsabilités entre le fabricant du SIA, autrement dit le fournisseur d’IA[9] et le déployeur[10] de ce système. A cet égard, la Cour d’appel propose d’utiliser la distinction entre la garde de la structure et la garde du comportement en déterminant qui des deux acteurs a réellement l’usage, la surveillance et le contrôle sur l’objet, soit le SIA qui a causé le préjudice.
L’application des régimes de responsabilités spéciales
Sont étudiés successivement (i) le régime de la responsabilité spéciale du fait des produits défectueux et (ii) le régime de responsabilité du contrefacteur prévu par le Code de la propriété intellectuelle.
-
La responsabilité du fait des produits défectueux
La Directive (UE) 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux[11], vient réformer le régime de responsabilité spéciale du fait des produits défectueux issu de la Directive du 25 juillet 1985[12] et transposé à l’article 1245 du Code civil. Il s’agit d’un régime de responsabilité sans faute qui implique d’établir un lien de causalité suffisant entre la défectuosité d’un produit et le dommage subi par la victime, sans qu’un fait fautif du propriétaire ou fabricant ne soit nécessairement prouvé. Cette nouvelle Directive adapte le cadre européen aux avancées technologiques récentes et en particulier à l’IA et aux logiciels, en intégrant dans une définition élargie des notions de produit[13] et de composant[14] pour les éléments incorporels.
Parmi les avancées majeures de cette réforme, l’on note un allègement de la charge de la preuve au profit du consommateur à travers l’instauration d’une présomption de défectuosité ou de lien de causalité entre le dommage subi et cette défectuosité, dès lors qu’il existe des difficultés excessives à démontrer ces éléments, notamment en présence de produits complexes comme le sont certains SIA. Néanmoins, dans les cas où cette présomption ne s’appliquerait pas ou serait retournée, il reviendra au demandeur de démontrer la défectuosité du SIA en apportant la preuve qu’il n’offrait pas « la sécurité à laquelle une personne peut légitimement s’attendre » [15], et le dommage économique résultant de cette défectuosité. Par exemple, en cas d’hallucination du système ou de pertes de données dues à un défaut de celui-ci faisant peser de lourdes pertes à son utilisateur, la directive pourrait s’appliquer.
En ce qui concerne le responsable d’une telle atteinte, la Directive (UE) 2024/2853 aménage un système de responsabilité solidaire et une chaîne de responsabilités avec comme premier responsable le fabricant[16] du produit défectueux, soit le fournisseur[17] au sens de l’AI Act.
-
La responsabilité du fait de la contrefaçon
Les SIA étant entraînés sur des millions de données, certaines d’entre elles sont protégées notamment par des droits d’auteur ou droits voisins. Or, et l’actualité récente le confirme avec l’émergence de nombreux contentieux initiés par des auteurs et ayants-droit assignant des développeurs et fournisseurs de SIA en contrefaçon, l’utilisation de ces systèmes présente de nombreuses menaces pour ces droits, aussi bien au stade de l’entraînement du système où des œuvres peuvent être reproduites pour l’apprentissage du SIA, qu’au stade de la génération de données de sortie (également désignées « outputs »).
Certes, la Directive (UE) 2019/790 dite « DAMUN »[18] a instauré une exception pour la fouille de textes et de données (également désignée « Text and data mining » ou « TDM ») – y compris commerciale – en son article 4[19]. Or, pour la Cour d’appel de Paris, les conditions de licéité de l’accès aux données protégées et l’efficacité pratique de l’« opt-out », qui permet aux titulaires de droit de s’opposer à la reproduction de leurs œuvres protégées pour l’entraînement des SIA, est pour l’heure contestable. De plus, les contenus générés faisant souvent concurrencent aux œuvres protégées, cette pratique du TDM ne devrait pas résister au test en trois étapes, filtre supplémentaire à l’application des exceptions prévues par le Code de la propriété intellectuelle[20].
Enfin, l’AI Act a mis à la charge des fournisseurs d’IA une obligation de conformité et de transparence, leur imposant la mise à disposition du public d’un « résumé suffisamment détaillé » [21] des contenus ayant servi à l’entraînement des modèles d’IA à usage général[22], pour pallier une partie des difficultés probatoires liées au phénomène de « boîte noire ».
Cette fiche méthodologique met ainsi en lumière les fondements juridiques susceptibles d’être mobilisés pour obtenir réparation des préjudices économiques résultant de l’usage d’un SIA. Certains, tels que l’action en contrefaçon, sont déjà examinés par les prétoires, tandis que d’autres, plus novateurs, pourraient alimenter des débats juridictionnels à venir. Il appartiendra aux demandeurs de choisir, seuls ou de manière cumulative, les fondements les plus adaptés à leur situation, en s’appuyant notamment sur les présomptions proposées dans cette fiche méthodologique. En ce sens, cette fiche constitue un outil utile de réflexion pour les praticiens appelés à anticiper et encadrer les effets juridiques de l’IA dans les litiges à venir.
[1] Le SIA est défini comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » (article 3§1, AI Act).
[2] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (« règlement sur l’intelligence artificielle » ou « AI Act ») : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=OJ:L_202401689
[3] Cour d’appel de Paris, Fiche n°24 intitulée « Comment réparer les préjudices économiques résultant de l’usage d’un système d’IA ? », 19 juin 2025 : https://www.cours-appel.justice.fr/sites/default/files/2025-06/fiche%2024%20CA%20Paris%20-%20usage%20d%27un%20syst%C3%A8me%20d%27IA.pdf
[4] Article 113, AI Act.
A noter que la Commission européenne a approuvé, le 4 février 2025, le projet de lignes directrices visant à clarifier l’application des dispositions de l’article 5 de l’AI Act (Approval of the content of the draft Communication from the Commission – Commission Guidlines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act) : https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act ; « Lignes directrices sur l’AI Act : un premier éclairage de l’article 5 par la Commission européenne », Flash Cabinet Racine, 7 février 2025 : https://www.racine.eu/lignes-directrices-sur-lai-act-un-premier-eclairage-de-larticle-5-par-la-commission-europeenne/).
[5] Article 16, AI Act.
Un fournisseur est défini comme « une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit » (article 3§3, AI Act).
[6] Le phénomène de boîte noire des SIA désigne l’opacité de leur fonctionnement, c’est-à-dire l’impossibilité (ou la grande difficulté) pour les utilisateurs, les développeurs ou même les experts de comprendre comment un système d’IA parvient à un résultat donné.
[7] Commission européenne, Proposition de Directive 2022/0303 (COD) relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle (dite « Directive sur la responsabilité en matière d’IA »), 28 septembre 2022 : https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52022PC0496.
[8] Le degré d’autonomie est une des caractéristiques essentielles constitutives des SIA en vertu de l’article 3(1) de l’AI Act.
[9] La notion de fournisseur renvoie à « une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit » (article 4(3), AI Act).
[10] Un déployeur est défini comme « une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant sous sa propre autorité un système d’IA sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel » (article 3§4, AI Act).
[11] Directive (UE) 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux : https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:32024L2853
[12] Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000000888209/
[13]La notion de produit renvoie à « tout meuble, même s’il est incorporé dans un autre meuble ou dans un immeuble ou interconnecté avec celui-ci; le terme comprend l’électricité, les fichiers de fabrication numériques, les matières premières et les logiciels » (Art. 4(1), Directive (UE) 2024/2853).
[14] La notion de composant renvoie à « tout élément, corporel ou incorporel, matière première ou service connexe, intégré dans un produit ou interconnecté avec celui-ci » (Art. 4(4), Directive (UE) 2024/2853).
[15] Art. 7§1, Directive (UE) 2024/2853.
[16] La notion de fabricant renvoie à « toute personne physique ou morale qui : a) met au point, fabrique ou produit un produit ; b) fait concevoir ou fabriquer un produit ou qui, en apposant sur ce produit son nom, sa marque ou d’autres caractéristiques distinctives, se présente comme son fabricant ; ou c) met au point, fabrique ou produit un produit pour son propre usage » (article 4(10), Directive (UE) 2024/2853).
[17] La notion de fournisseur renvoie à « une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit » (article 3§3, AI Act).
[18] Directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE : https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32019L0790
[19] Cet article 4 de la Directive (UE) 2019/790 a été transposé aux articles L. 122-5, 10° du Code de la propriété intellectuelle, complété par L. 122-5-3 et L. 211-3, 8°.
[20] CPI, art. L. 122-5, avant dernier alinéa : « Les exceptions énumérées par le présent article ne peuvent porter atteinte à l’exploitation normale de l’œuvre ni causer un préjudice injustifié aux intérêts légitimes de l’auteur. »
[21] Article 53§1 (d), AI Act.
[22] La notion de modèle d’IA à usage général renvoie à « un modèle d’IA, y compris lorsque ce modèle d’IA est entraîné à l’aide d’un grand nombre de données utilisant l’auto-supervision à grande échelle, qui présente une généralité significative et est capable d’exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d’applications en aval, à l’exception des modèles d’IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur mise sur le marché » (article 3§63, AI Act).
Avocats concernés :