Décryptages
25/02/26
Intelligence artificielle agentique : regards croisés du CIANum et de l’Autorité de la concurrence
L’annonce, par l’Autorité de la concurrence (« ADLC »), de son autosaisine pour avis relative au secteur des agents conversationnels, suivie de la publication, en février 2026, d’une note du Conseil de l’intelligence artificielle et du numérique (« CIANum ») consacrée à la « vague agentique », marque une étape dans la structuration institutionnelle des débats relatifs à l’intelligence artificielle agentique (« IA agentique »).
Dans le premier cas, l’ADLC poursuit ses travaux de juin 20244 consacrés à l’IA générative5, qui avaient principalement analysé l’amont de la chaîne de valeur (conception et entraînement des modèles). Elle entend désormais analyser les enjeux concurrentiels situés en aval de la chaîne de valeur, en particulier le rôle croissant des agents conversationnels dans les services numériques et l’émergence du « commerce agentique », susceptible d’affecter plusieurs secteurs clés de l’économie. Dans le second, le CIANum propose une clarification conceptuelle et technique de l’IA agentique, ainsi qu’un premier état des lieux des enjeux économiques, éthiques et juridiques attachés à son déploiement.
Définie, par le CIANum, comme un « programme informatique capable de prendre des décisions ou de réaliser des actions, y compris de les coordonner entre elles, en s’appuyant sur des modèles d’intelligence artificielle », l’IA agentique se caractérise par sa capacité d’action propre. Intégrée à une suite logicielle – on parle alors de « logiciel agentique » -, elle peut décomposer un processus, analyser son environnement, comparer différentes options, planifier une succession d’opérations et, le cas échéant, les exécuter, avec ou sans validation humaine.
Si l’expression « agents IA » est couramment utilisée, le CIANum recommande de privilégier celle d’« IA agentique », plus englobante. Elle permet de regrouper à la fois des systèmes capables d’agir de manière autonome, et ceux demeurant placés sous supervision humaine.
Se distinguant de l’IA générative, essentiellement réactive et orientée vers la production de contenus, l’IA agentique s’inscrit dans une logique d’action finalisée : elle planifie, orchestre et exécute des tâches successives en vue d’un objectif déterminé, tout en mobilisant fréquemment des modèles génératifs pour le raisonnement et l’analyse.
Le présent flash revient sur la lecture de cette notion proposée par le CIANum (I), et l’analyse concurrentielle qui en est faite par l’Autorité de la concurrence (II).
L’éclairage du CIANum sur les risques juridiques et l’encadrement de l’IA agentique
Le CIANum met en évidence que les capacités d’action autonome propres aux IA agentiques soulèvent des risques juridiques spécifiques (a), dont l’encadrement repose, à ce stade, sur l’application des textes européens existants (b).
Les risques juridiques évoqués par le CIANum
En matière de protection des données personnelles, le CIANum met en évidence que les risques se trouvent renforcés. Pour fonctionner efficacement, les IA agentiques doivent avoir un accès étendu à des données, parfois sensibles, qu’elles peuvent analyser, combiner, stocker ou transmettre. Cette multiplication des flux et interconnexions accroît mécaniquement les points de vulnérabilité et les risques d’atteinte à la sécurité des données. Au regard du Règlement (UE) 2016/679 (« RGPD »), ces pratiques soulèvent notamment des interrogations relatives à la minimisation des données, à la limitation des finalités, à la réutilisation ultérieure des données collectées ou encore aux transferts vers des infrastructures tierces non maîtrisées.
Sur le plan de la responsabilité, le CIANum identifie que l’IA agentique accentue les difficultés classiques liées à l’imputation des dommages causés par des systèmes automatisés. Lorsqu’un agent autonome prend une décision erronée, par exemple un refus injustifié de crédit, la détermination du responsable devient plus délicate. En l’état du droit positif, l’IA agentique ne dispose évidemment pas de la personnalité juridique, et la responsabilité doit être rattachée à un opérateur humain ou à une personne morale, selon les règles classiques de la responsabilité civile. Toutefois, la complexité technique de ces systèmes peut rendre difficile l’identification d’une faute, d’un lien de causalité et d’un dommage.
A cet égard, le CIANum mentionne que les risques de biais algorithmiques et de discrimination automatique renforcent ces enjeux puisque les IA agentiques apprennent de données réelles potentiellement biaisées. Un contrôle rigoureux de leurs résultats, et la mise en oeuvre de mesures correctives pour limiter les effets discriminatoires sont nécessaires.
Les risques de défaut de transparence et d’intelligibilité sont aussi soulignés par le CIANum. Ils sont dus à la complexité et à l’opacité des chaînes de décision des IA agentiques, combinant modèles de raisonnement, règles d’orchestration et mécanismes d’auto-évaluation. La nécessité pour un utilisateur de comprendre pleinement les décisions automatisées est en partie prévue par les textes existants dont le Règlement (UE) 2024/1689 (« AI Act ») qui impose notamment des obligations de traçabilité, d’explicabilité et de contrôle humain.
L’application des textes européens en vigueur aux IA agentiques
Le CIANum souligne que, faute de régime juridique autonome spécifiquement consacré aux IA agentiques, leur encadrement s’inscrit dans le cadre normatif européen existant. Celui-ci repose, d’une part, sur l’AI Act, instrument central en matière d’intelligence artificielle, et, d’autre part, sur l’application cumulative d’autres règlements européens, dont le Règlement (UE) 2022/2065 sur les services numériques (« DSA ») et le Règlement (UE) 2022/1925 sur les marchés numériques (« DMA »).
S’agissant de l’AI Act, le CIANum rappelle que ce règlement soumet les systèmes d’IA7 à un régime gradué en fonction de leur niveau de risque – risque inacceptable, haut risque, risque limité ou risque minimal. Il est également souligné que bien que l’AI Act ne mentionne pas explicitement les IA agentiques, les obligations prévues leur sont applicables en fonction du niveau de risque du système d’IA, dont elles font partie.
En outre, le CIANum identifie que les IA agentiques peuvent relever d’autres textes européens en fonction de leurs usages et de la qualification juridique de leurs fournisseurs. Par exemple, lorsqu’une IA agentique est utilisée au sein d’une plateforme soumise au DSA8, elle doit se conformer aux obligations de transparence, de gestion des risques et de modération des contenus prévues par ce texte. De même, si l’IA agentique est développée ou utilisée par un contrôleur d’accès au sens du DMA, elle est alors soumise à des obligations telles que l’interopérabilité, la portabilité des données ou l’interdiction de pratiques anticoncurrentielles.
Toutefois, les textes européens précités ne suffisent pas à résoudre à eux seuls l’ensemble des questions juridiques spécifiques posées par les IA agentiques.
À cette lecture juridique du CIANum répond désormais l’analyse concurrentielle engagée par l’Autorité de la concurrence.
L’IA agentique au prisme du droit de la concurrence : l’autosaisine de l’ADLC
L’ADLC considère que l’essor des agents conversationnels pourrait affecter les conditions de concurrence dans différents secteurs, en particulier dans le commerce en ligne. Dans un premier temps, la consultation engagée vise à mieux comprendre la structuration du marché, les modèles économiques en développement et les risques potentiels liés à certaines stratégies d’intégration ou de partenariat (a). Dans un second temps, elle fait un examen spécifique du « commerce agentique » (b). Il est à noter que la question des interactions entre agents conversationnels et moteurs de recherche est expressément exclue du périmètre de l’analyse.
Les parties intéressées peuvent participer à la consultation publique jusqu’au 6 mars 2026.
Les agents conversationnels : structuration du marché et principaux axes d’analyse
Acteurs et marchés : La consultation invite d’abord les parties prenantes à préciser ce que recouvre la notion d’ « agent conversationnel »10 et à indiquer s’il convient de distinguer ces outils des chatbots ou des assistants virtuels ne faisant pas appel à l’IA mais plutôt à un arbre de décision. L’objectif est de clarifier le périmètre du marché pertinent et d’identifier d’éventuelles segmentations fonctionnelles ou technologiques.
Les parties prenantes sont également invitées à présenter (i) les acteurs sur le marché, (ii) leurs cas d’usage, (iii) l’architecture technique des solutions qu’ils utilisent et (iv) les éventuelles barrières à l’entrée et à l’expansion qu’elles identifient (données, capital, puissance de calcul, distribution).
Elles sont en outre invitées à préciser si elles recourent à un ou plusieurs fournisseurs d’agents en parallèle. Ces éléments visent à évaluer les risques de verrouillage (« lock-in ») de clients.
Intégration au sein d’écosystèmes verticalement intégrés : Un axe de l’enquête concerne l’intégration des agents conversationnels dans des services existants proposés par des entreprises verticalement intégrées (e.g., messagerie, suites bureautiques) qui fournissent aussi des agents conversationnels.
L’ADLC semble vouloir identifier les possibles (i) effets de levier consistant pour un acteur verticalement intégré à favoriser son propre agent au sein d’un écosystème existant et les (ii) restrictions d’interopérabilité entre services verticalement intégrés et agents conversationnel proposés par des tiers.
Modèles économiques et monétisation : La consultation consacre un développement spécifique aux modalités de monétisation des agents conversationnels : facturation à l’usage (notamment via API), abonnements ou intégration de publicité. Au-delà de la seule rentabilité des services, l’analyse de l’ADLC pourrait porter sur la capacité de certains acteurs présents dans le secteur de la publicité en ligne à renforcer leur position concurrentielle.
Partenariats noués par les éditeurs d’agents conversationnelle : La consultation comprend également deux questions sur les partenariats conclus par les éditeurs d’agents avec des acteurs technologiques, financiers ou commerciaux. La formulation retenue suggère une volonté de mieux comprendre leur nature et leur importance pour les éditeurs d’agents.
Evolution vers des logiques de plateforme : Enfin, la consultation s’intéresse à la transformation progressive des agents conversationnels en plateformes permettant d’accéder à des services tiers sans quitter l’interface de conversation.
L’ADLC interroge les acteurs sur les avantages et inconvénients de cette « plateformisation ». Cette évolution pourrait en effet modifier la chaîne de valeur numérique en positionnant l’agent comme point d’entrée privilégié vers d’autres de services, avec des enjeux de contrôle de l’accès, de hiérarchisation des offres et de captation des données. Cette réflexion s’inscrit, en arrière-plan, dans un contexte réglementaire marqué par l’entrée en vigueur du DMA et du Règlement (UE) 2019/1150 dit « Platform to business » lesquels imposent des obligations spécifiques aux services d’intermédiation en ligne essentiels, afin de garantir l’équité et la contestabilité des marchés numériques.
Le commerce agentique : recomposition potentielle du commerce en ligne
La seconde partie de la consultation est consacrée au « commerce agentique », entendu comme une forme de commerce en ligne dans laquelle l’agent conversationnel ne se limite plus à formuler des recommandations, mais peut accomplir des actes d’achat pour le compte de l’utilisateur.
L’ADLC cherche à dresser un panorama complet de cette chaîne de valeur (e.g., éditeurs d’agents, e-commerçants, éditeurs de solutions de paiement, fournisseurs de services logistiques).
Les questions visent à apprécier notamment (i) le développement de ces cas d’usage ; (ii) l’impact potentiel sur le trafic des sites de commerce en ligne traditionnels ; (iii) l’évolution des stratégies de visibilité des marques dans un environnement où les recommandations pourraient être opérées par des agents autonomes et (iv) l’interopérabilité entre les différents acteurs du commerce agentique.
L’ADLC s’interroge également sur les modalités de rémunération (e.g., paiement par l’utilisateur, commission versée par le commerçant) et leurs évolutions pressenties dans le secteur.
Enfin, l’ADLC mentionne les risques concurrentiels spécifiques que pourrait soulever le commerce agentique, y compris sous l’angle de la collusion algorithmique (i.e., situation dans laquelle des algorithmes utilisés par différents acteurs conduisent à un alignement des prix ou une coordination).
***
L’analyse proposée par le CIANum constitue une première étape dans l’appréhension juridique de l’IA agentique. Elle met en évidence l’intensification des risques liés à l’autonomie fonctionnelle de ces systèmes, tout en soulignant que les cadres normatifs existants – au premier rang desquels l’AI Act – leur sont applicables, sans pour autant leur être spécifiquement dédiés.
La note ouvre ainsi davantage un chantier qu’elle ne le referme : si les instruments actuels offrent des points d’ancrage, la consolidation d’un cadre pleinement adapté aux caractéristiques évolutives et décisionnelles des IA agentiques appelle encore des clarifications normatives.
La consultation menée par l’ADLC complète ce panorama. L’enquête relève fondamentalement d’une approche prospective : les enquêtes sectorielles menées par l’ADLC constituent un outil classique permettant de se familiariser avec un secteur et d’en identifier les éventuels risques concurrentiels susceptibles de donner lieu à des procédures ultérieures. À titre d’exemple, l’avis de 2018 sur la publicité en ligne avait été suivi de plusieurs affaires contentieuses dans ce même secteur, illustrant la portée concrète de telles analyses.
La consultation se conclut par des questions ouvertes sur les évolutions attendues du secteur (entrée ou sortie d’acteurs, innovations technologiques, nouveaux usages) ainsi que sur l’adéquation du cadre législatif et réglementaire existant pour traiter les problématiques concurrentielles identifiées. L’Autorité rendra son avis final dans le courant de l’année 2026.
Ainsi, les regards croisés du CIANum et de l’ADLC convergent sur la nécessité d’anticiper les risques liés aux IA agentiques et d’adapter en conséquence les cadres juridiques existants.
Avocats concernés :