L’IA peut-elle exercer illégalement le droit ? Ce que les premières procédures judiciaires changent pour les avocats
Depuis l’irruption de ChatGPT dans les cabinets d’avocats, une question s’est imposée progressivement dans les discussions professionnelles : jusqu’où un outil d’intelligence artificielle dans le droit peut-il aller avant de franchir la ligne de l’exercice illégal ? Cette question, longtemps théorique, commence à trouver des réponses concrètes devant les tribunaux. Les premières procédures judiciaires visant des plateformes d’IA juridique dessinent un cadre nouveau, aux implications directes pour les avocats, les éditeurs de logiciels et leurs clients. Pour les professions libérales à l’ère du numérique, l’heure n’est plus à l’observation prudente, mais à la compréhension active de ces évolutions.
Exercice illégal du droit : de quoi parle-t-on exactement ?
En France, l’exercice illégal de la profession d’avocat est défini par la loi du 31 décembre 1971, dite loi n° 71-1130. Elle réserve à des professionnels titulaires d’un titre reconnu et inscrits à un barreau le droit de donner des consultations juridiques à titre habituel et rémunéré, et de rédiger des actes sous seing privé pour autrui.
L’infraction est pénalement sanctionnée. Elle suppose traditionnellement :
📌 Les 4 critères constitutifs de l’infraction :
- un acte positif de conseil ou de rédaction juridique ;
- réalisé pour le compte d’un tiers ;
- à titre habituel ;
- en contrepartie d’une rémunération.
La difficulté avec les outils d’IA tient à ce que ces critères, pensés pour des personnes physiques ou morales, s’appliquent mal à des systèmes automatisés. Une IA n’a pas de personnalité juridique. Elle ne perçoit pas de rémunération en son nom propre. Et pourtant, elle produit des consultations, rédige des contrats, analyse des pièces de procédure — parfois avec un niveau de précision qui dépasse celui d’un étudiant en droit fraîchement diplômé. C’est précisément cette capacité opérationnelle, combinée à l’absence de statut juridique clair, qui place les nouvelles technologies juridiques au cœur d’un vide réglementaire préoccupant.
Les premières procédures judiciaires : un signal d’alarme pour le secteur
Aux États-Unis, plusieurs actions ont été engagées contre des plateformes proposant des services juridiques automatisés. Le cas le plus documenté reste celui de DoNotPay, un service se présentant lui-même comme le « premier avocat robot au monde ». En 2023, la société a fait l’objet d’une plainte déposée par un cabinet d’avocats californien, alléguant une pratique illégale du droit. L’affaire s’est conclue par un règlement amiable, sans que les tribunaux n’aient eu à trancher sur le fond — ce qui laisse entière la question de principe.
Parallèlement, plusieurs barreaux américains ont publié des avis formels mettant en garde contre l’utilisation de ces outils sans supervision professionnelle. La State Bar of California a rappelé que la responsabilité de l’avocat demeure entière lorsqu’il intègre une IA dans sa pratique, y compris si l’outil produit une erreur de contenu. Cette position rejoint celle adoptée par plusieurs juridictions européennes, qui insistent sur la nécessité d’une vérification des informations produites par tout système automatisé avant toute utilisation dans un contexte professionnel.
⚠️ À noter — L’AI Act européen (2024) : Le règlement européen sur l’intelligence artificielle (AI Act), adopté en 2024, classe certains usages juridiques de l’IA parmi les systèmes à haut risque, ce qui impose des obligations de transparence, de documentation et de supervision humaine aux éditeurs concernés. Pour les cabinets d’avocats qui intègrent ces outils dans leur pratique quotidienne, cette classification n’est pas sans conséquences opérationnelles.
ChatGPT et les avocats face aux outils généralistes : un statut juridique ambigu
L’utilisation de ChatGPT par les avocats s’est développée rapidement, souvent sans cadre formel préalable. Développé par OpenAI, cet outil n’est pas un logiciel juridique au sens strict. Ses conditions d’utilisation précisent explicitement qu’il ne fournit pas de conseils professionnels et que ses réponses ne doivent pas être utilisées comme telles. Cette clause de non-responsabilité est-elle suffisante pour exonérer l’éditeur de toute mise en cause ?
La réponse n’est pas évidente. Plusieurs éléments méritent attention dans l’analyse de ce que produit concrètement l’utilisation de ChatGPT dans un contexte de recherche juridique :
- L’usage réel prime sur l’usage déclaré. Si un utilisateur interroge ChatGPT sur la validité d’une clause contractuelle, sur ses droits en matière de licenciement ou sur la procédure à suivre pour contester une décision administrative, l’outil répond — souvent de façon détaillée. La mention de non-responsabilité n’efface pas la nature juridique de la réponse produite.
- La rémunération de l’éditeur. OpenAI perçoit un abonnement pour l’accès à ses services. Si une partie de cet abonnement est liée à des usages juridiques, la condition de rémunération pourrait être appréciée différemment par un juge.
- L’habitualité du service. Un modèle de langage disponible en permanence, répondant à des milliers de questions juridiques par jour, satisfait sans difficulté au critère d’habitualité posé par la loi de 1971.
- Le risque de jurisprudence générée par IA. Des cas documentés aux États-Unis ont montré que ChatGPT peut produire des références jurisprudentielles inexistantes — des décisions de justice entièrement inventées, citées avec précision. Ces erreurs de contenu, lorsqu’elles sont reproduites sans vérification dans des actes de procédure, ont conduit à des sanctions disciplinaires contre les avocats concernés.
Ces éléments ne suffisent pas à caractériser aujourd’hui une infraction en droit français. Mais ils montrent que la frontière est moins nette qu’on pourrait le croire, et que l’optimisation des recherches juridiques via ces outils ne peut se faire sans un protocole rigoureux de contrôle.
Risques pour les cabinets : quand le client utilise l’IA avant de consulter
Pour les avocats, le risque ne vient pas seulement de l’IA elle-même. Il vient aussi du comportement de leurs clients. De plus en plus, ces derniers arrivent en consultation avec des analyses produites par ChatGPT, des projets de contrats générés automatiquement, ou des stratégies processuelles élaborées à partir d’une requête formulée en langage naturel. Cette réalité transforme la relation client et redéfinit, en partie, le rôle du conseil juridique.
Cette situation crée plusieurs difficultés pratiques pour les cabinets d’avocats :
- La gestion des attentes. Un client convaincu par une réponse de ChatGPT peut être difficile à convaincre d’une analyse différente, même fondée sur une lecture rigoureuse du droit positif. L’avocat doit alors non seulement donner son avis, mais aussi déconstruire une réponse apparemment cohérente — ce qui suppose du temps et une pédagogie accrue.
- La responsabilité de l’avocat en cas d’erreur. Si un client agit sur la base d’une analyse produite par une IA sans en informer son avocat, et que cela cause un préjudice, la question de la responsabilité devient complexe. L’avocat qui n’a pas détecté l’erreur peut voir sa responsabilité engagée s’il n’a pas posé les bonnes questions en amont. La responsabilité professionnelle de l’avocat couvre en principe l’ensemble du conseil délivré, y compris lorsque ce conseil s’appuie, même partiellement, sur des sources non vérifiées.
- Le devoir de conseil renforcé. Dans ce contexte, informer le client des limites des outils d’IA qu’il utilise fait désormais partie d’une pratique professionnelle rigoureuse. Ce devoir s’étend naturellement à la protection du secret professionnel : un client qui saisit des données confidentielles dans un outil d’IA généraliste expose potentiellement des informations sensibles à des tiers, ce que l’avocat se doit de signaler.
- L’impact sur le développement de la relation client. Les cabinets qui intègrent ces outils de façon transparente et encadrée peuvent en faire un levier de confiance et d’efficacité. Ceux qui les ignorent risquent, à terme, un décalage avec des clients de plus en plus familiers de ces technologies.
« L’avocat qui laisse son client naviguer seul entre des outils d’IA non supervisés prend un risque professionnel réel. La supervision humaine n’est pas une option, c’est une exigence déontologique. »
Jurisprudence générée par IA : le précédent Mata v. Avianca
⚠️ Cas concret — Mata v. Avianca (2023) : L’affaire Mata v. Avianca, jugée devant un tribunal fédéral de New York, illustre concrètement les risques liés à une utilisation non encadrée de ChatGPT dans la recherche juridique. Des avocats avaient produit un mémoire citant plusieurs décisions de justice — toutes inexistantes, générées par l’outil sans que les praticiens ne procèdent à une vérification des informations. Le juge a infligé des sanctions aux avocats concernés et a rappelé que la responsabilité professionnelle ne saurait être déléguée à un algorithme.
Cet épisode a eu un effet pédagogique important dans la profession. Il a mis en lumière un angle souvent négligé : ce n’est pas tant la question de l’exercice illégal du droit par l’IA qui crée le risque immédiat pour les avocats, mais bien celle des erreurs de contenu non détectées, qui engagent directement leur responsabilité disciplinaire et civile. La jurisprudence produite ou citée par une IA ne vaut rien sans une vérification indépendante et documentée.
Conséquences pour la legal-tech et les éditeurs d’IA juridique
Les éditeurs spécialisés dans l’intelligence artificielle appliquée au droit — ceux qui proposent des outils de recherche documentaire, de rédaction d’actes ou d’analyse contractuelle — se trouvent dans une position différente de celle d’OpenAI. Leurs produits sont explicitement conçus pour des usages juridiques. Leur modèle économique repose sur la valeur ajoutée perçue dans ce domaine. Cette spécialisation les expose davantage à une qualification d’exercice illégal du droit, et les oblige à définir des meilleures pratiques d’utilisation intégrées directement dans leurs interfaces.
Plusieurs stratégies sont adoptées pour limiter ce risque :
- Le positionnement en tant qu’outil d’assistance. La plupart des éditeurs insistent sur le fait que leurs solutions assistent l’avocat sans le remplacer. L’humain reste décisionnaire. ChatGPT comme collaborateur numérique, ou tout autre outil similaire, ne saurait constituer qu’un point de départ dans le travail juridique, jamais une conclusion.
- La contractualisation avec des professionnels du droit. Certaines plateformes réservent l’accès à leurs outils aux avocats inscrits à un barreau, ce qui déplace la responsabilité vers le professionnel superviseur et sécurise juridiquement le modèle commercial.
- La conformité à l’AI Act. Les éditeurs qui anticipent les exigences du règlement européen — documentation des systèmes, traçabilité des décisions, supervision humaine — se placent dans une position plus solide face à d’éventuelles procédures. Cette conformité constitue également un argument commercial auprès des cabinets d’avocats soucieux de leur exposition réglementaire.
- L’efficacité collective avec l’IA. Les outils les mieux conçus sont ceux qui augmentent la productivité du cabinet sans substituer leur jugement à celui du praticien — en automatisant les tâches répétitives de recherche ou de mise en forme, tout en laissant l’analyse et la décision à l’avocat.
Ces précautions ne sont pas sans limites. La ligne entre assistance et conseil reste difficile à tracer lorsqu’un outil produit une analyse juridique complète, assortie de recommandations, sans que l’avocat n’intervienne dans le processus.
Vers une régulation spécifique en France ? L’état des travaux
Le Conseil national des barreaux (CNB) a engagé des travaux sur l’usage de l’IA dans la profession. Des lignes directrices ont été publiées, rappelant notamment les obligations déontologiques applicables : confidentialité, indépendance, vérification des informations produites par les outils automatisés. Ces recommandations s’inscrivent dans une réflexion plus large sur l’innovation en droit et sur la place que les nouvelles technologies juridiques doivent occuper dans l’exercice professionnel.
Sur le plan législatif, la France ne dispose pas encore d’un texte spécifique encadrant l’usage de l’IA dans les professions juridiques réglementées. L’AI Act européen constitue le cadre réglementaire de référence à court terme. Son application effective dépendra toutefois de la capacité des autorités nationales à identifier et sanctionner les usages non conformes — ce qui suppose des ressources et une expertise technique que les juridictions ne possèdent pas encore en nombre suffisant.
📌 Deux pistes de régulation à l’étude :
- Extension du monopole de la consultation juridique aux outils d’IA utilisés à titre professionnel, ce qui obligerait les éditeurs à s’adosser à des structures d’avocats.
- Approche par la responsabilité : rendre les éditeurs coresponsables des préjudices causés par leurs outils lorsque ceux-ci sont utilisés dans un contexte juridique.
Ces deux pistes ne sont pas exclusives l’une de l’autre, et leur articulation fera probablement l’objet de débats parlementaires dans les prochaines années.
Ce que les avocats doivent retenir : bonnes pratiques et vigilance
Les procédures judiciaires engagées contre des plateformes d’IA ne sont pas de simples anecdotes venues d’outre-Atlantique. Elles signalent une évolution du regard porté par les institutions sur ces outils, et préfigurent des débats qui arriveront en France. Pour les cabinets d’avocats à l’ère du numérique, anticiper ces évolutions est une démarche de gestion des risques autant que de positionnement professionnel.
Plusieurs réflexes s’imposent dès maintenant, que l’on utilise ou non ces outils en interne :
📌 Checklist — Bonnes pratiques pour les cabinets :
- Interroger les clients sur les outils qu’ils ont utilisés avant la consultation, et documenter leurs réponses ;
- Ne jamais valider sans vérification indépendante les documents ou analyses produits par une IA, même présentés comme déjà finalisés ;
- Mettre en place un protocole de vérification des informations lorsque l’IA est intégrée dans le processus de travail du cabinet, et en conserver la trace ;
- Suivre les publications du CNB et les évolutions réglementaires liées à l’AI Act ;
- Informer les clients des limites des outils d’IA dans le cadre du devoir de conseil, notamment sur les risques liés au secret professionnel ;
- Former les collaborateurs du cabinet aux bonnes pratiques d’utilisation de ChatGPT et des outils similaires, en distinguant ce qui relève de l’assistance admissible et ce qui suppose une vérification systématique.
L’intelligence artificielle dans le droit ne remplace pas l’avocat. Mais elle redéfinit ce qu’on attend de lui : non plus seulement produire du droit, mais aussi garantir la qualité de ce que les machines produisent — pour lui, ou pour ses clients. Dans ce nouveau partage des rôles, la responsabilité de l’avocat ne diminue pas. Elle se déplace, et avec elle, les compétences nécessaires pour l’exercer avec rigueur.
