Les risques disciplinaires et judiciaires liés aux hallucinations des IA
L’utilisation croissante des intelligences artificielles par les avocats soulève une question pratique : que se passe-t-il lorsqu’un mémoire ou une assignation contient des références jurisprudentielles inventées par un outil d’IA ? Les conséquences peuvent être sérieuses, tant sur le plan disciplinaire que judiciaire.
Qu’est-ce qu’une hallucination d’IA ?
Une hallucination d’IA se produit lorsqu’un modèle de langage génère des informations qui semblent plausibles mais sont factuellement inexactes. Dans le contexte juridique, cela se traduit par :
- Des références à des décisions de justice qui n’existent pas
- Des citations déformées ou attribuées à la mauvaise juridiction
- Des numéros de RG inventés
- Des attendus de principe fabriqués de toutes pièces
⚠️ Le phénomène n’est pas anecdotique. Plusieurs cas ont été médiatisés aux États-Unis, où des avocats ont déposé des mémoires contenant des dizaines de fausses citations générées par ChatGPT.
Les sanctions disciplinaires encourues
Le cadre déontologique applicable
En France, l’avocat est soumis à des obligations déontologiques strictes définies par le Règlement Intérieur National (RIN) de la profession. L’article 3 impose à l’avocat d’exercer ses fonctions avec dignité, conscience, indépendance et probité.
Plus spécifiquement, l’article 4.3 du RIN précise que l’avocat doit s’abstenir de toute affirmation de mauvaise foi. Déposer sciemment ou par négligence un acte contenant de fausses références constitue une violation de cette obligation.
Les sanctions prononcées par l’Ordre
Le Conseil de l’Ordre peut prononcer plusieurs types de sanctions :
- L’avertissement : sanction la plus légère, elle figure au dossier de l’avocat
- Le blâme : sanction plus sévère, également inscrite au dossier
- L’interdiction temporaire d’exercer : de un jour à trois ans
- La radiation du tableau : sanction la plus grave, équivalant à l’interdiction définitive d’exercer
La gravité de la sanction dépend de plusieurs facteurs : le caractère intentionnel ou négligent de la faute, le nombre de fausses citations, l’impact sur la procédure, et les antécédents disciplinaires de l’avocat.
Les conséquences judiciaires
La nullité des actes de procédure
Un acte de procédure contenant de fausses citations peut être frappé de nullité. Si la partie adverse découvre les erreurs, elle peut soulever l’irrecevabilité ou demander l’écartement des arguments fondés sur des références inexistantes.
Le tribunal peut également soulever d’office l’irrégularité lorsqu’il constate que les décisions citées n’existent pas ou ne correspondent pas aux références indiquées.
Les dommages et intérêts
L’avocat peut être condamné à verser des dommages et intérêts à son client si celui-ci subit un préjudice du fait des fausses citations. Le préjudice peut résulter :
- De la perte d’une chance de gagner le procès
- Des frais supplémentaires engagés pour corriger les erreurs
- Du retard dans la procédure
La responsabilité civile professionnelle de l’avocat peut être engagée sur le fondement de l’article 1240 du Code civil. L’assurance responsabilité civile professionnelle obligatoire prendra en charge l’indemnisation, mais l’incident sera enregistré et pourra impacter les futures primes.
L’amende pour procédure abusive
L’article 32-1 du Code de procédure civile permet au juge de condamner à une amende civile la partie qui agit de manière dilatoire ou abusive. Si le dépôt d’un mémoire truffé de fausses citations est considéré comme une manœuvre dilatoire, l’avocat et son client peuvent être condamnés solidairement.
Le montant de l’amende peut atteindre 10 000 euros. Le juge peut également allouer des dommages et intérêts à la partie adverse.
L’atteinte à la crédibilité professionnelle
La perte de confiance du tribunal
Au-delà des sanctions formelles, un avocat qui dépose un acte contenant de fausses citations perd la confiance du tribunal. Cette perte de crédibilité peut avoir des répercussions durables :
- Examen plus minutieux de ses futurs mémoires
- Scepticisme accru face à ses arguments
- Réputation ternie auprès des magistrats
Dans les juridictions de proximité où les avocats plaident régulièrement devant les mêmes magistrats, cette perte de confiance peut sérieusement handicaper l’exercice professionnel.
L’impact sur la relation client
Un client qui découvre que son avocat a utilisé de fausses références peut légitimement perdre confiance. Cette situation peut entraîner :
- La rupture du mandat
- Des réclamations auprès de l’Ordre
- Une action en responsabilité civile
- Une atteinte à la réputation par le bouche-à-oreille
Les cas concrets aux États-Unis
Plusieurs affaires américaines illustrent les risques réels. En mai 2023, deux avocats new-yorkais ont été sanctionnés par le juge Kevin Castel après avoir déposé un mémoire contenant six décisions inventées par ChatGPT. Ils ont été condamnés à une amende de 5 000 dollars et ont dû présenter des excuses publiques.
Dans une autre affaire au Colorado, un avocat a été suspendu pour avoir utilisé des citations générées par IA sans vérification. Le tribunal a souligné que l’utilisation d’outils technologiques ne dispense pas l’avocat de son obligation de vérification.
Ces précédents américains sont observés attentivement par les instances ordinales françaises et préfigurent probablement l’approche qui sera adoptée en France.
Les bonnes pratiques pour éviter les risques
La vérification systématique des sources
Toute référence jurisprudentielle générée par une IA doit être vérifiée sur des bases de données officielles :
- Légifrance pour les décisions publiées
- Doctrine.fr, Dalloz, LexisNexis pour une couverture plus large
- Les sites des juridictions pour les décisions récentes
Cette vérification doit porter non seulement sur l’existence de la décision, mais aussi sur l’exactitude de la citation et sa pertinence par rapport à l’argumentation développée.
La traçabilité des recherches
Il est recommandé de conserver une trace des vérifications effectuées :
- Captures d’écran des décisions consultées
- Copies des arrêts intégraux
- Notes de recherche documentaire
Cette documentation permet de démontrer, en cas de contestation, que l’avocat a agi avec diligence et professionnalisme.
La formation continue
Avec les barreaux, les écoles ou directement en cabinet, je propose des formations sur l’utilisation des IA en cabinet. Ces formations abordent :
- Les limites techniques des outils d’IA
- Les risques déontologiques
- Les méthodes de vérification
- Les bonnes pratiques d’utilisation
Participer à ces formations permet de se tenir informé des évolutions technologiques et réglementaires.
Vers un encadrement réglementaire ?
Le Conseil National des Barreaux travaille actuellement sur des recommandations relatives à l’utilisation de l’intelligence artificielle par les avocats. Ces travaux devraient aboutir à des lignes directrices précisant :
- Les conditions d’utilisation acceptable des IA
- Les obligations de vérification
- Les mentions à porter dans les actes
- Les responsabilités en cas d’erreur
Certains barreaux étrangers ont déjà adopté des règles spécifiques. Le barreau de Californie impose ainsi aux avocats de vérifier toute information générée par IA avant de l’utiliser dans un document juridique.
Conclusion
L’utilisation des intelligences artificielles offre des opportunités intéressantes pour la profession d’avocat, notamment en termes de gain de temps dans les recherches documentaires. Toutefois, ces outils ne dispensent pas l’avocat de ses obligations déontologiques de vérification et de diligence.
Déposer un acte contenant de fausses citations générées par IA expose l’avocat à des sanctions disciplinaires pouvant aller jusqu’à la radiation, à des condamnations judiciaires, et à une perte de crédibilité professionnelle durable. La prudence impose donc de systématiquement vérifier toute information générée par une IA avant de l’intégrer dans un acte de procédure.
📌 À retenir : La responsabilité de l’exactitude des références citées reste entièrement celle de l’avocat, quel que soit l’outil utilisé pour les identifier. Cette responsabilité ne peut être déléguée à une machine.
