Le Quotidien du 18 mars 2026 : Avocats

[Commentaire] L'intelligence artificielle générative à l'épreuve du prétoire : l'émergence d'une jurisprudence transversale sur les hallucinations algorithmiques

Réf. : TA Grenoble, 3 décembre 2025, n° 2509827 N° Lexbase : B8243CRQ ; TA Grenoble, 9 décembre 2025, n° 2512468 N° Lexbase : B7595CS4 ; TJ Périgueux, 18 décembre 2025, n° 23/00452 N° Lexbase : B5077DWX ; TA Orléans, 29 décembre 2025, n° 2506461 N° Lexbase : B2506461 ; TA Rennes, 28 janvier 2026, n° 2506364 N° Lexbase : B3484DBN ; CAA Bordeaux, 26 février 2026, n° 25BX02906 N° Lexbase : B4047DPL

Lecture: 57 min

N3989B37

Citer l'article

Créer un lien vers ce contenu

[Commentaire] L'intelligence artificielle générative à l'épreuve du prétoire : l'émergence d'une jurisprudence transversale sur les hallucinations algorithmiques. Lire en ligne : https://www.lexbase.fr/article-juridique/132589747-commentaire-lintelligence-artificielle-generative-a-lepreuve-du-pretoire-lemergence-dune-jurispruden
Copier

par Patrick Lingibé, Ancien bâtonnier de la Guyane, Ancien vice-président de la Conférence des bâtonniers de France, Membre du Conseil national des barreaux - collège ordinal province

le 16 Mars 2026

Mots clés : avocats - hallucination - intelligence artificielle - algorithme - déontologie

Cet article analyse six décisions rendues entre décembre 2025 et février 2026 par les juridictions administratives et judiciaires françaises, révélant l'émergence d'un contentieux inédit lié à l'usage d'outils d'intelligence artificielle générative dans la rédaction d'écritures judiciaires et attestant, pour la première fois, la transversalité d'un phénomène jusqu'alors cantonné à la doctrine. À travers l'examen croisé de ce corpus jurisprudentiel national, éclairé par la jurisprudence étrangère, américaine et canadienne, qui en annonce la sévérité sanctionnatrice, et mis en perspective au regard du rapport de référence adopté par le Conseil national des barreaux lors de son Assemblée générale des 12 et 13 mars 2026, l'auteur met en lumière la cristallisation d'un standard transversal de détection des hallucinations algorithmiques, ces productions d'informations fausses mais vraisemblables générées par les modèles de langage, et ses implications systémiques pour la profession d'avocat. La responsabilité civile professionnelle, la faute disciplinaire, la protection du secret professionnel, l'encadrement de la fixation des honoraires et la loyauté procédurale envers la juridiction constituent autant de plans sur lesquels le manquement à l'obligation de vérification des sorties d'intelligence artificielle engage désormais la responsabilité de l'auxiliaire de justice, indépendamment de toute intention frauduleuse. Six pistes normatives sont proposées, dont la mise en œuvre conditionne la capacité de la profession à demeurer, face à la révolution technologique en cours et à l'aune des exigences que le droit comparé révèle avec une sévérité croissante, le seul interlocuteur de confiance du justiciable.


 

Six décisions rendues entre décembre 2025 et février 2026 dessinent les contours d'un phénomène contentieux dont l'ampleur et la transversalité s'avèrent plus préoccupantes qu'il n'y paraissait initialement : l'irruption de l'intelligence artificielle générative dans la rédaction d'écritures judiciaires. Ce qui n'était encore, au début de l'année 2025, qu'une menace théorique soigneusement documentée par la doctrine se trouve désormais attesté par les juridictions elles-mêmes, qui ont eu à connaître, en l'espace de quelques semaines, de productions contentieuses caractérisées par des références jurisprudentielles inexistantes, des raisonnements incohérents avec le droit applicable et un défaut manifeste de contextualisation factuelle.

Plus significatif encore, le phénomène ne se cantonne plus à l'enceinte des seules juridictions administratives. Si le tribunal administratif de Grenoble a été, à notre connaissance, la première juridiction à identifier formellement l'usage d'un outil d'intelligence artificielle générative dans des écritures contentieuses, par deux ordonnances des 3 et 9 décembre 2025 (n° 2509827 et n° 2512468), le tribunal judiciaire de Périgueux a à son tour, dès le 18 décembre 2025 (n° 23/00452), relevé que les références jurisprudentielles citées par l'avocat d'un allocataire de l'AAH semblaient « ne pas correspondre à des décisions publiées » et invité le conseil à vérifier que les sources trouvées « à l'aide de l'intelligence artificielle ne sont pas des hallucinations » [1]. Le glossaire du rapport du Conseil national des barreaux (Commission des règles et usages, AG des 12 et 13 mars 2026, RP-2026-001) définit l'hallucination comme la « production par une IA d'une information fausse ou trompeuse, due par exemple à des données d'apprentissage insuffisantes, des hypothèses erronées ou des biais mais présentée comme crédible ». L'extension du phénomène à la juridiction judiciaire constitue, en soi, un signal d'une gravité particulière.

Dans la sphère administrative, deux autres décisions viennent enrichir ce corpus naissant. Le tribunal administratif de Rennes, par une ordonnance du 28 janvier 2026 (n° 2506364), a rejeté la requête d'une société par actions simplifiée en relevant qu'elle avait « manifestement été rédigée à l'aide d'un outil d'intelligence artificielle générative ». Enfin, le tribunal administratif d'Orléans, par un jugement remarqué du 29 décembre 2025 (n° 2506461), puis la cour administrative d'appel de Bordeaux, par une ordonnance du 26 février 2026 (n° 25BX02906), ont adressé à des avocats des avertissements solennels les invitant à vérifier que les références jurisprudentielles figurant dans leurs écritures « ne constituent pas une "hallucination" ou une "confabulation" ».

À ces six décisions françaises, le rapport présenté par Monsieur Bruno Blanquer, président de la Commission des règles et usages du Conseil national des barreaux et ancien président de la Conférence des bâtonniers de France, adopté lors de l'Assemblée générale des 12 et 13 mars 2026 (RP-2026-001), vient apporter une réponse institutionnelle d'une portée considérable [2]. Ce document, dont la concomitance avec la cristallisation jurisprudentielle commentée ne saurait être fortuite, propose un cadre déontologique structuré autour de la protection du secret professionnel, du respect du RGPD, de la compétence, de la diligence, de la prudence, de l'indépendance et de la transparence dans l'usage des outils génératifs. Il constitue, à ce jour, la réponse ordinale la plus complète et la plus opérationnelle aux défis que l'intelligence artificielle pose à la déontologie de la profession d'avocat.

L'analyse croisée de ces six décisions, enrichie des enseignements du rapport du Conseil national des barreaux, révèle la convergence d'un standard jurisprudentiel en formation, dont la portée excède les circonstances propres à chaque espèce. Deux axes d'analyse méritent d'être développés : d'une part, les modalités par lesquelles les juridictions ont identifié et traité les productions générées par intelligence artificielle, témoignant d'une capacité de détection empirique et de réponses procédurales différenciées mais convergentes (I) ; d'autre part, les implications systémiques de ce contentieux naissant, tant au regard de la responsabilité professionnelle de l'avocat que de la nécessité d'un encadrement normatif approprié, désormais éclairé par le cadre déontologique que le Conseil national des barreaux vient de poser (II).

I. La reconnaissance juridictionnelle du phénomène des hallucinations algoritmiques

Les six décisions commentées partagent un trait commun remarquable : dans chacune d'elles, la juridiction a procédé, de sa propre initiative, à une analyse critique des écritures produites, conduisant à l'identification de contenus présentant les marqueurs caractéristiques d'une génération algorithmique. Cette convergence, qui s'est cristallisée en l'espace de moins de trois mois et s'étend désormais sur deux ordres de juridiction, témoigne d'une prise de conscience collective et rapide du phénomène par les magistrats. Deux mouvements se dégagent : une identification empirique mais de plus en plus affinée des productions algorithmiques (A), suivie de réponses procédurales adaptées à la gravité des manquements constatés et à la qualité des acteurs concernés (B).

A. Les marqueurs d'identification judiciaire : un faisceau d'indices concordants

L'analyse transversale des six décisions commentées révèle que les juridictions ont développé, de manière empirique mais cohérente, une grille d'identification des productions d'intelligence artificielle fondée sur un faisceau d'indices concordants dont l'appréciation s'opère nécessairement in concreto, au cas par cas, en fonction des circonstances propres à chaque espèce.

Le premier indice, et le plus spectaculaire, réside dans la présence de références jurisprudentielles inexistantes ou manifestement erronées. Cet indice est commun aux décisions judiciaires et administratives, ce qui souligne son caractère transversal. Dans l'ordonnance du tribunal administratif de Grenoble du 3 décembre 2025 (n° 2509827), le juge a relevé la présence de « références jurisprudentielles fantaisistes » dans un mémoire rédigé par un justiciable non représenté contestant une amende administrative de 500 euros pour dépôt sauvage. L'ordonnance du tribunal administratif d'Orléans du 29 décembre 2025 rendue par le magistrat désigné Gaëtan Girard-Ratrenaharimanga (n° 2506461) livre, à cet égard, une démonstration particulièrement éloquente : celui-ci a procédé à la vérification systématique et minutieuse de chacune des références citées par l'avocat du requérant. Le résultat est édifiant. Sur l'ensemble des décisions invoquées, censées émaner du Conseil d'État, de la Cour nationale du droit d'asile ou de cours administratives d'appel, pas moins de dix-sept références se sont révélées soit totalement inexistantes, soit sans aucun rapport avec la matière du litige. La cour administrative d'appel de Bordeaux, dans son ordonnance du 26 février 2026 (n° 25BX02906), a procédé à un exercice identique de vérification. C'est cependant la décision du tribunal judiciaire de Périgueux du 18 décembre 2025 (n° 23/00452) qui révèle avec le plus de clarté l'extension du phénomène à la juridiction judiciaire : pour la première fois à notre connaissance dans la jurisprudence judiciaire française, un tribunal nomme explicitement le phénomène des hallucinations de l'intelligence artificielle.

Le deuxième indice tient à la qualité rédactionnelle paradoxale des écritures. Les outils d'intelligence artificielle générative [3] produisent des textes dotés d'une apparence de rigueur formelle, d'une structure argumentative, d'un vocabulaire juridique, de références chiffrées qui peut donner l'illusion de la compétence à un justiciable non averti, tout en étant dépourvus de toute fiabilité substantielle. L'ordonnance du tribunal administratif de Grenoble du 9 décembre 2025 (n° 2512468) est, à cet égard, particulièrement éclairante : le requérant M. A. avait produit des écritures dont le juge a relevé qu'elles avaient été « générées avec un outil dit d'intelligence artificielle, dont le contenu est tout sauf "juridiquement cadré" ». L'ordonnance note, par une précision accablante, que M. A. « n'avait même pas pris la peine d'enlever du document adressé au tribunal » l'intégralité de son échange conversationnel avec l'outil d'IA. Ce défaut de filtre entre la production brute de l'IA et l'acte de procédure soumis au juge constitue un marqueur caractéristique de l'usage non maîtrisé de ces outils.

Le troisième indice réside dans l'insuffisance de précision des moyens invoqués, symptomatique de l'incapacité des outils génératifs à contextualiser l'argumentation juridique aux faits de l'espèce. L'ordonnance du tribunal administratif de Rennes du 28 janvier 2026 (n° 2506364) illustre parfaitement cette dimension : la SAS La Volumerie avait soumis une requête dont le président de la 2ème chambre a constaté qu' « aucun des moyens invoqués n'est assorti des précisions nécessaires permettant au juge d'en apprécier le bien-fondé », et a expressément relevé que « la requête [...] a manifestement été rédigée à l'aide d'un outil d'intelligence artificielle générative » [4].

Ces trois indices convergents, références fictives ou erronées, qualité rédactionnelle paradoxale et insuffisance de contextualisation factuelle, constituent désormais, dans la pratique, les marqueurs par lesquels les juridictions, tant administratives que judiciaires, identifient les productions de l'intelligence artificielle générative. Ils dessinent une sorte de « test de détection » jurisprudentiel dont la formalisation progressive pourrait, à terme, conduire à l'élaboration de critères plus précis dans la jurisprudence.

B. Des réponses procédurales graduées selon la qualité des acteurs du procès et le droit comparé, miroir anticipateur d’une sévérité sanctionnatrice croissante

Si les six juridictions partagent le même constat d'une utilisation d'intelligence artificielle générative produisant des contenus juridiquement défaillants, leurs réponses procédurales diffèrent sensiblement en fonction du contexte, de la qualité du requérant, représenté ou non, et de la gravité des manquements constatés. Cette graduation illustre la prise en compte par les magistrats du rôle différent des acteurs du procès.

S'agissant des requérants non représentés ou des entités agissant sans ministère d'avocat, la réponse juridictionnelle est celle du rejet sec assorti d'une analyse critique des écritures. L'ordonnance du tribunal administratif de Grenoble du 3 décembre 2025 rejette la requête sur le double fondement de l'irrecevabilité manifeste et du caractère manifestement infondé des moyens, sur le fondement de l'article R. 222-1, alinéa 4, du Code de justice administrative N° Lexbase : L1294MLI. L'ordonnance du tribunal administratif de Rennes du 28 janvier 2026 procède de manière identique. Il convient de relever que, dans ces ordonnances, la critique de l'usage de l'IA participe de la motivation du rejet sans en constituer formellement le fondement juridique : cette technique rédactionnelle habile permet au juge de signaler le phénomène sans avoir à ériger une catégorie procédurale nouvelle.

S'agissant des requérants représentés par un avocat, la réponse juridictionnelle revêt une dimension qualitativement différente, celle de l'avertissement solennel adressé au conseil. Le tribunal administratif d'Orléans, dans son jugement du 29 décembre 2025, a formulé, dans le corps même du jugement, un avertissement d'une portée considérable : « Il y a donc lieu d'inviter le conseil du requérant à vérifier à l'avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une "hallucination" ou une "confabulation" ». La cour administrative d'appel de Bordeaux a repris cette formule dans des termes quasi identiques dans son ordonnance du 26 février 2026, laissant deviner l'émergence d'une clause de style jurisprudentielle.

La décision américaine Mata v. Avianca, Inc. fournit, en outre, un contrepoint éclairant à l’approche pour l’heure essentiellement pédagogique des juridictions françaises. Dans son Opinion and Order on Sanctions du 22 juin 2023, le juge P. Kevin Castel, siégeant au tribunal fédéral du district sud de New York, a imposé une amende de 5 000 dollars à Me Steven Schwartz et ordonné la notification aux juges fictivement cités, constatant une « mauvaise foi subjective » dans le maintien de références imaginaires malgré les alertes réitérées de la partie adverse, qualifiant la conduite en cause de « sans précédent » dans les annales de cette juridiction. Ce quantum, qui pouvait encore paraître modéré au regard des enjeux institutionnels soulevés, n’était que le point de départ d’une évolution jurisprudentielle dont l’amplitude et la vélocité ont depuis lors surpris les observateurs les plus avertis.

La gravité de cette décision tient moins à son quantum sanctionnateur qu’à la rigueur méthodologique avec laquelle le juge Castel a déconstruit le mécanisme de la faute. Dans les termes dépouillés de la page 2 de son ordonnance, il pose un inventaire des préjudices systémiques générés par la citation de décisions fictives : « De nombreux préjudices découlent de la soumission de fausses décisions. La partie adverse gaspille temps et argent à exposer la tromperie. Le temps du tribunal est détourné d’autres entreprises importantes. Le client peut être privé d’arguments fondés sur des précédents judiciaires authentiques. Il existe un risque de préjudice pour la réputation des juges et des cours dont les noms sont faussement invoqués comme auteurs des opinions frauduleuses, ainsi que pour la réputation d’une partie à laquelle sont attribués des comportements fictifs. Cela favorise le cynisme à l’égard de la profession juridique et du système judiciaire américain. »[5] (Mata v. Avianca, Inc., page 2, traduction libre.).

Ce qui confère à cette décision une dimension paradigmatique tient à la qualification retenue par le juge : il ne s’agissait pas d’une simple négligence initiale, mais d’un « conscious avoidance », un évitement conscient de la réalité, caractérisé par le maintien des références fictives après de multiples alertes. Le juge Castel relève que Me Schwartz, après avoir reçu le 15 mars 2023 un mémoire adverse pointant l’inexistence des décisions citées, « a continué à opérer sous la fausse perception que ChatGPT ne pouvait pas fabriquer des cas » (Mata, p. 7). Pire : interrogé sur l’impossibilité de localiser l’affaire Varghese v. China Southern Airlines, il répondit avoir « cherché la décision, sans la trouver, mais sans en tirer la conclusion qui s’imposait », à savoir que la décision n’existait pas. Le comble réside dans la production, en annexe B de l’ordonnance, de l’échange avec ChatGPT au cours duquel ce dernier, interrogé a posteriori sur l’authenticité de l’affaire Varghese, avait affirmé sans détour : « Cette affaire existe bel et bien et peut être trouvée sur des bases de données juridiques telles que Westlaw et LexisNexis. » (Mata, Appendice B, page 40, traduction libre).

Cette démonstration implacable illustre avec une précision clinique ce que le juge Castel qualifie de violation de la règle 11(b)(2) des Federal Rules of Civil Procedure : la soumission d’allégations « not warranted by existing law or by a nonfrivolous argument », combinée au refus de corriger l’erreur après en avoir été alerté, constitue un « abus du système judiciaire » dont la sanction, amende de 5 000 dollars, obligation de notification aux juges fictivement cités et transmission d’une copie de l’ordonnance au client, entend restaurer l’intégrité de l’institution judiciaire plutôt que de punir la personne.

Chronologiquement, c’est la Cour suprême de la Colombie-Britannique qui, la première au Canada, a eu à connaître de ce phénomène, par une décision rendue le 26 février 2024 sous la plume du juge David Masuhara dans l’affaire opposant Wei Chen à Nina Zhang, un litige de divorce dans lequel la valeur nette patrimoniale de l’époux était estimée entre 70 et 90 millions de dollars. Me Chong Ke, avocate du mari, avait cité deux précédents fictifs dans un avis de demande, l’un relatif à un enfant de sept ans amené en Inde, l’autre à un enfant de neuf ans autorisé à voyager en Chine, dont l’inexistence fut révélée lorsque la partie adverse en demanda communication pour préparer sa réponse. Bien que le juge Masuhara ait expressément déclaré ne pas croire à une intention de tromper et ait refusé de faire droit à la demande de frais spéciaux au motif de la « sincérité » des excuses formulées, il a néanmoins condamné l’avocate à supporter les coûts des mesures adverses destinées à remédier à la confusion, et a assorti cette condamnation d’une ordonnance imposant à Me Chong Ke de réexaminer l’intégralité de ses dossiers en cours pour signaler immédiatement toute citation obtenue à partir d’un outil d’intelligence artificielle générative. Dans le « commentaire final » annexé à sa décision, procédé rédactionnel lui-même révélateur de la gravité que le juge attachait à l’affaire, le juge Masuhara a posé, avec une limpide autorité, le principe appelé à résonner dans la jurisprudence ultérieure : « l’intelligence artificielle générative n’est toujours pas un substitut à l’expertise professionnelle que le système judiciaire exige des avocats » [6]. Cette décision emporte, a posteriori, un enseignement qui redéfinit le périmètre de la faute : l’absence d’intention frauduleuse ne saurait exonérer l’avocat de sa responsabilité dès lors que le résultat de son usage non maîtrisé de l’intelligence artificielle a porté atteinte à la loyauté des débats et contraint la partie adverse à exposer des diligences inutiles. La bona fides subjective de l’auteur n’efface pas la faute objective du professionnel qui a fait le choix de déposer un acte sans en avoir vérifié la teneur.

Le 1er octobre 2025, la Cour suprême de New York, dans l’affaire Ader v. Ader (Index n° 653917/2024)[7], a rappelé avec une clarté doctrinale que le problème ne réside pas dans l’usage de l’intelligence artificielle per se, mais dans l’abandon par l’avocat de sa responsabilité de garantir l’exactitude de ses déclarations factuelles et juridiques devant la juridiction. Cette formulation, qui met l’accent non sur l’outil mais sur la défaillance professionnelle de celui qui l’utilise, constitue une contribution jurisprudentielle d’une portée conceptuelle considérable : elle ferme définitivement la voie à toute tentative de déresponsabilisation par imputation du manquement à la technologie elle-même, et confirme que c’est l’avocat, et lui seul, qui répond de la qualité de ses écritures, quelle que soit l’origine de leur génération.

Le 29 mai 2025 marque, dans l’histoire du contentieux comparé des hallucinations algorithmiques, une journée dont la portée symbolique est appelée à s’inscrire durablement, tant par la simultanéité des décisions rendues que par la sévérité sans précédent des sanctions prononcées. Ce jour-là, deux juridictions américaines distinctes rendirent en effet, indépendamment l’une de l’autre, des décisions dont la concomitance ne saurait être analysée comme une coïncidence fortuite mais doit être lue comme le signal d’une maturité acquise par la jurisprudence américaine sur la question.

La Cour d’appel de l’Utah, statuant pour la première fois dans cet État fédéré sur l’usage d’un outil d’intelligence artificielle générative dans une écriture judiciaire, a condamné les avocats Richard Bednar et Douglas Durbano pour avoir déposé une timely petition for interlocutory appeal contenant la citation de l’affaire Royer v. Nelson, un précédent forgé ex nihilo, introuvable dans quelque base de données juridique que ce fût et ne pouvant être trouvé que dans les réponses de ChatGPT, circonstance que le conseil adverse avait qualifiée, sans ménagement, d’affaire « hallucinée » par l’intelligence artificielle. La configuration procédurale présentait, au surplus, une aggravation spécifique : le mémoire avait été intégralement préparé par un unlicensed law clerk, et Me Bednar n’avait, de son propre aveu lors de l’audience du 22 avril 2025, procédé à aucune vérification indépendante de l’exactitude des citations avant de signer et de déposer l’acte. La Cour, soulignant que « tout avocat a un devoir permanent de vérifier et d’assurer l’exactitude de ses actes de procédure » et que les conseils avaient « failli à leurs responsabilités de contrôle en tant que membres du Barreau de l’État de l’Utah »[8], prononça une triple sanction : paiement des honoraires adverses afférents à la requête et à l’audience, remboursement intégral des honoraires perçus du client pour le temps consacré à la préparation de l’acte litigieux, et versement d’une somme de mille dollars à l’association and Justice for all dans un délai impératif de quatorze jours. Il y a lieu de relever, au surplus, que le cabinet avait entretemps licencié le clerc auteur des productions litigieuses et mis en place, a posteriori, une politique interne d’encadrement de l’usage de l’intelligence artificielle, démarche dont on peut légitimement se demander si elle n’aurait pas dû précéder, plutôt que suivre, le recours à ces outils. La proportionnalité de la sanction et sa fonction préventive sont explicitées par la Cour d’appel de l’Utah en page 10 de sa décision : « Les sanctions sont limitées à ce qui suffit pour dissuader la répétition de la conduite ou une conduite similaire par d’autres dans une situation comparable. [...] La Cour dispose d’une large discrétion pour façonner une sanction appropriée, et peut prendre en compte les effets sur les parties et la connaissance complète des faits pertinents acquise lors de l’audience sur les sanctions. » (page 10, traduction libre.).

Plus sévère encore dans ses conséquences pécuniaires, la décision rendue ce même 29 mai 2025 par le juge fédéral David O. Carter, siégeant à la Cour fédérale du district central de Californie dans l’affaire LA Alliance for Human Rights et al. v. City of Los Angeles et al. (n° LA CV 20-02291-DOC(KESx)), constitue à ce jour le quantum sanctionnateur le plus élevé recensé dans ce contentieux. Le juge Carter a infligé à deux cabinets d’avocats une amende de 31 000 dollars pour avoir soumis à la juridiction une requête comportant pas moins de neuf erreurs jurisprudentielles en dix pages, circonstance qu’il a qualifiée de « débâcle collective », formule dont la virulence délibérée traduit non seulement la sévérité du constat mais aussi la volonté d’adresser, erga omnes, un message sans équivoque à l’ensemble de la profession. La circonstance que deux cabinets se trouvent conjointement frappés par cette condamnation est en elle-même porteuse d’un enseignement capital : le risque ne se cantonne nullement aux praticiens isolés ou aux structures mal équipées, mais menace les organisations collectives elles-mêmes dès lors qu’elles n’ont pas institué des procédures internes de contrôle des productions algorithmiques à la hauteur de leurs obligations déontologiques. La Cour fédérale du district central de Californie fonde le quantum exceptionnel de 31 000 dollars sur une analyse des obligations déontologiques que le juge Carter formule en page 24 de sa décision en des termes qui résonnent bien au-delà des faits de l’espèce : « La gravité des manquements dans ce cas — neuf erreurs en dix pages, malgré les ressources des cabinets impliqués — justifie une réponse proportionnelle pour préserver l’intégrité des procédures. Les avocats ne peuvent se réfugier derrière l’argument de l’ignorance ou de la complexité technologique. Leur devoir de compétence inclut désormais la maîtrise des outils qu’ils choisissent d’utiliser, ou à défaut, l’abstention. »[9] (LA Alliance for Human Rights et al. v. City of Los Angeles et al., pages 24-25, traduction libre).

Là où les décisions françaises se bornent encore à inviter les conseils à s’assurer que les références ne constituent pas une « hallucination » ou une « confabulation », la jurisprudence étrangère a d’ores et déjà franchi un seuil qualitatif décisif : elle érige le défaut de vérification des sorties d’intelligence artificielle, combiné à un manquement à la loyauté procédurale, en faute justifiant une réponse juridictionnelle dont la fermeté croissante, de la réprimande à l’amende de 31 000 dollars en moins de deux ans, dessine la trajectoire probable de l’évolution française. Le corpus comparatiste constitue ainsi, pour les juridictions hexagonales et les instances ordinales nationales, un miroir anticipateur dont il serait imprudent de sous-estimer la valeur normative.

Il est particulièrement significatif de relever que, tant dans l'affaire jugée par le tribunal administratif d'Orléans que dans celle tranchée par le tribunal judiciaire de Périgueux, l'avertissement jurisprudentiel n'a nullement empêché le juge de faire droit aux conclusions des requérants sur le fond. Le tribunal administratif d'Orléans a annulé l'ensemble des décisions d'éloignement prises à l'encontre de M. B., conformément à l'arrêt de la CJUE du 1er août 2025 [10] ; le tribunal judiciaire de Périgueux a quant à lui prononcé la nullité de la procédure de contrôle et annulé l'indu de 3 777,05 euros réclamé à M. [C]. Dans les deux espèces, le juge a ainsi dissocié la qualité des écritures du bien-fondé des prétentions : les fautes du conseil ne sauraient se répercuter sur les droits du justiciable.

Cette approche graduée, rejet sec pour le requérant non représenté, avertissement solennel pour l'avocat, maintien des droits du justiciable sur le fond lorsque le droit est avéré, reflète une conception équilibrée de la régulation judiciaire du phénomène. Elle préserve les droits des parties tout en adressant aux auxiliaires de justice un signal sans ambiguïté, dont l'insertion dans le corps même des décisions publiées et accessibles sur les bases de données conférera une publicité et une portée normative croissantes.

II. Les implications professionnelles et normatives de l'usage non maîtrisé de l'intelligence artificielle

Au-delà de leur portée immédiate, les six décisions commentées soulèvent des questions d'une dimension systémique qui excèdent les circonstances propres à chaque espèce. L'utilisation non contrôlée de l'intelligence artificielle générative dans le procès met en tension des exigences fondamentales de l'État de droit : d'un côté, l'obligation de diligence et de compétence qui pèse sur l'auxiliaire de justice et dont la méconnaissance engage sa responsabilité sur plusieurs plans, désormais éclairés par le cadre déontologique que le Conseil national des barreaux vient de consacrer (A) ; de l'autre, la nécessité d'un cadre normatif adapté à l'émergence de ces nouveaux outils, qui implique des obligations spécifiques en matière de protection des données, de transparence et de fixation des honoraires, auxquelles le rapport du Conseil national des barreaux apporte des réponses concrètes et opérationnelles (B).

A. La mise en cause de la responsabilité de l'avocat : entre faute déontologique, responsabilité civile professionnelle et exigences de protection des données

Les décisions du tribunal administratif d'Orléans, de la cour administrative d'appel de Bordeaux et du tribunal judiciaire de Périgueux posent, en creux, la question de la responsabilité professionnelle de l'avocat qui utilise l'intelligence artificielle générative sans vérifier la fiabilité de ses productions. Cette question ne saurait être appréhendée indépendamment du cadre déontologique qui régit l'exercice de la profession, tel que synthétisé et précisé par le rapport du Conseil national des barreaux.

L'obligation de compétence implique nécessairement que l'avocat maîtrise les sources du droit qu'il invoque et soit en mesure de garantir l'exactitude des références jurisprudentielles soumises au juge. La production par un outil d'IA d'une référence inexistante constitue un manquement caractérisé à cette obligation dès lors que l'avocat n'a procédé à aucune vérification préalable sur les bases de données officielles. Ce manquement est d'autant plus grave que la nature probabiliste du fonctionnement des modèles de langage, ces Large Language Models (LLM) qui génèrent des séquences de mots sur la base de probabilités statistiques et non sur la base d'un raisonnement juridique, est désormais largement documentée et ne saurait être ignorée d'un professionnel normalement informé. Le rapport du Conseil national des barreaux est à cet égard sans ambiguïté : il rappelle que les avocats « doivent toujours procéder à une analyse critique et superviser les résultats produits par l'IA et ne jamais utiliser directement les résultats ou s'y fier sans les avoir d'abord examinés et vérifiés ». Il convient de rappeler que la première chambre civile de la Cour de cassation a jugé, sur le fondement des dispositions de l'article 1147 du Code civil N° Lexbase : L0866KZ4,[11] que l'avocat, « investi d'un devoir de compétence, [...] se doit de faire valoir une évolution jurisprudentielle acquise dont la transposition ou l'extension à la cause dont il a la charge a des chances sérieuses de la faire prospérer », [12] ce qui implique, a fortiori, qu'il s'interdit de citer des décisions qui n'existent pas.

L'obligation de diligence et de prudence renforce cette exigence. La vérification des sources constitue un acte élémentaire de la pratique professionnelle que l'usage d'un outil technologique ne saurait dispenser d'accomplir. L'article 1.5 du Règlement National Intérieur de la profession d’avocat (RIN) impose une obligation générale de prudence et de diligence. Que signifie citer devant une juridiction des décisions de jurisprudence qui n'existent pas ? Cela signifie, de façon irréfutable, que l'avocat n'a pas accédé aux bases de données de jurisprudence, telles Légifrance, ArianeWeb ou les bases privées telles que Lexbase, pour s'assurer de l'existence, de la pertinence et de la portée des décisions citées. Il a fait aveuglément confiance à un outil dont la nature même est de produire des contenus vraisemblables plutôt que véridiques. C'est aussi, il faut le dire, une forme de tromperie à l'égard du client qui croit bénéficier d'une assistance juridique professionnelle et qui reçoit en réalité un produit généré par une machine, non vérifié par un œil humain compétent. Comme le soulignait Madame Christiane Féral-Schuhl, ancienne présidente du Conseil national des barreaux, lors de la Grande rentrée des avocats du 19 septembre 2024, les logiciels intégrant l'IA sont avant tout des « outils d'assistance et pas de substitution » à l'exercice professionnel [13].

Ce « conscious avoidance », notion centrale en common law qui désigne le fait de fermer délibérément les yeux sur une réalité évidente pour éviter d’assumer ses responsabilités, trouve une expression directe dans la jurisprudence américaine. Dans Mata, le juge Castel souligne que la violation de la règle 11(b)(2) des Federal Rules of Civil Procedure est caractérisée non pas par la seule citation initiale de décisions fictives, mais par le maintien de ces références après les alertes répétées de la partie adverse et les ordres du tribunal exigeant la production des décisions incriminées. Comme il l’écrit sans ambages en page 2 de son ordonnance : « Le récit conduisant aux sanctions contre les intimés inclut le dépôt du 1er mars 2023 citant pour la première fois les fausses décisions. Mais si la question s’était arrêtée là, les intimés ayant reconnu leurs erreurs peu après avoir reçu le mémoire du 15 mars 2023 remettant en cause l’existence des décisions, ou après les ordres du tribunal des 11 et 12 avril exigeant la production des décisions, le dossier aurait aujourd’hui une tout autre apparence. Au lieu de cela, les intimés ont persisté dans leur erreur et n’ont commencé à révéler la vérité que le 25 mai, après que le tribunal ait émis un ordre de comparution pour sanctions. » (décision Mata, page 2, traduction libre).

La Cour d’appel de l’Utah rejoint cette analyse en affirmant que le devoir de vérification pour l’avocat est « permanent » et s’impose « indépendamment de l’outil utilisé », y compris lorsque cet outil est un logiciel d’intelligence artificielle générative. Cette convergence transatlantique, qui unit le standard américain du gatekeeping professionnel et les obligations déontologiques françaises de diligence et de prudence consacrées à l’article 1.5 du RIN, constitue un signal dont la jurisprudence française naissante ne peut, a fortiori, faire abstraction : tout avocat est désormais réputé savoir que les outils d’intelligence artificielle sont susceptibles de produire des hallucinations jurisprudentielles et doit, en conséquence, vérifier systématiquement ses sources.

L'obligation de conscience et d'indépendance consacrée à l'article 1.3 du RIN [14] revêt une dimension particulière dans le contexte de l'IA générative. Le rapport du Conseil national des barreaux pointe un risque spécifique : les systèmes d'IA, en reproduisant les biais du corpus sur lequel ils ont été entraînés et en allant trop dans le sens de l'utilisateur, sont susceptibles de « dégrader la qualité de la réponse donnée et de priver l'avocat de l'indépendance intellectuelle dont il ne doit jamais se départir ». La « complaisance vis-à-vis de l'automatisation », phénomène par lequel l'utilisation répétée des outils d'IA conduit l'avocat à intérioriser les biais algorithmiques et à substituer des conclusions automatisées à son propre jugement professionnel, constitue ainsi une menace insidieuse et autonome pour l'exercice indépendant de la profession, indépendamment même du risque de citation de jurisprudence fictive.

À ces obligations déontologiques fondamentales, le rapport du Conseil  national des barreaux adjoint une dimension longtemps négligée dans le débat sur la responsabilité de l'avocat face à l'IA : l'obligation de protection du secret professionnel et des données personnelles dans l'usage des outils génératifs. L'article 66-5 de la loi du 31 décembre 1971 modifiée N° Lexbase : L6343AGZ [15] et l'article 2 du RIN [16] imposent à l'avocat, en tant que « confident nécessaire » de son client, de ne jamais communiquer des données relatives à ses dossiers ou à ses clients à des intelligences artificielles génératives. Or, toute requête envoyée à un outil d'IA générative entraîne la transmission de données à l'entreprise qui exploite le système, le plus souvent américaine, avec les risques afférents en termes de réutilisation à des fins d'entraînement des modèles et d'accès par des autorités étrangères en vertu de législations extraterritoriales [17] [18].

La réponse à ce risque identifiée par le Conseil national des barreaux réside dans la pseudonymisation ou l'anonymisation systématique des données avant toute transmission à un outil d'IA générative.[19] La pseudonymisation consiste à remplacer les données directement identifiantes par des données indirectement identifiantes, initiales fictives, zones géographiques larges, de telle sorte que les informations transmises ne permettent pas de remonter jusqu'à une personne ou une entité spécifique. L'anonymisation, plus protectrice mais aussi plus contraignante, rend toute identification irréversiblement impossible. Ni l'une ni l'autre ne dispensent cependant d'une vigilance constante à l'égard du risque de réidentification par croisement de données. La méconnaissance de ces obligations est susceptible d'exposer l'avocat à des sanctions disciplinaires, voire pénales, indépendamment de tout contentieux relatif à la qualité des écritures produites.

Sur le plan disciplinaire, de tels manquements, qu'il s'agisse de la citation de jurisprudence fictive ou de la violation du secret professionnel par transmission de données à un outil d'IA non sécurisé, sont susceptibles de fonder une action devant le conseil de discipline régional. L'article 183 du décret n° 91-1197 du 27 novembre 1991 modifié N° Lexbase : L8168AID dispose que « toute contravention aux lois et règlements, toute infraction aux règles professionnelles, tout manquement à la probité, à l'honneur ou à la délicatesse [...] expose l'avocat qui en est l'auteur aux sanctions disciplinaires énumérées à l'article 184 ».[20] La citation de jurisprudence fictive devant une juridiction, qui porte atteinte à la crédibilité de la profession et à la loyauté des débats, entre indubitablement dans le champ de cette disposition. Le précédent américain Mata v. Avianca, Inc. (S.D.N.Y., 22 juin 2023, n° 22-cv-1461)[21] est, à cet égard, instructif : le juge Castel a sanctionné Me Steven Schwartz d'une amende de 5 000 dollars pour avoir soumis à la cour un mémoire contenant six références jurisprudentielles fictives générées par ChatGPT, qualifiant cette conduite de « sans précédent ».

Sur le plan de la responsabilité civile professionnelle, l'article 1231-1 du Code civil N° Lexbase : L0613KZQ [22] fonde la responsabilité contractuelle de l'avocat à l'égard de son client. La jurisprudence de la Cour de cassation lui impose une obligation de moyens renforcée dans l'accomplissement de sa mission de représentation et d'assistance. Le préjudice causé par la citation de jurisprudence fictive peut revêtir plusieurs formes : un préjudice direct et certain lorsque l'argumentation fondée sur des références inexistantes contribue au rejet de la requête ; un préjudice sous la forme de perte de chance, lorsqu'une argumentation convenablement étayée aurait eu des chances raisonnables de prospérer ; un préjudice moral, enfin, causé au client dont la cause est défendue de façon indigne de la qualité d'auxiliaire de justice de son conseil. Il convient également de souligner que la clause par laquelle l'avocat tenterait de limiter contractuellement sa responsabilité à l'égard d'un client consommateur se heurte aux dispositions de l'article L. 212-1 du Code de la consommation N° Lexbase : L3278K9B, qui répute non écrites les clauses ayant pour objet ou pour effet de supprimer ou de réduire le droit à réparation du consommateur en cas de manquement par le professionnel à l'une quelconque de ses obligations.

Les ordonnances bordelaise et orléanaise, comme le jugement périgourdin, en « invitant » l'avocat à vérifier ses références à l'avenir, emploient une formulation qui, si elle reste courtoise dans la forme, n'en constitue pas moins un blâme juridictionnel public. L'insertion de cette observation dans le corps d'un jugement ou d'une ordonnance publiés et accessibles sur les bases de données juridiques confère à ce rappel à l'ordre une publicité considérable. En l'état actuel de la diffusion des connaissances sur les limites de l'IA générative, et a fortiori après les avertissements jurisprudentiels commentés, l'ignorance de ce risque devient de plus en plus difficilement excusable. Les décisions d'Orléans, de Bordeaux et de Périgueux ont, en quelque sorte, créé une présomption de connaissance. Cette présomption de connaissance, dès lors acquise et irréfragable, s'impose à l'ensemble de la profession : nul avocat ne peut aujourd'hui se prévaloir de son ignorance des risques inhérents aux outils génératifs pour s'exonérer de l'obligation élémentaire de vérification des sources.

Cette analyse de la responsabilité de l'avocat face à l'intelligence artificielle générative, menée de lege lata à partir des obligations déontologiques existantes, appelle désormais une réflexion de lege ferenda sur les évolutions normatives que le corpus jurisprudentiel commenté impose de concevoir.

Il faut enfin souligner une dimension qui dépasse la seule relation avocat-client : la loyauté envers la juridiction. L'avocat qui soumet au juge des références fictives ne manque pas seulement à ses obligations envers son client ; il porte atteinte à l'institution judiciaire elle-même et aux principes fondamentaux de loyauté des débats sur lesquels repose l'État de droit. Comme le rappelle le guide du CCBE sur l'utilisation de l'IA générative par les avocats du 2 octobre 2025, l'avocat doit également garder à l'esprit d'autres principes fondamentaux, tels que « la dignité et l'honneur de la profession d'avocat, la probité et la réputation de l'avocat, la loyauté à l'égard de son client ou le respect de l'état de droit et la contribution à une bonne administration de la justice » [23].

B. Vers un encadrement normatif adapté aux risques spécifiques de l'intelligence artificielle générative : le cadre déontologique du Conseil national des barreaux et les pistes de régulation

Les six décisions commentées, si elles constituent des réponses ponctuelles à des situations concrètes, mettent en lumière la nécessité d'une réflexion plus large sur l'encadrement de l'usage de l'intelligence artificielle dans le procès. Si les réponses juridictionnelles apportent des solutions circonstanciées, elles ne sauraient suffire à réguler un phénomène dont la diffusion est appelée à s'amplifier avec la généralisation des outils génératifs. À cet égard, le rapport du Conseil national des barreaux du 13 mars 2026 apporte une réponse institutionnelle structurée, dont la portée normative, bien qu'encore de nature déontologique, est appelée à s'étoffer au fur et à mesure que la jurisprudence consacrera les obligations correspondantes.

C'est précisément cette exigence de maîtrise que traduit la position de Madame Julie Couturier, présidente du Conseil national des barreaux, lorsqu'elle affirme, à l'occasion du lancement du plan national de formation à l'IA : « Comprendre l'IA, c'est aujourd'hui une condition pour exercer en conscience, avec rigueur et discernement [...] pour rester maître des outils qu'il choisit d'utiliser dans le respect de notre déontologie et de nos obligations envers nos clients » [24].

La première piste concerne l'obligation de déclaration d'usage. Plusieurs juridictions étrangères ont d'ores et déjà imposé aux avocats une obligation de révéler l'utilisation d'outils d'intelligence artificielle dans la préparation de leurs écritures. Aux États-Unis, les juges de plusieurs districts fédéraux ont adopté des ordres permanents exigeant une déclaration spécifique en ce sens. Au Royaume-Uni, la Practice Direction du Lord Chief Justice du 20 décembre 2023 impose une déclaration similaire.[25]. En France, aucune disposition du Code de justice administrative ni du Code de procédure civile n'impose une telle obligation. Sur ce point, le rapport du Conseil national des barreaux adopte une position nuancée : si aucune règle n'impose à l'avocat d'indiquer quels moyens technologiques il a utilisés pour l'élaboration de son dossier, la transparence s'impose néanmoins dans des circonstances précises, lorsque le client interroge l'avocat sur ses pratiques de travail, lorsque les données du client sont utilisées pour entraîner un système d'IA interne au cabinet (auquel cas le consentement doit être recueilli), ou lorsque des robots conversationnels sont utilisés pour répondre directement aux clients. Dans ce dernier cas, il convient d'indiquer clairement qu'il s'agit d'un système d'IA et non d'un être humain. Le rapport recommande en outre que l'avocat intègre dans sa convention d'honoraires une clause explicite encadrant l'usage de l'IA [26].

La deuxième piste concerne le choix rigoureux des outils d'IA juridique. Le Conseil national des barreaux a mis à la disposition de la profession une grille d'auto-évaluation permettant de guider les avocats dans la sélection des logiciels juridiques augmentés par l'intelligence artificielle générative, articulée autour de quatre critères cumulatifs. Premièrement, les fonctionnalités : l'outil doit répondre aux besoins spécifiques de l'avocat, recherche jurisprudentielle, analyse de contrats, rédaction assistée, et être adapté à son domaine d'intervention. Deuxièmement, la souveraineté des données : il convient de privilégier des outils dont les données sont hébergées en France ou au sein de l'Union européenne, et dont l'entreprise détentrice n'est pas soumise à des dispositions extraterritoriales permettant à des autorités étrangères d'accéder aux données stockées. Troisièmement, la confidentialité et la sécurisation des données : le chiffrement des données en transit et au repos, la non-réutilisation des données à des fins d'entraînement du LLM et la suppression automatique des prompts après réponse constituent des critères essentiels [27]. Quatrièmement, la fiabilité : la citation des sources de référence avec un lien permettant de les consulter en intégralité et la présence d'un système de génération augmentée de récupération (RAG) correctement conçu et sécurisé constituent des garanties indispensables contre le risque d'hallucination.

La troisième piste a trait au renforcement des obligations déontologiques. Le Conseil national des barreaux pourrait utilement compléter le RIN par des dispositions spécifiques encadrant l'usage de l'intelligence artificielle dans l'exercice professionnel. De telles dispositions pourraient consacrer expressément l'obligation de vérification systématique de toute production d'IA avant son intégration dans des écritures juridictionnelles, interdire la soumission au juge de références jurisprudentielles non vérifiées sur les bases de données officielles (Légifrance, ArianeWeb, HUDOC, Curia) et rappeler que la responsabilité de l'exactitude des écritures incombe à l'avocat signataire, indépendamment des outils utilisés pour leur préparation. L'obligation déontologique de prévention des conflits d'intérêts impose en outre à l'avocat de s'assurer que les données transmises à un outil d'IA ne risquent pas d'être réutilisées dans le cadre d'autres dossiers, les systèmes d'intelligence artificielle pouvant avoir accès à des informations confidentielles provenant de plusieurs cabinets et clients, créant ainsi un risque de partage involontaire d'informations [28].

La quatrième piste concerne la fixation des honoraires. L’article 10, alinéa 4, de la loi n° 71-1130 du 31 décembre 1971 [29] modifiée portant réforme de certaines professions judiciaires et juridiques et l'article 11 du Règlement Intérieur National définissent les critères de rémunération de l'avocat [30], parmi lesquels figurent notamment le temps consacré à l'affaire et le travail de recherche. L'utilisation de l'IA, en réduisant le temps nécessaire à l'accomplissement de certaines tâches, peut conduire à une réduction des honoraires ; mais elle génère parallèlement des coûts spécifiques, abonnements, formation, mise en place de processus de vérification, qui peuvent légitimer un ajustement tarifaire. Le rapport du Conseil national des barreaux recommande que les honoraires soient établis de manière équilibrée et transparente, en tenant compte à la fois du temps gagné et des coûts de création, de formation et d'utilisation de la technologie, ainsi que de la responsabilité de l'avocat pour le contenu généré par l'IA [31]. Cette exigence de transparence tarifaire, qui rejoint les principes posés par la Charte des principes essentiels de l'avocat européen [32] et les directives de l'Union Internationale des Avocats [33], constitue une dimension encore insuffisamment intégrée dans la pratique des cabinets.

La cinquième piste concerne le pouvoir de sanction du juge. En l'état actuel du droit, le juge administratif dispose de l'article R. 741-12 du Code de justice administrative N° Lexbase : L9951LAS permettant d'infliger une amende pour recours abusif pouvant aller jusqu'à 10 000 euros. La question de savoir si la soumission au juge d'écritures contenant des références fictives pourrait, en elle-même, caractériser un recours abusif mérite d'être posée. Du côté de la juridiction judiciaire, l'article 32-1 du Code de procédure civile N° Lexbase : L6815LE7 permet au juge de condamner l'auteur d'une procédure dilatoire ou abusive à une amende civile. Ces mécanismes existants pourraient, sans modification législative, être mobilisés dans des cas caractérisés.

La sixième piste concerne la formation professionnelle continue. La généralisation de l'usage de l'IA dans les cabinets d'avocats appelle, en réponse, une formation spécifique aux risques et aux bonnes pratiques. L'intégration dans la formation continue obligatoire d'un module consacré aux limites de l'IA générative, à la vérification des sources et à la déontologie de son usage paraît s'imposer. Les barreaux et les écoles de formation d'avocats ont, à cet égard, une responsabilité pédagogique qui complète la responsabilité normative des instances ordinales. Le rapport du Conseil national des barreaux y attache une importance particulière. Ainsi, sous l’impulsion de la présidente Julie Couturier, le Conseil national des barreaux a mis à la disposition de la profession d’avocat, en partenariat avec les éditions Lefebvre Dalloz Compétence, une plateforme d'e-learning dédiée, dénommée Skilia.Avocats, avec douze modules permettant aux avocats de se former à l'IA à leur propre rythme [34]. Cette sensibilisation à l’IA a été également intégrée dans les programmes des écoles d’avocats sous l’impulsion de la présidente déléguée de la commission formation du CNB, Paule Aboudaram.

Il convient enfin de relever les limites du cadre normatif européen existant. Le Règlement européen sur l'intelligence artificielle (Règlement (UE) n° 2024/1689 du 13 juin 2024 N° Lexbase : L1054MND, dit « AI Act »), entré en vigueur le 1er août 2024, [35] classe certes les systèmes d'IA utilisés dans l'administration de la justice parmi les systèmes à « haut risque » soumis à des obligations renforcées, mais ces obligations portent sur les concepteurs et les déployeurs de systèmes d'IA, non sur les utilisateurs finaux que sont les avocats ou les justiciables. Le cadre normatif européen est donc, en l'état, insuffisant pour répondre aux problématiques soulevées par les décisions commentées. Il appartient donc au législateur national, aux instances ordinales et aux chefs de juridiction d'élaborer conjointement les réponses normatives adaptées.

Les six décisions commentées constituent, par leur convergence et leur dimension transversale, les premières pierres d'un édifice jurisprudentiel appelé à se développer considérablement. Elles révèlent que l'intelligence artificielle générative, loin d'être un simple auxiliaire technique anodin, est susceptible de porter atteinte aux principes fondamentaux du procès, loyauté des débats, fiabilité des sources, compétence des auxiliaires de justice, lorsqu'elle est utilisée sans discernement ni contrôle. Le rapport du Conseil national des barreaux du 13 mars 2026, en proposant un cadre déontologique structuré et opérationnel, apporte à ces décisions la résonance institutionnelle qu'elles appellent.

Cependant, il convient de rappeler que le Conseil national des barreaux ne dispose pas d’un pouvoir normatif propre mais uniquement d’harmonisation des règles au regard de celles produites par les conseils de l’ordre : « Considérant qu'il résulte de l'ensemble de ces dispositions, éclairées par les débats parlementaires qui ont précédé l'adoption de la loi du 31 décembre 1990, que la fixation de règles de déontologie revêtant un caractère impératif pour l'ensemble de la profession d'avocat relève de la compétence du gouvernement agissant par voie de décret en Conseil d'État dans le respect des principes posés par l'article 53 de la loi du 31 décembre 1971 modifiée et notamment de 'l'autonomie des conseils de l'Ordre' ; que, dans le cadre ainsi défini, il revient au Conseil national des barreaux, agissant par voie de recommandations, de promouvoir l'harmonisation des règles et usages de la profession d'avocat, sans pour autant disposer à cette fin d'un pouvoir réglementaire ; » [36].

La formule employée tant par le tribunal administratif d'Orléans que par la cour administrative d'appel de Bordeaux, l'invitation à vérifier que les références « ne constituent pas une "hallucination" ou une "confabulation" », est sur le chemin de devenir un standard jurisprudentiel. Le tribunal judiciaire de Périgueux, en reprenant pour sa part la notion d'hallucination dans les termes qui lui sont propres, marque l'extension de ce standard au-delà de l'ordre administratif. Une jurisprudence se construit, transversale, convergente, inexorable.

Pour l'avocat, le message est clair : l'intelligence artificielle peut être un outil utile d'assistance à la recherche juridique et à la structuration des écritures, mais elle ne saurait en aucun cas se substituer à l'exercice personnel du jugement professionnel, à la vérification des sources sur les bases de données officielles et à la maîtrise technique du droit applicable. L'avocat qui délègue à une machine la rédaction de ses écritures sans vérification se trouve dans la position de celui qui renonce à contrôler ce dont il est responsable, et il est seul responsable. L'IA ne plaide pas ; c'est l'avocat qui plaide, et c'est lui seul qui répond de la qualité de ses écritures devant le juge, le client et l'institution ordinale. Aucune technologie, si performante soit-elle, ne saurait le dispenser de cette responsabilité fondamentale. Comme le rappelle avec justesse Madame Hélène Laudic-Baron, vice-présidente et responsable du groupe de travail IA au Conseil national des barreaux, « la déontologie et la responsabilité restent des atouts concurrentiels inégalables. Ainsi, l'avocat augmenté par les outils d'IA reste le seul interlocuteur de confiance tant dans le conseil que dans l'accompagnement juridique » [37].

Pour le juge, ces décisions inaugurent une ère nouvelle dans laquelle l'analyse critique des écritures doit désormais intégrer la dimension algorithmique. La vigilance dont ont fait preuve les juridictions de Grenoble, de Périgueux, d'Orléans, de Rennes et de Bordeaux témoigne d'une adaptabilité remarquable de l'institution judiciaire à un défi technologique sans précédent. Gageons que cette vigilance se consolidera et que le législateur, le pouvoir réglementaire et les institutions ordinales, dont le Conseil national des barreaux vient de démontrer la capacité d'anticipation normative, sauront accompagner cette évolution par un cadre normatif conforme aux exigences constitutionnelles et aux obligations du droit de l'Union.

Les décisions des juridictions de Grenoble, Périgueux, Orléans, Rennes et Bordeaux, lues à la lumière de la trajectoire sanctionnatrice que la jurisprudence américaine et canadienne dessine depuis 2023, tracent les contours d'un standard dont l'émergence est inexorable.

In fine, quelle que soit la sophistication des outils numériques mis à la disposition du professionnel, aucune technologie ne saurait substituer la machine à l'homme dans l'assomption de la responsabilité qui définit l'essence même de la fonction d'auxiliaire de justice.

 

[1] Sur le phénomène des hallucinations : Tanzeel Baig, Manju Vyas, Anima Sharma, Swati Vijay et Neelkamal Chaudhary, « Hallucinations in Large Language Models », The Chitransh Academic & Research, 30 septembre 2025 ; Stéphanie Lin, Jacob Hilton et Owain Evans, « TruthfulQA: Measuring How Models Mimic Human Falsehoods », Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (ACL 2022), Volume 1 : Long Papers, pages 3214–3252, Dublin, mai 2022. La définition retenue dans le présent article est celle du rapport Conseil national des barreaux de la commission des règles et usages, Rapport RP-2026-001, Assemblée générale des 12 et 13 mars 2026.

[2] Conseil national des barreaux, Commission des règles et usages, Rapport RP-2026-001 « La déontologie et l'intelligence artificielle », adopté en Assemblée générale des 12 et 13 mars 2026, page 2.

[3] Sur la nature et le fonctionnement des modèles de langage : v. Tom B. Brown et autres, « Language Models are Few-Shot Learners », 34th Conference on Neural Information Processing Systems (NeurIPS 2020), Vancouver, Canada ; Stéphanie Lin et autres, « TruthfulQA: Measuring How Models Mimic Human Falsehoods », Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics Volume 1: Long Papers, pages 3214-3252, 22-27 mai 2022 ; Ziwei Ji et autres, « Survey of Hallucination in Natural Language Generation », ACM Computing Surveys, Vol. 55, No. 12, Article 248, janvier 2023. Ces modèles génèrent des séquences de mots par calcul de probabilités conditionnelles sur un corpus d'entraînement, processus fondamentalement distinct d'un raisonnement logique ou d'une vérification factuelle.

[4] CJA, art. R. 222-1, 7° : rejet des requêtes ne comportant que des moyens non assortis des précisions permettant d'en apprécier le bien-fondé.

[6] Cour suprême de la Colombie-Britannique, 26 février 2024 :une avocate a été condamnée à payer les frais de la partie adverse pour avoir cité deux affaires inexistantes générées par l'intelligence artificielle, IciRadio Canada, 27 février 2024.

[7] Cour suprême de New York, Ader v. Ader, 1er octobre 2025, Index N° 653917/2024 : le problème ne réside pas dans l'usage de l'IA mais dans l'abandon par les avocats de leur responsabilité de garantir l'exactitude de leurs déclarations factuelles et juridiques devant la juridiction.

[10] CJUE, 1er août 2025, aff. jointes C-636/23 et C-637/23, W c/ Belgique et X c/ État belge N° Lexbase : B1514BC3 concernant l'interprétation de la directive 2008/115/CE du Parlement européen et du Conseil du 16 décembre 2008 relative aux normes et procédures communes applicables dans les États membres au retour des ressortissants de pays tiers en séjour irrégulier.

[11]C. civil, art. 1147 (rédaction applicable avant l'ordonnance n° 2016-131 du 10 février 2016 N° Lexbase : L7445MSK).

[12] Cass. civ. 1, 14 mai 2009, n° 08-15.899 N° Lexbase : A9822EGU, Bull. civ. I, n° 92.

[13] Anne Moreaux, « IA : Christiane Féral-Schuhl milite pour les avocats s’en emparent », Affiches parisiennes, 3 octobre 2024.

[14] Article 1.3 du RIN « Respect et interprétation des règles », paragraphe deux : « L’avocat exerce ses fonctions avec dignité, conscience, indépendance, probité et humanité, dans le respect des termes de son serment. »

[15]Article 66-5 de la loi n° 71-1130 du 31 décembre 1971 modifiée : couverture du secret professionnel pour toutes les consultations, correspondances et pièces du dossier confiées par le client à son avocat.

[16] Article 2.1 « Principes », premier paragraphe : « L’avocat est le confident nécessaire du client. ».

[17] Nous attirons l’attention sur le fait les dispositions du droit américain sont susceptibles d’être appliquées en dehors des frontières des États-Unis à des personnes physiques et morales de pays étrangers. C’est ce qui est dénommé l’extraterritorialité du droit américain qui s’applique notamment à l’utilisation de sa monnaie et aux grandes entreprises américaines qui dominent le marché du numérique.

[18] Patrick Lingibé, « Risques et solutions : la cybersécurité et la souveraineté numérique pour les avocats à l’heure du cloud », Actu-Juridique.fr, 18 août 2025.

[19] Conseil national des barreaux, Rapport RP-2026-001, page 7-9. La pseudonymisation consiste à remplacer les données directement identifiantes par des données indirectement identifiantes. L'anonymisation, définie par la CNIL, rend toute identification irréversiblement impossible.

[20] L'article 184 du décret n° 91-1197 du 27 novembre 1991 modifié énumère les peines disciplinaires : avertissement, blâme, interdiction temporaire d'exercer d'une durée maximale de trois ans et radiation.

[21] S.D.N.Y., 22 juin 2023, Mata v. Avianca, Inc., No. 22-cv-1461 (PKC). Les avocats MM. Schwartz et LoDuca ont produit un mémoire contenant six références fictives générées par ChatGPT.

[22] C. civil, art. 1231-1 N° Lexbase : L0613KZQ : « Le débiteur est condamné, s'il y a lieu, au paiement de dommages et intérêts soit à raison de l'inexécution de l'obligation, soit à raison du retard dans l'exécution, s'il ne justifie pas que l'exécution a été empêchée par la force majeure. »

[25] Practice Direction (Artificial Intelligence) du Lord Chief Justice du Royaume-Uni, 20 décembre 2023 : obligation de révéler l'usage de l'IA générative, d'indiquer les outils utilisés et de certifier que le contenu a été vérifié par un professionnel.

[26] Conseil national des barreaux, Rapport RP-2026-001, page 21. La clause recommandée précise que les outils d'IA « n'interviennent qu'à titre d'assistance technique » et ne remplacent « en aucun cas l'analyse, le raisonnement et le jugement professionnels de l'Avocat, qui restent exclusivement humains ».

[27] Règlement (UE) n° 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données N° Lexbase : L0189K8I, entré en vigueur le 25 mai 2018 : obligation de recourir uniquement à des sous-traitants présentant des garanties suffisantes quant à la mise en œuvre de mesures techniques et organisationnelles appropriées.

[28] Décret n° 2023-552 du 30 juin 2023 portant Code de déontologie des avocats N° Lexbase : L4042MYD, article 7, alinéa 3 : « l’avocat ne peut accepter l'affaire d'un nouveau client si le secret des informations données par un ancien client risque d'être violé. »

[29] Article 10, alinéa quatre, de la loi n° 71-1130 du 31 décembre 1971 modifié : « Les honoraires tiennent compte, selon les usages, de la situation de fortune du client, de la difficulté de l'affaire, des frais exposés par l'avocat, de sa notoriété et des diligences de celui-ci. ».

[30] Article 11.2 du RIN, « Éléments de la rémunération : La rémunération de l’avocat est fonction, notamment, de chacun des éléments suivants conformément aux usages : - le temps consacré à l’affaire, - le travail de recherche, - la nature et la difficulté de l’affaire, - l’importance des intérêts en cause, - l’incidence des frais et charges du cabinet auquel il appartient, - sa notoriété, ses titres, son ancienneté, son expérience et la spécialisation dont il est titulaire, - les avantages et le résultat obtenus au profit du client par son travail, ainsi que le service rendu à celui-ci, - la situation de fortune du client. ».

[31] Article 10, alinéa 4, de la loi n° 71-1130 du 31 décembre 1971 modifiée portant réforme de certaines professions judiciaires et juridiques ; article 11 du RIN. V. Hélène Laudic-Baron, vice-présidente du Conseil national des barreaux : « Les enjeux du recours à l'IA à l'égard du respect des règles déontologiques de la profession d'avocat », L'observateur de Bruxelles, 2024/3, n° 137.

[35] Règlement (UE) n° 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act), entré en vigueur le 1er août 2024. Son article 6, combiné à l'annexe III, classe les systèmes d'IA utilisés par les autorités judiciaires parmi les systèmes à haut risque.

[36] CE, 27 juillet 2001, n° 191706 N° Lexbase : A2967AUG.

[37] Conseil national des barreaux, Rapport RP-2026-001, conclusion : propos de Madame Hélène Laudic-Baron, vice-présidente du CNB : « La déontologie et la responsabilité restent des atouts concurrentiels inégalables. Ainsi, l'avocat augmenté par les outils d'IA reste le seul interlocuteur de confiance tant dans le conseil que dans l'accompagnement juridique ».

newsid:493989

Cookies juridiques

Considérant en premier lieu que le site requiert le consentement de l'utilisateur pour l'usage des cookies; Considérant en second lieu qu'une navigation sans cookies, c'est comme naviguer sans boussole; Considérant enfin que lesdits cookies n'ont d'autre utilité que l'optimisation de votre expérience en ligne; Par ces motifs, la Cour vous invite à les autoriser pour votre propre confort en ligne.

En savoir plus