Le Quotidien du 4 janvier 2024

Le Quotidien

Avocats/Déontologie

[Le point sur...] Avocats et modèles génératifs - Réflexions sur une utilisation responsable et déontologique

Lecture: 40 min

N7851BZS

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/103598645-edition-du-04012024#article-487851
Copier

par Warren Azoulay, Avocat au barreau de Marseille, Docteur en Droit Pénal & Sciences Criminelles, Enseignant-Chercheur Université Aix-Marseille

Le 05 Janvier 2024

« Les principes essentiels de la profession guident le comportement de l’avocat en toutes circonstances.

L’avocat exerce ses fonctions avec dignité, conscience, indépendance, probité et humanité, dans le respect des termes de son serment.

Il respecte en outre, dans cet exercice, les principes d’honneur, de loyauté, d’égalité et de non‑discrimination, de désintéressement, de confraternité, de délicatesse, de modération et de courtoisie.

Il fait preuve, à l’égard de ses clients, de compétence, de dévouement, de diligence et de prudence. »

1. Introduction. Se plonger dans une écriture que l’on dédie aux mathématiques, à l’informatique théorique, aux questions de logique, ou encore aux sciences cognitives et techniques n’a rien de nouveau. Depuis les premiers balbutiements de la pensée humaine, l’exploration des concepts mathématiques a toujours été une quête destinée à comprendre le fonctionnement du monde qui nous entoure. C’est en revanche au cours du XXe siècle que l’avènement de l’informatique et des techniques numériques a radicalement transformé notre approche de la résolution de problèmes complexes.

L’évolution des machines, des paradigmes de calcul et l’étude des révolutions scientifiques ont ouvert la voie à une méthode dont l’expansion ne cesse de s’intensifier : l’intelligence artificielle. De la théorie des automates aux premiers ordinateurs, en passant par les pionniers de l’apprentissage automatique, l’histoire de l’intelligence artificielle est marquée par des avancées profondes et des défis intellectuels toujours plus ambitieux.

Elle ne se limite pas à une simple fusion des mathématiques, de la statistique et de l’informatique, mais représente une quête incessante dont la prétention est de doter les machines de la capacité de penser, de façon fort différente de la pensée humaine et, de son concept controversé en philosophie, d’apprendre et de résoudre des problèmes de manière similaire, voire spectaculairement supérieure, à celle des êtres humains.

L’on peut même lire un morceau de cette histoire captivante dans les travaux du mathématicien perse Muhammad Ibn Mūsā al‑Khuwārizmī [1], auteur au IXe siècle du Livre de l’addition et de la soustraction d’après le calcul indien, qui établissait une classification des algorithmes existants et utilisés depuis l’Antiquité [2]. Le nom d’alKhuwārizmī aurait alors donné le mot « algorithme », attesté en français dès 1230 dans sa forme archaïque « augorisme » [3] visant à qualifier une « suite d’opérations ordonnées sur un nombre plus ou moins important de données » [4] afin d’obtenir un résultat déterminé.

Quant aux recherches théoriques contemporaines sur l’apprentissage automatique, celles‑ci démarrent il y a plus d’un demi‑siècle, en France comme outre‑Atlantique. Les modèles génératifs existeraient donc depuis des décennies [5]. En 1950 déjà, alors qu’il travaillait sur la décidabilité en arithmétique, c’est‑à‑dire sur des problèmes de décision, Alan Turing considérait que « d’ici cinquante ans, il n’y aura plus de moyen de distinguer les réponses données par un homme ou un ordinateur » [6].

Nous y arrivons, et l’on a pu lire, dans la dernière édition du Manuel d’introduction générale au droit des professeurs François Terre et Nicolas Molfessis que si ces métiers du droit, qu’ils soient avocat, notaire, magistrat, commissaire de justice, commissaire de police ou autres, sont jusqu’ici pratiqués par des humains, « l’essor de l’intelligence artificielle et les performances de ChatGPT incitent à reconsidérer cette donnée fondamentale, si évidente qu’elle ne méritait pas même, jusqu’alors d’être soulignée » [7].

Génération d’œuvres d’art, de musiques, de contrats, de conclusions, et même de jurisprudences, si la demande est formulée ou que l’algorithme en ressent la nécessité pour argumenter, les possibilités offertes par l’intelligence artificielle ne semblent plus avoir de limites, y compris dans le domaine juridique. Techniques basées sur des algorithmes avancés destinés à rédiger des contrats, répondre à des courriels, résumer des procès‑verbaux, chiffrer des préjudices ou encore générer des consultations juridiques, les fantasmes et les retours utilisateurs foisonnent sur ces outils, notamment depuis la mise à disposition de la première version de ChatGPT [8], générateur de contenu spécialisé dans le dialogue et développé par la société OpenAI [9], mis à disposition du grand public en début d’année 2023.

L’intelligence artificielle de ces outils étant toutefois plus performante à mesure qu’elle intègre de la donnée, et devenant rapidement une boîte noire complexe dont il est retors, pour ne pas dire impossible, de savoir la façon dont elle fonctionne, l’utilisation des modèles génératifs interroge directement l’avocat tant dans le processus d’alimentation de la machine que dans la réutilisation de ses productions, lorsqu’il la passe au filtre de sa responsabilité (I) et de sa déontologie (II).

I. L’avocat et les modèles génératifs : une responsabilité double

La production de contenus juridiques par l’avocat utilisateur de modèles génératifs interroge directement sa responsabilité civile professionnelle lorsqu’ils les emploient, parfois même sans réellement savoir la façon dont ils fonctionnent (A). Omniprésente lorsqu’il s’agit de réguler les comportements sociaux, la pénalité qui entoure le numérique, les traitements automatisés de données et la protection des données personnelles, nécessite une incursion dans le volet répressif du mésusage de ces outils nouveaux (B).

A. Recto : responsabilité civile professionnelle et modèles génératifs

2. Une responsabilité jeune. La question de la responsabilité civile de l’avocat n’est pas tellement ancienne. Elle est même plutôt récente. Contrairement à d’autres sujets connus des juristes, qu’il s’agisse des praticiens ou de la doctrine, et qui font l’objet de controverses depuis des siècles, les conditions d’exercice de la profession d’avocat ont été profondément modifiées depuis, notamment, la loi du 31 décembre 1971 [10]. Avant cette date, l’avocat ne représentait son client que de façon relativement exceptionnelle. Il n’intervenait pas non plus, ou très peu, par exemple, dans le maniement des fonds.

La principale explication est historique en ce qu’existait la cohabitation de deux professions, celle d’avocat d’une part, et celle d’avoué d’autre part. De cette division des tâches résultait un transfert de responsabilité supportée par l’avoué seul. C’est qu’en effet, la représentation en justice consiste à assurer l’exécution d’un mandat, le mandataire étant tenu de rendre compte. Or, historiquement, l’avocat, homme libre, ne représentait pas le citoyen en justice. Il l’assistait.

Seconde conséquence de cette séparation très nette, la déontologie de l’avocat lui interdisait formellement d’accepter toute procuration, sauf à titre exceptionnel, telle que celle qui lui aurait été donnée à titre gracieux par un parent. La question de l’indépendance de l’avocat vis‑à‑vis de son client avait donc un sens bien plus puissant que celui qu’il peut avoir aujourd’hui.

Les questions relatives à sa responsabilité n’étaient donc pas aussi fréquentes, contrairement à la responsabilité disciplinaire qui, pour sa part, est bien plus ancienne.

Au‑delà du caractère particulièrement jeune des textes existant sur la question, ses rédacteurs n’ont pas été des plus exhaustifs quant aux occurrences que l’avocat peut être amené à rencontrer. C’est donc parfois à mesure que les difficultés se présentent, et doivent être tranchées, que la jurisprudence en la matière se développe. Il en résulte, naturellement, une certaine imprévisibilité de ce qui pourrait constituer une faute, un préjudice, des critères permettant d’apprécier le lien de causalité entre les deux, de la sanction qui pourrait être prononcée et, partant, un problème de sécurité juridique pour l’avocat.

La question de l’utilisation, de la non‑utilisation, ou de la mauvaise utilisation, des outils d’intelligence artificielle générative s’inscrit directement dans le droit fil de cette difficulté.

3. Une profusion d’obligations et de responsabilités pour l’avocat. Certaines obligations auxquelles sont tenus les avocats sont d’ordres textuelles. Ainsi, par exemple, l’avocat tient de l’article 4 de la loi du 31 décembre 1971, précitée [11], le pouvoir et le devoir d’accomplir au nom de son mandant les actes de procédure. C’est la représentation en justice. Il a également le pouvoir et le devoir de conseiller la partie et de présenter sa défense sans l’obliger [12]. C’est l’assistance en justice. Il est également précisé que « le mandat de représentation emporte mission d’assistance, sauf disposition ou convention contraire » [13].

D’autres obligations ont trouvé naissance dans les prétoires, et font directement référence aux principes inscrits dans le Règlement Intérieur National de la profession d’avocat (RIN) N° Lexbase : L4063IP8. Ainsi, à titre d’illustration, la jurisprudence a pu énoncer il y a près d’un siècle, en 1932, le principe selon lequel l’avocat était tenu de choisir le bon moyen, une obligation faisant directement écho au principe de compétence envers le client, lequel a été inséré dans le RIN par un décret du 12 juillet 2005 relatif à la déontologie de l’avocat [14].

De cette façon, un avocat qui n’aurait pas tiré rapidement les enseignements d’un revirement de jurisprudence, pourrait voir sa responsabilité civile être retenue tel qu’il a été décidé dans l’arrêt d’assemblée plénière « Costedoat » du 25 février 2000 [15].

Le parallèle est aisément empruntable lorsque l’on sait que les données sur lesquelles se base ChatGPT, solution sur laquelle se base son pendant de Microsoft, Copilot, pour répondre aux requêtes utilisateurs, datent au mieux de janvier 2022. Il suffit alors de lui demander, à la date de publication de ce présent article, « qui est le nouveau Président du Conseil national des barreaux en France ? » pour que l’agent conversationnel réponde :

« Je n'ai pas d'informations en temps réel, car ma dernière mise à jour de données est en janvier 2022. À cette date, la présidente du Conseil national des barreaux (CNB) en France était Christiane Féral‑Schuhl. »

Outre la non mise à jour de sa base de données, nous relèverons qu’au 1er janvier 2022, le Président du CNB était Maître Jérôme Gavaudan, élu pour la mandature 2021‑2023, et que l’information selon laquelle la mandature du 1er janvier 2024 au 31 décembre 2026 sera exercée par Maître Julie Couturier lui est inconnue. ChatGPT a donc non seulement un problème de mise à jour, mais ce qu’il énonce est également faux.

En partant de l’affirmation selon laquelle un avocat qui ne tiendrait pas compte « rapidement » d'un revirement de jurisprudence risque de voir sa responsabilité civile professionnelle être retenue, il est concevable d'envisager que le conseil qui use d’un outil doté d'informations obsolètes et de résultats hasardeux engage sa responsabilité lui aussi.

4. Choix du bon moyen et responsabilité civile. S’il pèse sur l’avocat une responsabilité quant à la prestation qu’il fournit, qui se doit d’être de qualité, se pose la question de savoir s’il s’agit d’une obligation de moyen ou de résultat, tout en sachant qu’une position radicale dans la réponse n’existe pas. L’on pourrait considérer, par exemple, que lorsqu’il fournit une prestation en matière de conseil, lors d’une consultation, l’avocat n’est tenu que d’une obligation de moyen, alors qu’en matière de rédaction d’actes, il serait tenu d’une obligation de résultat. La jurisprudence a toutefois retenu qu’en matière de rédaction d’actes, l’avocat pouvait n’être tenu que d’une obligation de moyen [16].

Seconde interrogation qui nous intéresse plus particulièrement : comment l’obligation de choisir les moyens les plus appropriés pour défendre au mieux les intérêts de son client ont‑ils évolués et évolueront‑ils une fois passés par le prisme des avancées technologiques, auxquelles l’avocat est forcément tenu de s’adapter et de mesurer si elles améliorent sa pratique ? Si, par exemple, une institution représentative de la profession, un barreau, un cabinet ou un avocat souscrit à un outil doté d’intelligence artificielle, ou bien que cet outil lui est librement accessible par quelque moyen que ce soit, comme c’est le cas avec ChatGPT et comparses, cela implique‑t‑il de considérer l’outil comme faisant partie intégrante de son arsenal professionnel et, partant, qu’il est formé pour l’utiliser conformément au principe de compétence ? La non utilisation de l’outil, ou son mésusage, soulèveraient d’évidentes questions de responsabilité lorsque l’avocat n’utilise pas ces ressources au soutien des intérêts de ses clients. titre illustratif, sur un autre volet qu’est la contestation d’honoraires, l’on a pu voir émerger dans le contentieux états‑unien des arguments nouveaux selon lesquels l’avocat aurait pu contenir sa facturation au temps passé à la recherche jurisprudentielle en utilisant des outils dotés d’intelligence artificielle.

C’est encore à la lumière de la prudence que l’utilisation des modèles génératifs, pour ne parler que d’eux, doit être filtrée, a fortiori lorsque nous lisons leurs conditions d’utilisation peu rassurantes mais, et c’est à mettre à leur crédit, limpides.

5. OpenAI (ChatGPT) et conditions générales d’utilisation. Dans sa partie « exclusion de garantie », la société OpenAI chasse l’équivoque en ce qu’elle énonce qu’en utilisant l’outil ChatGPT, elle fournit un service « en l’état », sans « aucune garantie ». Elle décline également toute « garantie de qualité, d’absence de contrefaçon et de jouissance paisible ». Elle ne garantit pas non plus « que les services seront exacts ou exempts d’erreurs, ni que tout contenu sera sécurisé ou ne sera pas perdu ou altéré ». Puis, il est conclu en ces termes :

« Vous acceptez et convenez que toute utilisation des résultats de notre service se fait à vos risques et périls. » 

6. Google (BARD) et conditions générales d’utilisation. L’outil de Google, pendant de ChatGPT, ne dispose pas de conditions d’utilisation propres. Il existe tout de même un « avis de confidentialité » spécifique à BARD, décrivant la façon dont Google traite les données des utilisateurs de l’outils. D’emblée est précisé, en gras :

« Veuillez ne pas saisir d'informations confidentielles dans vos conversations avec BARD, ni d'informations que vous ne souhaiteriez pas qu'un réviseur consulte ou que Google utilise pour améliorer ses produits, services et technologies de machine learning. »

L’on y apprend également que les conversations qu’un utilisateur a avec BARD peuvent être examinées, ou annotées, par des réviseurs humains et que celles‑ci ne sont pas supprimées même lorsque l’utilisateur efface son activité BARD. Ces dernières demeurent stockées, quand bien même l’utilisateur aurait‑il suspendu l’enregistrement de son activité BARD.

7. Microsoft (Copilot – Bing Chat) et conditions générales d’utilisation. Peu ou prou similaires, les conditions d’utilisation de Copilot prévoient que l’outil de Microsoft :

« n’est pas exempt d’erreurs, peut ne pas fonctionner comme prévu et peut générer des informations incorrectes. Vous ne devez pas vous fier à Copilot, et vous ne devez pas utiliser Copilot pour obtenir des conseils d’aucune sorte. Votre utilisation de Copilot est à vos propres risques ». 

La firme de Redmond précise encore qu’il ne peut en aucun cas être garanti que Copilot « n’enfreint pas les droits d’un tiers dans toute utilisation ultérieure du contenu que vous pouvez utiliser (y compris, mais sans s’y limiter, le droit d’auteur, marques déposées, droits à la vie privée et à la publicité, et diffamation) ».

8. Limitation de responsabilité. L’avocat pourrait être tenté d’appliquer à la lettre un principe de transparence, qui ne fait pas partie des principes du serment, essentiels [17] ou envers le client, et informer son client de l’utilisation d’outils dotés de modèles génératifs dans le cadre du traitement de son dossier, afin de cimenter sa relation de confiance avec lui. L’occasion lui serait alors donnée d’insérer contractuellement des clauses limitatives de responsabilité liées aux problèmes de sécurité des données, au secret professionnel, ou encore aux erreurs produites uniquement par l’intelligence artificielle. L’introduction de telles clauses nécessite toutefois une analyse prudente en ce qu’elles pourraient créer un déséquilibre injustifié entre les droits et les obligations des parties. La Cour de justice de l’Union européenne a en ce sens pu considérer que le fait, pour un avocat, de limiter sa responsabilité à l’égard de son client constituait une clause abusive [18]. C’est qu’en effet, la convention d’honoraires entre l’avocat et son client se doit de respecter les principes du droit de la consommation.

Une autre difficulté apparaît lorsque l’on sait que l’intervention de plusieurs avocats dans un dossier les rend coresponsables [19] de leurs erreurs.

9. Responsabilité pénale. Enfin, puisqu’il pèse sur lui une double responsabilité dans l’exercice de sa fonction, l’avocat peut également voir sa responsabilité pénale être engagée dans certains cas. Les infractions en question sont éparses, et se retrouvent dans diverses sources, qu’il s’agisse du Code pénal, de celui relatif à la propriété intellectuelle, ou encore des divers textes de droits internes et européens sur la question, pour ne citer qu’eux.  

B. Verso : responsabilité pénale de l’avocat et modèles génératifs

10. Entrainement de modèles et droits d’auteur. L’article L111‑1 du Code de la propriété intellectuelle N° Lexbase : L3636LZP prévoit que « l'auteur d'une œuvre de l'esprit jouit sur cette œuvre, du seul fait de sa création, d'un droit de propriété incorporelle exclusif et opposable à tous ». Toutefois, la seule existence en droit positif d’un texte ne saurait suffire à garantir la protection effective des droits d’auteur. Sa mise en œuvre requiert une compréhension approfondie des circonstances spécifiques de chaque cas, pour conférer au droit son plein potentiel protecteur. La force du droit d’auteur réside non seulement dans sa reconnaissance normative, mais également dans la capacité des acteurs du système juridique et judiciaire à interpréter et à appliquer le texte au cas d’espèce qui leur est soumis. Ainsi, l’efficacité de la protection des droits d’auteurs dépend de la clarté des circonstances des cas, et de la capacité des juridictions et autorités administratives de saisir la complexité inhérente à la propriété intellectuelle.

Le fonctionnement d’un modèle génératif, qu’il s’agisse de réseaux neuronaux ou d’autres approches d’intelligence artificielle, connaît une dichotomie cruciale entre la phase d’apprentissage, c’est‑à‑dire d’entraînement de la solution, et la phase de production, c’est‑à‑dire de génération de contenu. Durant la première, le modèle assimile des données, apprend des schémas ou encore une façon de faire, et ce, afin de développer ses capacités à générer un contenu similaire. Un défi émerge alors lorsqu’il s’agit de garantir que ces données d’entrainement respectent les droits de leurs auteurs et les prescriptions textuelles. Le risque réside dans la possibilité que le modèle soit entraîné avec des données protégées, soulevant des questions sur la légitimité et la légalité de la production ultérieure du modèle. Une préoccupation supplémentaire découle du fait que seule la société fournissant l’outil connaît la nature spécifique des données utilisées, ainsi que leur origine, pendant l’entraînement. Cette opacité soulève d’évidentes préoccupations éthiques et pose un défi de transparence dans l’utilisation des modèles génératifs, soulignant la nécessité d’approches responsables et éthiques dans le développement et la mise en œuvre de ces technologies, à commencer par le fait de former, et de se former.

À titre d’illustration, la loi du 1er août 2006, relative au droit d’auteur et aux droits voisins dans la société de l’information [20], était venue prévoir que les agents publics jouissent sur les œuvres de l’esprit, créées dans l’exercice de leurs fonctions ou d’après les instructions qu’ils ont reçues, d’un droit de propriété intellectuelle exclusif et opposable à tous. Une réserve existe cependant à l’article L131‑3‑1 du Code de la propriété intellectuelle N° Lexbase : L2844HPZ en ce que, dans le cadre de l’accomplissement d’une mission de service public, le droit d’exploitation de l’œuvre peut être, dès la création, cédé de plein droit à l’État, ou faire l’objet d’un contrat de cession dans d’autres cas.

De façon prospective, l’on pourrait ainsi imaginer quelle serait la position de la jurisprudence quant à l’utilisation, par exemple, des conclusions des rapporteurs publics, afin de nourrir des solutions telles que ChatGPT. La même difficulté se pose quant aux mémoires, requêtes et conclusions des avocats, œuvres originales issues de la création intellectuelle, des conseils, qui opèrent nécessairement des choix créatifs et originaux. C’est, en outre, en ce sens que plusieurs auteurs ont assigné OpenAI pour violation du copyright, considérant que l’agent d’OpenAI avait été alimenté par leurs œuvres dès sa première version, GPT‑1, sans leurs consentements.

11. Cybersécurité et responsabilité. Dans ses Normes de sécurité produits, OpenAI affirme s’efforcer « de garantir un développement, un déploiement et une utilisation responsable de l'IA ». Pourtant, la plateforme a bien été victime de plusieurs cyberattaques au cours de l'année 2023 [21], auxquelles elle n’a pas su résister. La dernière en date, particulièrement importante, remonte, à notre connaissance, au mois de novembre 2023 et a été revendiquée, à tort ou à raison, par le groupe Anonymous Sudan. L'attaque a pris la forme d’un déni de service (DDoS), qui consiste à envoyer un nombre massif de requêtes à un serveur afin de le rendre inaccessible. Cette attaque a provoqué une panne de plusieurs heures de la plateforme ChatGPT et a continué de mettre en lumière ses failles de sécurité.

L’on pouvait également apprendre, dans le courant de l’année 2023, que ChatGPT avait été la cible de piratages informatiques et que, par exemple, si les ingénieurs de Samsung s’appuient sur l’outil pour travailler, des données secrètes auraient été divulguées par trois fois lors de requêtes envoyées à ChatGPT. Plus problématique encore, plusieurs fuites de données sensibles ont été constatées du côté d’OpenAI, qu’il s’agisse des titres de conversations créées, mais également du contenu des requêtes qui lui ont été adressées ou encore des données bancaires des abonnés à sa version payante.

Du côté de l’entrainement du modèle, a également été mis en cause l’origine des données elles‑mêmes de ChatGPT contre qui plusieurs plaintes ont été déposées pour avoir aspiré les données personnelles de centaines de millions de personnes. La méthode utilisée dite de scrapping constituerait, en France, une extraction frauduleuse de données contenues dans un système de traitement automatisé prévue et réprimée par l’article 323‑3 du Code pénal N° Lexbase : L0872KCB de cinq années d’emprisonnement de 150.000 euros d’amende, la sanction pouvant aller jusqu’à sept années d’emprisonnement et 300.000 euros, lorsque le STAD est mis en œuvre par l’État. Le fait de bénéficier de ces données, en connaissance de cause et par tout moyen, consommerait l’infraction de recel prévue par l’article 321‑1 du même code N° Lexbase : L1940AMS.

Un autre point épineux apparaît à la lecture du RGPD N° Lexbase : L0189K8I en ce que son article 32 pose le principe selon lequel « le responsable du traitement et le sous‑traitant mettent en œuvre les mesures techniques et organisationnelles approuvées afin de garantir un niveau de sécurité adapté au risque ». C’est en outre de cette façon que nous apprenions en janvier 2021 qu’une entreprise, victime d’une attaque par credential stuffing [22], avait été considérée comme responsable au titre de cette disposition en raison de ses mesures de cybersécurité internes jugées insuffisantes. L’autorité administrative avait prononcé une condamnation à 150 000 euros d’amende pour le responsable de traitement, et 75 000 euros d’amende pour son sous‑traitant [23].

En tant que responsable du traitement, l'avocat est donc investi de la responsabilité de garantir la sécurité et la confidentialité des données personnelles qu'il traite. L'article 32 du RGPD impose l'obligation de mettre en place des mesures techniques et organisationnelles appropriées pour prévenir les risques liés au traitement des données, et cela inclut la sécurisation des systèmes informatiques, la gestion des accès, la formation du personnel, ainsi que la mise en œuvre de procédures adaptées pour faire face à d'éventuelles violations de données. La négligence dans la mise en œuvre de ces mesures expose l'avocat, dont la responsabilité pourra être engagée, notamment en cas de violation de données qui aurait été transmise à un modèle génératif dont il ignore tout de la sécurité. Cette responsabilité s’étend également aux agissements du sous‑traitant puisque l’article 28 du règlement européen lui impose de s’assurer que ce dernier « a mis en place des mesures techniques et organisationnelles adaptées lui permettant de respecter la sécurité et la confidentialité des données » de sorte que « la conclusion d’un contrat est obligatoire entre l’avocat et ses sous‑traitants et doit réserver une faculté d’audit pour permettre de vérifier la mise en œuvre conforme des mesures précitées » [24].

En d’autres termes, en cas de violation de données, ou de toute attaque informatique, sa responsabilité sera recherchée.

12. Traitement de données involontaire et finalité du recueil de données client. L’utilisation de modèles génératifs implique nécessaire un traitement de données personnelles du client. Elle soulève alors des interrogations relatives à la protection de la vie privée, au respect du RGPD et des lois des 21 juin 2004 [25], du 6 août 2004 [26], et du 20 juin 2018 [27], pour ne citer qu’elles, venues créer des infractions spéciales en la matière. Puisque le modèle génératif a besoin de recevoir des informations concernant le client afin de répondre au mieux à la demande de son utilisateur avocat, apparaît un risque de détournement, certes involontaire, de la finalité pour laquelle le client a initialement consenti à la transmission, à la conservation et au traitement de ses données. Tel serait le cas d’un client fournissant des informations dans le cadre de son dossier, mais dont l’utilisation pour la génération automatisée de documents juridiques dépasserait la portée initialement convenue et présentée à ce dernier.

Ainsi, le fait de procéder ou faire procéder à des traitements de données à caractère personnel en méconnaissance des formalités préalables à leur mise en œuvre prévues par la loi est puni de cinq années d’emprisonnement et de 300 000 euros d’amende, quand bien même ces traitements auraient été opérés par simple négligence [28]. De la même façon, l’avocat qui recueille des informations sur son client et, de façon plus générale, tout type de données sur lui, doit l’en informer. Il est également tenu de l’informer du traitement opéré sur ces données et de la finalité de ce traitement, qui doit correspondre aux objectifs poursuivis par l’avocat. Dans le cas contraire, le fait de détourner ces informations de leur finalité, à l’occasion de leur enregistrement, de leur classement, de leur transmission ou de toute autre forme de traitement, est sanctionné de cinq années d’emprisonnement et de 300 000 euros d’amende selon l’article 226‑21 du Code pénal N° Lexbase : L4485GTB.

II. Modèles génératifs et déontologie : à la croisée des chemins

Prudence, compétence, loyauté, conscience, modération, l’ensembles des principes du RIN sont mis à l’épreuve lorsque l’avocat est utilisateur de modèles génératifs, qu’il s’agisse des principes du serment, des principes essentiels, ou des principes envers le client (A). Par ailleurs, la question du secret professionnel se trouve une fois de plus, si besoin était, au cœur des préoccupations de la profession (B).

A. Modèles génératifs et principes : une quête d’harmonie délicate

13. Singularités anciennes et autonomie procédurale. Contrairement à la question de la responsabilité civile professionnelle, celle de la déontologie de l’avocat est plus ancienne. Elle l’est presque autant que la profession elle‑même et présente pléthore de singularités.

La première d’entre elle réside dans son autonomie puisqu’il est de longue date considéré et affirmé avec force que la faute déontologique serait totalement autonome. Il est vrai que l’action disciplinaire n’est pas une action civile. Elle n’est pas une action pénale non plus d’ailleurs. Elle a un caractère professionnel et ainsi, toute faute que peut commettre l’avocat n’est pas susceptible de constituer une faute déontologique, alors qu’elle peut constituer une faute civile ou une faute pénale. Dans ce dernier cas, le lien entre faute déontologique et faute pénale est toutefois davantage ténu en ce qu’il est difficilement concevable, pour un avocat, de consommer une faute pénale sans manquer à l’un de ses principes, de sorte que l’on pourrait affirmer que tout manquement pénal est, à tout le moins, une atteinte au principe d’honneur faisant partie des principes essentiels de la profession. Il est en revanche parfois directement fait référence à des manquements pénaux consommant ipso facto des fautes déontologiques. Ainsi, par exemple, l’article 22 de la loi du 31 décembre 1971, précitée, énonce que les conseils de discipline, ou le conseil de l’Ordre du barreau de Paris siégeant comme conseil de discipline, connaissent « des infractions et fautes commises par les avocats ».

Cette notion de « faute » n’ayant jamais été clairement définie et parfaitement circonscrite, l’interprétation large qui en est faite par la jurisprudence permet d’affirmer que l’avocat est soumis à un régime d’infraction quasiment illimité. Peu importe le moment, peu importe l’endroit, tout fait de l’avocat peut constituer une faute déontologique.

La deuxième singularité de la faute déontologique par rapport à la faute comme élément nécessaire à l’engagement de la responsabilité civile professionnelle de l’avocat, réside dans l’absence d’existence d’un préjudice pour la caractériser. En effet, la faute disciplinaire peut exister indépendamment de l’émergence de tout préjudice. Si l’existence de ce préjudice peut être prise en considération dans le prononcé de la sanction et dans le quantum de la sanction disciplinaire prononcé, il n’est pas une condition de la poursuite. Ainsi, l’absence de faute civile ne signifie en aucune façon l’absence de faute déontologique, ce que la Cour de cassation a pu énoncer de façon limpide [29].

De la même manière, la faute de nature pénale est totalement indépendante de la faute disciplinaire et les fautes déontologiques, qui constituent un manquement au devoir imposé à l’avocat, n’ont pas mécaniquement d’effet en droit civil et en droit pénal. L’adage selon lequel « le criminel tien le civil en l’état », lui‑même issu de l’article 4 alinéa 2 du Code de procédure pénale N° Lexbase : L9885IQ8, ne s’applique pas à la matière disciplinaire tel que l’a souligné le quai de l’Horloge [30]. Une faute peut donc être constituée sur le plan déontologique, sans l’être sur le plan pénal, au même titre qu’une infraction pénale peut être prescrite, mais être poursuivie sur le terrain disciplinaire.

Une troisième singularité est attachée à la prescription des fautes en matière disciplinaire. La loi du 22 décembre 2021, pour la confiance dans l’institution judiciaire, n’a toujours pas prévue d’effacement du caractère fautif de comportement par l’effet du temps, de sorte que les fautes déontologiques conservent un caractère imprescriptible, une exception dans le paysage juridique français.

Enfin, dernière singularité, la poursuite pénale est tout à fait indépendante de la poursuite disciplinaire, de sorte que la relaxe au cours de la première ne saurait faire obstacle à la poursuite de la seconde. Un paradoxe retors existe même au sein de ce pseudo principe d’autonomie de l’action disciplinaire, par rapport à l’action pénale, en ce qu’il est des espèces jurisprudentielles où la faute de nature déontologique a parfois servi de fondement à la reconnaissance d’une faute civile ou pénale. Le juge a donc la possibilité d’utiliser une règle déontologique, ou plutôt un manquement à celle‑ci, pour qualifier une faute civile [31].

14. Prudence et compétence. L’avocat observe un principe de prudence envers le client qu’il tient de l’article 1.3 du RIN. S’il choisit d’intégrer les modèles génératifs de contenu dans sa pratique, il est un impératif qu’il procède à une évaluation rigoureuse des résultats produits par ces outils. Cette prudence exige alors que l’avocat s’assure que les documents générés respectent l’ensemble des règles déontologiques, mais également les prescriptions légales existantes. En effet, malgré l’effet parfois spectaculaire des résultats des outils dotés de méthodes d’apprentissage profond, qu’il s’agisse de ChatGPT, de BARD ou encore de Copilot, ces derniers connaissent aussi de sérieuses limites. L’avocat prudent est donc un avocat conscient de la possible production de documents inappropriés, ou tout simplement faux.

Certes, la version 4 de ChatGPT aurait‑elle réussie l’examen du barreau américain en se plaçant parmi les 10 % des meilleurs candidats [32]. De la même façon, la start‑up « DoNotPay » (DNP), société créée en 2015 par Joshua Browder, a voulu conduire une expérience devant un tribunal californien pour assister un automobiliste, prévenu, afin qu’il y plaide seul, une sorte de « robot‑avocat » [33] – projet avorté par l’intervention des autorités judiciaires considérant qu’il s’agissait d’une pratique illégale de la profession d’avocat.

Pour autant, pouvait‑on aussi apprendre dans le courant de l’année 2023 que Maître Steven Schwartz, avocat avec plus de trente années de barre au barreau de New‑York, a produit un mémoire intégralement rédigé par ChatGPT dans une affaire l’opposant à une compagnie aérienne. Si, dans ces écritures, l’avocat était parvenu à illustrer son argumentation de plusieurs jurisprudences destinées à conforter sa position, c’est que six d’entre elles n’existaient tout simplement pas et avait été inventées par l’outil d’OpenAI, alors même que ChatGPT prétendait avoir trouvé ces arrêts dans deux bases de données largement connues de la profession. Maître Schwartz avait alors expliqué qu’il n’avait « pas compris que ChatGPT pouvait fabriquer des affaires », et qu’il avait « entendu parler de ce nouveau site, [supposant] à tort qu’il s’agissait d’un super moteur de recherche » .

Cette illustration est patente de ce que la supervision humaine, en l’occurrence celle de l’avocat, est une nécessité dans l’utilisation des modèles génératifs de contenu. Il est exact qu’ils permettent d’automatiser une grande partie du processus de recherche, voire parfois de rédaction, mais il relève de la prudence et du dévouement de rester impliqué dans le travail de rédaction, tout en exerçant un contrôle attentif dans les résultats produits, afin de corriger l’interprétation erronée ou inappropriée que le modèle génératif propose. L’actualisation de connaissances et de compétences est également cruciale pour rester en éveil dans leur utilisation et permet d’intégrer de façon responsable l’intelligence artificielle générative dans son quotidien professionnel, évitant par là même les risques d’atteinte à l’intégrité de sa pratique.

15. Conscience et modération. La conscience impose à l’avocat d’adopter une approche délibérée et réfléchie dans les actions qu’il entreprend au bénéfice du client et de la représentation de ses intérêts. Lorsqu’il s’agit d’user de modèles génératifs, dont nous avons vu le flou qui entourent leurs alimentations, leurs productions, ou encore la seule question de la sécurité des données qu’ils collectent et stockent, cet impératif de conscience prend une dimension particulière. La conscience impose à l’avocat, d’abord, de ne pas recourir seulement à ces outils, mais de le faire en étant doté de la connaissance nécessaire. Cela englobe la compréhension de leurs capacités, de leurs limites, mais aussi des risques techniques, sécuritaires et éthiques qu’ils posent. Leur utilisation doit alors être judicieuse, ce qui répond au principe de modération. Une obligation renforcée est ainsi imposée à l’avocat qui doit savoir ou, c’est selon, qui ne peut pas ne pas savoir. Si la jurisprudence française n’a encore jamais eu à connaître de cas de mésusage des modèles génératifs, l’on a en revanche pu voir, dans le domaine des techniques numériques, un avocat manquer au principe de délicatesse en prenant connaissance d’emails échangés entre ses deux collaboratrices par l’outil de Google, Gmail. L’ordinateur de l’une d’entre elles étant resté allumé sur sa boîte de réception, il avait pris la décision, à leur lecture, de mettre fin à leur contrat de collaboration [35]. La jurisprudence a donc instauré l’équivalence d’une vigilance renforcée à l’égard des conseils, et il a été souligné avec justesse que c’est « la qualité d’avocat qui impose avec davantage de rigueur l’observation du respect du secret des correspondances et de la vie privée »[36].

16. Complétude, clairvoyance et loyauté. Il apparaît donc essentiel que l’avocat ait la pleine conscience de la façon dont fonctionnent les outils d’intelligence artificielle, en l’occurrence les outils générateurs de contenus, et qu’il comprenne ce que la transmission d’informations concernant le client implique sur le terrain du traitement de la donnée pour commencer. Sur ce point, il semble difficile de se dispenser du recueil du consentement du client, dont l’avis doit être recueilli avant de transmettre de telles informations à des sociétés étrangères se trouvant généralement hors Union européenne.

Au‑delà de la seule question de l’utilisation de modèles génératifs, cette étape fondamentale s’inscrit dans le droit fil du respect et de la préservation du lien de confiance qui existe entre le client et son conseil. Une information complète et compréhensible doit lui être fournie, aussi bien quant à l’objectif poursuivi par le partage d’information, que le but du traitement, en passant par les mesures de sécurité mises en place et ses droits en matière de protection des données.

17. Transparence. L’avocat doit alors parfois présenter de façon transparente la manière dont ces outils sont utilisés dans le cadre des services juridiques qu’il fournit, en mettant en évidence les avantages certains qui existent, mais également les limites et les risques potentiels associés à ces techniques numériques, dont les certitudes qui gouvernent les sociétés qui les proposent sont encore très floues. Le client doit également être parfaitement informé de la possibilité de retirer son consentement, afin de conserver un contrôle sur l’utilisation qui est faite de ses données personnelles, toujours pour garantir et renforcer ce lien de confiance essentiel dans la relation avocat‑client.

Animé du principe de compétence et de prudence envers le client, l’avocat doit pour sa part se tenir informé de l’évolution évidente du fonctionnement et de la finalité des modèles génératifs, et ce, afin de garantir au client qu’il reste pleinement maître de l’utilisation des données qui ont été transmises, et de minimiser les risques de perte de contrôle que présentent ces outils lorsqu’ils ne font l’objet d’aucune surveillance humaine.Un outil tel que ChatGPT évolue au fil du temps pour des raisons multiples. Les informations qui lui sont données ne seront pas utilisées de la même façon, et pour les mêmes raisons, à deux instants différents. Confronté à cette utilisation rapidement changeante, ou encore à l’ajout de fonctionnalités nouvelles, l’avocat doit maintenir une veille constante s’il veut pouvoir réévaluer utilement et conserver le contrôle de ce qui est fait des informations qu’il transmet. Régularité et rigueur s’imposent lorsqu’il est question d’agilité et de transparence.

B. Modèles génératifs et secret professionnel : l’avocat ne peut pas tout demander

18. Secret professionnel. Le dernier élément que nous aborderons dans le périmètre de la présente contribution, peut‑être le plus important, concerne le secret professionnel prévu à l’article 2 du RIN, secret dont l’avocat n’est pas détenteur mais garant. Un secret que son confident nécessaire lui remet, et dont il est le gardien. Ce même secret qui est, de très longue date, attaqué et remis en question pour des raisons aussi abondantes que dispersées. L’avocat se doit donc de le défendre, et les vifs débats qui ont animé ce point lors de l’adoption de la loi confiance du 22 décembre 2021 [37] en sont une illustration patente. Paradoxalement, il est aussi parfois négligé, rarement délibérément, souvent parce qu’oublié. Polémiques brulantes, prises de positions médiatiques intenses, discussions de palais ou conversations de cabinet, chaque occasion qui lui est donnée de souffrir est une brèche que ses détracteurs affectionnent d’exploiter avec soin.

L’exemple des correspondances par voie dématérialisée est topique. L’on sait que les machines de la compagnie Google ont besoin d’être alimentées pour s’entraîner, et proposer de nouveaux services. De cette façon, ses règles de confidentialité et conditions d’utilisation énoncent sans aucune équivoque :

« Nous collectons également le contenu que vous créez, importez ou recevez de la part d'autres personnes via nos services. Cela inclut par exemple les e‑mails que vous écrivez ou recevez, les photos et vidéos que vous enregistrez, les documents et feuilles de calcul que vous créez, ainsi que les commentaires que vous rédigez sur YouTube. »

De la même façon, le fait de connecter une adresse email telle que Gmail à un outil comme Outlook donne droit à Microsoft de :

« Lire, rédiger et supprimer des e‑mails dans Gmail », d’« Afficher, modifier, créer et supprimer des fichiers dans Google Drive », d’« Afficher, modifier, télécharger et supprimer définitivement vos contacts », d’« Afficher, modifier, partager et supprimer définitivement tous les agendas auxquels vous pouvez accéder dans Google Agenda », et « consulter et télécharger toutes les adresses e‑mail associées à votre compte Google ».

La première interrogation semble relever de l’évidence en ce qu’elle consiste à se demander comment des outils tels que Gmail peuvent bien être compatibles avec le secret du client dont l’avocat est le gardien ? Il en va de même des conditions d’utilisation de BARD, voisin de ChatGPT, qui énonce explicitement : « Veuillez ne pas saisir d'informations confidentielles dans vos conversations avec BARD, ni d'informations que vous ne souhaiteriez pas qu'un réviseur consulte ou que Google utilise pour améliorer ses produits, services et technologies de machine learning » [38]. Ce problème de collecte des données de ses utilisateurs par ChatGPT était, en outre, l’un des motifs énoncés, parmi d’autres, par le Président de la « CNIL italienne », la Garante, pour en avoir interdit l’accès et fait bloquer le service sur le territoire par une décision du 30 mars 2023 [39].

19. Une utilisation avec délicatesse et modération. C’est peut‑être une nouvelle fois à la délicatesse que l’avocat doit alors se rattacher, principe selon lequel l’avocat fait preuve, dans son activité, « d’une finesse de goût et de jugement très sûre, le caractère d’une personne qui manifeste des qualités de réserve, de discrétion et de prévenance envers autrui » [40]. Cette même délicatesse qui, contrairement à la modération, renvoie aux actes qu’il réalise lorsque la seconde qualifie les paroles qu’il prononce [41], laquelle lui impose de se demander quel est le sens pour lui de l’utilisation d’un générateur de contenu. En tant que starter de page blanche ou d’ « amorce » d’argumentaire, ChatGPT est fantastique. En revanche, s’il est utilisé pour générer des conclusions, des procès‑verbaux, des résumés de textes ou répondre à un confrère [42], alors sa menace envers le secret du client et le secret professionnel est réellement présente.

Si ChatGPT répond effectivement avec de l’aplomb, l’avocat qui questionne doit demeurer alerte des coups qu’il donne, à l’improviste et sans douleur.

Toile de fond tantôt silencieuse, tantôt tumultueuse, sur laquelle se déploie une danse complexe de justice, le secret professionnel doit demeurer la boussole morale de l’avocat, dont le Nord reste l’éthique. Véritable travail de réflexivité sur sa propre activité et sur celle de son cabinet, l’utilisateur de modèles génératifs, qui représentent une opportunité, doit s’auditer lorsqu’il alimente une machine dont il ne connaît ni les intentions, ni les réactions. S’il est envisageable de nourrir ChatGPT après minuit, et de lui donner de l’eau, demeurera toutefois l’insoluble question de savoir à partir de quel degré d’humidité un mogwai se transforme.

« Vous acceptez et convenez que toute utilisation des résultats de [ChatGPT] se fait à vos risques et périls. » 

OpenAI, Terms of use, « Disclaimer of Warranties », 14 novembre 2023


[1] P. Hernert, Les algorithmes, Paris, Presses universitaires de France, coll. « Que sais‑je ? », 2002

[2] Cl. Richard, Dans la boîte noire des algorithmes. Comment nous nous sommes rendus calculables, Revue du crieur, 2018, n° 11, p. 71.

[3] S. Abiteboul et G. Dowek, Le temps des algorithmes, Paris, Le Pommier, coll. « Essais & Documents », 2017, p. 18.

[4] G. Rouet, Démystifier les algorithmes, Hermès, La revue, 2019, n° 85, p. 23.

[5] G. M. Harshvardhan, M. K. Gourisaria, M. Pandey, S. S. Rautaray, A comprehensive survey and analysis of generative models in machine learning, Computer Science Review, vol. 38, 2020.

[6] Alan M. Turing, Computing machinery and intelligence, Mind, 1 octobre 1950, LIX, n° 236, p 432.

[7] Fr. Terré et N. Molfessis, Introduction générale au droit 15ed, Dalloz, Paris, 2023, 15e édition, §15.

[8] Pour Chat Generative Pre‑trained Transformer 

[9] OpenAI est une entreprise « à but lucratif plafonné » de 375 employés, spécialisée dans l’intelligence artificielle, et plus particulièrement le raisonnement, fondée par Elon Musk, Sam Altman, Ilya Sutskever, Greg Brockman, Wojciech Zaremba et Andrej Karpathy.

[10] Loi n° 71‑1130, du 31 décembre 1971, portant réforme de certaines professions judiciaires et juridiques N° Lexbase : L6343AGZ

[14] Décret n° 2005‑790, du 12 juillet 2005, relatif aux règles de déontologie de la profession d'avocat N° Lexbase : L6025IGA.

[15] Cass. ass. plén., 25 février 2000, n° 97‑17.378 N° Lexbase : A8154AG4 et n° 97‑20.152 N° Lexbase : A8155AG7.

[16] CA Paris, 25e ch., sect. A, 17 mai 2002, n° 2000/09993 N° Lexbase : A27892BW

[17] Figure tout de même le principe de loyauté dans les principes essentiels de l’avocat.

[18] CJUE, 15 janvier 2015, aff. C‑537/13, Birute Siba c/ Arunas Devenas N° Lexbase : A1934M9I

[19] Cass. civ. 1, 9 février 2012, n° 11‑10.893, F‑D N° Lexbase : A3668ICT

[20] Loi n° 2006‑961, du 1er août 2006, relative au droit d'auteur et aux droits voisins dans la société de l'information N° Lexbase : L4403HKB

[21] Product safety standards, OpenAI, consulté le 11 décembre 2023 [en ligne]

[22] Le « credential stuffing » est une technique d’attaque informatique qui exploite le fait que de nombreuses personnes réutilisent les mêmes identifiants, c’est‑à‑dire le nom d’utilisateur et le mot de passe, sur plusieurs sites et services en ligne. L’attaque consiste à prendre des informations d’identification, qui sont souvent obtenues à partir de fuites de données de certains sites, et à les essayer automatiquement sur différentes sites web ou applications. L’une des mesures les plus robustes à ce jour, outre le fait de varier ses identifiants, reste l’authentification à deux facteurs (2FA).

[23] CNIL, Formation restreinte, 27 janvier 2021, consulté le 13 décembre 2023, [en ligne] ; M.‑L. Hardouin‑Ayrinhac, Attaque par « Credential stuffing » : la CNIL sanctionne un responsable de traitement et son sous‑traitant et rappelle les obligations leur incombant, Le Quotidien, 28 janvier 2021 N° Lexbase : N6256BYD.

[24] CNB, Guide pratique – Les avocats et le règlement général sur la protection des données (RGPD), mai 2023, p. 23 [en ligne]

[25] Loi n° 2004‑575, du 21 juin 2004, pour la confiance dans l'économie numérique N° Lexbase : L2600DZC

[26] Loi n° 2004‑801, du 6 août 2004, relative à la protection des personnes physiques à l’égard des traitements de données à caractère personnel et modifiant la loi n° 78‑17, du 6 janvier 1978, relative à l'informatique, aux fichiers et aux libertés N° Lexbase : L0722GTW.

[27] Loi n° 2018‑493, du 20 juin 2018, relative à la protection des données personnelles N° Lexbase : L7645LKD.

[28] C. pén., art. 226‑16 N° Lexbase : L4525LNW

[29] Cass. civ. 1, 30 septembre 2015, n° 14‑23.372 N° Lexbase : A5665NSM

[30] Cass. civ. 1, 28 avril 2011, n° 10‑15.444 N° Lexbase : A5370HPL

[31] Cass. civ. 1, 24 octobre 2019, n° 18‑23.858 N° Lexbase : A6551ZSG

[32] Fr. Terré et N. Molfessis, Introduction générale au droit 15ed, op. cit., §16.

[33] A. Touati et S. Benhamou, Et si des intelligences artificielles jouaient le rôle d'avocat ?, Revue pratique de la prospective et de l'innovation, mai 2023, dossier 4, n° 1, p. 21

[34] G. Thierry, Comment ChatGPT pourrait changer le métier des avocats, Dalloz actualité, 29 juin 2023

[35] Cass. civ. 1, 17 mars 2016, n° 15.14.557, F‑P+B N° Lexbase : A3449Q8A

[36] O. Baldes, La preuve numérique et le principe de délicatesse de l'avocat, Lexbase Avocats, mai 2016 N° Lexbase : N2487BWZ

[37] Loi n° 2021‑1729, du 22 décembre 2021, pour la confiance dans l'institution judiciaire N° Lexbase : L3146MAR

[38] V. supra, § 5.

[39] Garante, Provvedimento del 30 marzo 2023 [9870832], Registre des mesures, 30 mars 2023, n° 112, , consulté le 14 décembre 2023, [en ligne]

[40] S. Bortoluzzi; D. Piau et Th. Wickers, Règles de la profession d’avocat 2002/2023, Dalloz Action, 2022, 17e ed, p. 543, §336.11

[41] Pour approfondir la distinction entre délicatesse et modération, l’auteur renvoi modestement à sa précédente contribution, v. [Focus] Dire ou ne pas dire : du bon usage de la parole par l’avocat, Lexbase Avocats, novembre 2022 N° Lexbase : N3155BZU

[42] Cette liste est infinie.

newsid:487851

Baux commerciaux

[Brèves] Résiliation d’un bail aux torts de la locataire pour exercice d’une activité de restauration non comprise dans la destination contractuelle d'hôtel

Réf. : Cass. civ. 3, 30 novembre 2023, n° 21-25.584, F-D N° Lexbase : A503017G

Lecture: 2 min

N7723BZ3

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/103598645-edition-du-04012024#article-487723
Copier

par Vincent Téchené

Le 03 Janvier 2024

► Une activité de restauration exercée n'étant pas comprise dans la destination contractuelle d'hôtel de tourisme et accessoires, s'agissant d'une véritable activité distincte de nature à attirer une nouvelle clientèle, ce manquement aux clauses du bail, conjugué à d'autres infractions, est suffisamment grave pour entraîner sa résiliation aux torts de la locataire.

Faits et procédure. Un bail commercial indique que les locaux loués sont exclusivement destinés à usage d'hôtel de tourisme et toutes activités accessoires.

Par avenant, les parties ont étendu le bail initial à des locaux voisins (ensemble A) et la locataire a été autorisée à utiliser d'autres locaux en rez-de-chaussée (ensemble B), pour une durée de six mois à compter du début des travaux rendus nécessaires par l'extension des locaux loués.

La bailleresse a fait délivrer un commandement de payer des arriérés de loyers et une pénalité contractuelle pour n'avoir pas restitué l'ensemble B de locaux après la période de six mois, visant la clause résolutoire.

La locataire a assigné la bailleresse en opposition à ce commandement et celle-ci a sollicité reconventionnellement la résiliation judiciaire du bail et la condamnation de la locataire à s'acquitter de la pénalité contractuelle.

La cour d’appel de Paris (CA Paris, 5-3, 6 octobre 2021, n° 18/01811 N° Lexbase : A342448C) a prononcé la résiliation du bail pour non-respect de la destination des locaux loués en raison de l’exploitation, par la locataire, d’une activité de restauration. Cette dernière a formé un pourvoi en cassation.

Décision. La Cour de cassation rejette le pourvoi.

La cour d’appel a notamment retenu que la locataire avait exploité dans les locaux loués pendant quelques mois une activité de restauration effective, accessible à une clientèle extérieure à l'hôtel, avec publicité en ligne et entrée par une porte distincte de celle de l'entrée de l'hôtel, et qu'elle avait ensuite modifié l'accès au local et cherché à atténuer la visibilité de l'activité.

Ainsi, selon la Haute juridiction, les juges du fond ont a pu en déduire que l'activité de restauration exercée n'était pas comprise dans la destination contractuelle d'hôtel de tourisme et accessoires, s'agissant d'une véritable activité distincte de nature à attirer une nouvelle clientèle et que ce manquement aux clauses du bail, conjugué à d'autres infractions, était suffisamment grave pour entraîner sa résiliation aux torts de la société preneuse.

Pour aller plus loin : v. ÉTUDE : Les obligations du preneur du bail commercial, Exemples de modification ou de non-modifications de la destination des lieux, in Baux commerciaux (dir. J. Prigent), Lexbase N° Lexbase : E7990A3C.

 

newsid:487723

Collectivités territoriales

[Brèves] Pas de vélos ni de trottinettes dans le centre-ville de Lille

Réf. : TA Lille, 30 novembre 2023, n° 2309743 N° Lexbase : A4696173

Lecture: 2 min

N7658BZN

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/103598645-edition-du-04012024#article-487658
Copier

par Yann Le Foll

Le 04 Janvier 2024

► N’est pas suspendue l’exécution de l’arrêté de la maire de Lille restreignant la circulation des bicyclettes, des vélos à assistance électrique, et des engins de déplacement personnel dont les trottinettes dans les zones piétonnes du centre-ville de Lille.

Faits. Par un arrêté du 6 octobre 2023, la maire de Lille a interdit, dans les zones piétonnes du centre-ville, la circulation des vélos, électriques ou non, et des engins de déplacement personnels (EDP), dont les trottinettes électriques et non électriques. Cette interdiction s’applique tous les jours de la semaine de 11 heures à 22 heures, sauf pour les secteurs de piétonnisation temporaire où elle ne s’applique que le samedi de 11 heures à 19 heures. L’arrêté fait également obligation à tout utilisateur de ces vélos et engins de poser pied à terre et de conduire à la main son véhicule lorsqu’il traverse ces zones d’interdiction.

Plusieurs requérants, usagers habituels de ces modes de circulation doux, ont demandé au tribunal la suspension de l’exécution de cet arrêté.

Position TA. L’arrêté en litige, qui oblige seulement les utilisateurs de cycles et d’engins de déplacement personnels (EDP) de poser pied à terre et à conduire à la main leur véhicule lorsqu’ils traversent les zones concernées, n’a aucunement pour objet de les contraindre à emprunter d’autres axes de circulation. En outre, les requérants ne justifient pas de l’impossibilité, en pratique, de traverser les zones concernées en posant pied à terre et en tenant à la main leur cycle, y compris s’il s’agit d’un vélo cargo.

Enfin, le risque que les cyclistes soient, à brève échéance, détournés vers d’autres moyens de transport, notamment la voiture, n’apparaît pas suffisamment caractérisé, et l’intérêt public qui s’attacherait au développement de la mobilité écologique n’apparaît donc pas gravement et immédiatement atteint par l’arrêté contesté.

À ce sujet. Lire M. Boiron-Bertrand, Les modalités de contestation d’un arrêté municipal, Lexbase Public n° 634, 2021 N° Lexbase : N8337BYG.

newsid:487658

Procédure

[Brèves] Recevabilité d’une preuve déloyale : l’Assemblée plénière opère un revirement de jurisprudence !

Réf. : Ass. plén., 22 décembre 2023, n° 20-20.648, B+R N° Lexbase : A27172AU

Lecture: 2 min

N7850BZR

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/103598645-edition-du-04012024#article-487850
Copier

par Charlotte Moronval

Le 27 Janvier 2024

► Des moyens de preuve déloyaux peuvent être présentés au juge dès lors qu’ils sont indispensables à l’exercice des droits du justiciable. Toutefois, la prise en compte de ces preuves ne doit pas porter une atteinte disproportionnée aux droits fondamentaux de la partie adverse (vie privée, égalité des armes, etc.)

Faits et procédure. Un salarié saisit la justice afin de contester son licenciement pour faute grave.

Pour apporter la preuve de cette faute, l’employeur soumet au juge l’enregistrement sonore capturé au cours d’un entretien informel, au cours duquel le salarié a tenu des propos ayant conduit à sa mise à pied.

Cet enregistrement avait été réalisé à l’insu de l’employé.

La cour d’appel (CA Orléans, 28 juillet 2020, n° 18/00226 N° Lexbase : A97963RA) déclare cette preuve irrecevable, car l’enregistrement avait été réalisé de façon clandestine.

Aucune autre preuve ne permettant de démontrer la faute commise par le salarié, la cour d’appel a jugé que ce licenciement était sans cause réelle et sérieuse.

L’employeur forme un pourvoi en cassation.

La solution. Énonçant le principe susvisé, l’Assemblée plénière de la Cour de cassation casse et annule l’arrêt rendu par la cour d’appel.

Cette solution constitue un revirement de jurisprudence et s’inspire de la jurisprudence de la Cour européenne des droits de l’Homme.

La Cour de cassation répond à la nécessité de ne pas priver un justiciable de la possibilité de faire la preuve de ses droits, lorsque la seule preuve disponible pour lui suppose, pour son obtention, une atteinte aux droits de la partie adverse.

La décision de la cour d’appel, qui avait écarté les enregistrements clandestins au motif qu’ils avaient été obtenus de manière déloyale, est donc censurée.

L’affaire est renvoyée devant une autre cour d’appel. Celle-ci devra vérifier, d’une part, que les enregistrements étaient indispensables pour prouver la faute grave du salarié, d’autre part, que l’utilisation de ces enregistrements réalisés à l’insu du salarié ne portent pas une atteinte disproportionnée à ses droits fondamentaux. 

Pour aller plus loin : 

  • lire le communiqué de presse de la Cour de cassation ;
  • lire F. Guinebretière, La preuve illicite dans le cadre du contentieux prud’homal, Lexbase Social, octobre 2023, n° 962 N° Lexbase : N7200BZP ;
  • lire aussi Dossier spécial « La preuve en droit du travail : évolutions et nouveautés », Lexbase Social, mai 2023, n° 945 N° Lexbase : N5361BZL ;
  • v. ÉTUDE : L’instance prud’homale, L’administration de la preuve lors d’un procès prud’homal, in Droit du travail, Lexbase N° Lexbase : E6441ZKR ;
  • v. également ÉTUDE : La cause réelle et sérieuse de licenciement pour motif personnel, Les modes de preuve de la cause réelle et sérieuse, in Droit du travail, Lexbase N° Lexbase : E0803ZN3.

newsid:487850

Procédure civile

[Brèves] Procédure d’appel : publication du décret de simplification !

Réf. : Décret n° 2023-1391, du 29 décembre 2023, portant simplification de la procédure d'appel en matière civile N° Lexbase : L9662MK3

Lecture: 2 min

N7852BZT

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/103598645-edition-du-04012024#article-487852
Copier

par Alexandra Martinez-Ohayon

Le 27 Mars 2024

Un décret du 29 décembre 2023, publié au Journal officiel du 31 décembre 2023 attendu et annoncé depuis de nombreux mois par la Chancellerie vient simplifier et clarifier les dispositions relatives à l'appel et à la procédure d'appel et notamment, celles relatives à la procédure d'appel ordinaire avec représentation obligatoire.

Réorganisation structurée. Le présent décret restructure la sous-section 1 de la section I du chapitre Ier du sous-titre Ier du titre VI du livre II du Code de procédure civile relative à la procédure ordinaire avec représentation obligatoire devant la cour d'appel.

Il opère un partage clair entre les dispositions qui relèvent de la procédure à bref délai et celles qui relèvent de la procédure avec mise en état.

Il procède, en outre, à l'autonomisation des dispositions relatives à la procédure d'appel en supprimant, notamment, les renvois aux dispositions applicables au tribunal judiciaire.

Simplification et clarté. L'un des objectifs majeurs de ce décret est de simplifier et de clarifier et d’assouplir le contenu de la déclaration d'appel en permettant l'extension du périmètre de l'effet dévolutif dans les premières conclusions.

Par ailleurs, les délais pour conclure dans la procédure à bref délai sont augmentés à deux mois et le texte permet l'augmentation par le magistrat compétent de l'ensemble des délais pour conclure dans les procédures avec mise en état et à bref délai.

Nouvelles dispositions et précisions. Le décret définit les pouvoirs du président de la chambre saisie ou du magistrat désigné par le premier président dans la procédure à bref délai et clarifie ceux du conseiller de la mise en état.

Il crée une invitation systématique des parties à conclure une convention de procédure participative aux fins de mise en état en appel.

Par ailleurs, il redéfinit le périmètre de l'effet dévolutif de l'appel en supprimant le critère de l'indivisibilité de l'objet du litige.

Coordinations. En complément, le décret effectue diverses coordinations dans le Code des procédures civiles d'exécution, le Code de commerce et le Code de la consommation.

Entrée en vigueur. Le décret entrera en vigueur le 1er septembre 2024 et sera applicable aux instances d'appel introduites à compter de cette date, ainsi qu’aux instances reprises devant la cour d'appel à la suite d'un renvoi après cassation lorsque la juridiction de renvoi est saisie à compter de cette même date.

Pour aller plus loin : à noter que le présent décret fait l’objet d’un commentaire approfondi rédigé par Christophe Lhermitte, avocat au barreau de Rennes, dans la revue Lexbase Droit privé, janvier 2024, n° 969 N° Lexbase : N7909BZX.

newsid:487852

Sociétés

[Brèves] Directive « CSRD » : publication du décret pris en application de l'ordonnance n° 2023-1142 du 6 décembre 2023

Réf. : Décret n° 2023-1394, du 30 décembre 2023, pris en application de l'ordonnance n° 2023-1142, du 6 décembre 2023, relative à la publication et à la certification d'informations en matière de durabilité et aux obligations environnementales, sociales et de gouvernement d'entreprise des sociétés commerciales N° Lexbase : L9627MKR

Lecture: 1 min

N7834BZ8

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/103598645-edition-du-04012024#article-487834
Copier

par Perrine Cathalo

Le 09 Janvier 2024

Publié au Journal officiel du 31 décembre 2023, le décret n° 2023-1394 contient plusieurs dispositions relative à la transposition en droit français de la Directive « CSRD ».

Le décret du 30 décembre 2023 est pris en application des dispositions de l'ordonnance n° 2023-1142, du 6 décembre 2023, relative à la publication et à la certification d'informations en matière de durabilité et aux obligations environnementales, sociales et de gouvernement d'entreprise des sociétés commerciales N° Lexbase : L5068MKW (v. P. Cathalo, Lexbase Affaires, décembre 2023, n° 779 N° Lexbase : N7693BZX).

En particulier, le texte :

  • précise les seuils applicables aux définitions des différentes tailles de sociétés et de groupes de sociétés ;
  • détermine le type d'informations en matière de durabilité devant être établies et publiées par les différentes sociétés concernées ;
  • modifie la structure et les dispositions du titre II du livre VIII du Code de commerce relatives aux commissaires aux comptes afin de les adapter à la mission de certification des informations en matière de durabilité, notamment en ce qui concerne l'autorité publique indépendante de supervision, la Haute autorité de l'audit (chapitre préliminaire), la profession de commissaire aux comptes (chapitre 1), et les organismes tiers indépendants et auditeurs des informations en matière de durabilité qui y sont attachés (chapitre 2) ; et
  • précise également les règles applicables au rapport financier annuel des émetteurs.

Certaines de ces dispositions s'appliquent aux exercices sociaux ouverts à compter du 1er janvier 2024, d’autres s'appliquent aux rapports afférents aux exercices ouverts à compter du 1er janvier 2025, du 1er janvier 2026 et du 1er janvier 2028 (v. P. Cathalo, Lexbase Affaires, janvier 2023, n° 741 N° Lexbase : N3875BZK).

newsid:487834

Voies d'exécution

[Brèves] Nouveau barème des saisies et cessions des rémunérations applicable à compter du 1er janvier 2024

Réf. : Décret n° 2023-1228, du 20 décembre 2023, révisant le barème des saisies et cessions des rémunérations N° Lexbase : L7137MKK

Lecture: 2 min

N7847BZN

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/103598645-edition-du-04012024#article-487847
Copier

par Alexandra Martinez-Ohayon

Le 03 Janvier 2024

► Un décret du 20 décembre 2023, publié au Journal officiel du 27 décembre 2023, revalorise le barème des saisies et cessions des rémunérations à compter du 1er janvier 2024.

Le présent décret revalorise, comme chaque année, et sur le fondement des dispositions de l’article L. 3252-2 du Code du travail N° Lexbase : L0920H9X, les seuils permettant de calculer la fraction saisissable et cessible des rémunérations, et ce, en fonction de l’évolution de l’indice des prix à la consommation des ménages urbains tel qu’il est fixé au mois d’août de l’année précédente, dans la série « France-entière, hors tabac, ménages urbains dont le chef est ouvrier ou employé ».

Dès lors l’article précité est modifié et fixe cette fraction, à compter du 1er janvier 2024, de la manière suivante :

  • 1/20, sur la tranche inférieure ou égale à 4 370 euros ;
  • 1/10, sur la tranche supérieure à 4 370 euros et inférieure ou égale à 8 520 euros ;
  • 1/5, sur la tranche supérieure à 8 520 euros et inférieure ou égale à 12 690 euros ;
  • 1/4, sur la tranche supérieure à 12 690 euros et inférieure ou égale à 16 820 euros ;
  • 1/3, sur la tranche supérieure à 16 820 euros et inférieure ou égale à 20 970 euros ;
  • 2/3, sur la tranche supérieure à 20 970 euros et inférieure ou égale à 25 200 euros ;
  • la totalité, sur la tranche supérieure à 25 200 euros.

Il convient de noter que ces tranches sont modifiées en fonction du nombre de personnes à la charge du débiteur.

Ces seuils, déterminés à l’article R. 3252-2 du Code du travail sont augmentés d’un montant de 1 690 euros par personne à la charge du débiteur saisi ou du cédant, sur présentation d’un justificatif présenté par l'intéressé.

Enfin, rappelons que l’article 47 de la loi n° 2023-1059, du 20 novembre 2023, d’orientation et de programmation du ministère de la Justice 2023-2027 N° Lexbase : L2962MKW a réformé la procédure de saisie des rémunérations. Cette réforme entrera en vigueur au plus tard le 1er juillet 2025 et transfèrera la compétence du juge de l’exécution aux commissaires de justice.

Entrée en vigueur. Le décret entre en vigueur le 1er janvier 2024.

Pour aller plus loin : v. M. Aressy, La saisie des rémunérations : pour une nouvelle ère, Lexbase Contentieux et Recouvrement, décembre 2023, n° 4 N° Lexbase : N7627BZI.

 

newsid:487847

Utilisation des cookies sur Lexbase

Notre site utilise des cookies à des fins statistiques, communicatives et commerciales. Vous pouvez paramétrer chaque cookie de façon individuelle, accepter l'ensemble des cookies ou n'accepter que les cookies fonctionnels.

En savoir plus

Parcours utilisateur

Lexbase, via la solution Salesforce, utilisée uniquement pour des besoins internes, peut être amené à suivre une partie du parcours utilisateur afin d’améliorer l’expérience utilisateur et l’éventuelle relation commerciale. Il s’agit d’information uniquement dédiée à l’usage de Lexbase et elles ne sont communiquées à aucun tiers, autre que Salesforce qui s’est engagée à ne pas utiliser lesdites données.

Réseaux sociaux

Nous intégrons à Lexbase.fr du contenu créé par Lexbase et diffusé via la plateforme de streaming Youtube. Ces intégrations impliquent des cookies de navigation lorsque l’utilisateur souhaite accéder à la vidéo. En les acceptant, les vidéos éditoriales de Lexbase vous seront accessibles.

Données analytiques

Nous attachons la plus grande importance au confort d'utilisation de notre site. Des informations essentielles fournies par Google Tag Manager comme le temps de lecture d'une revue, la facilité d'accès aux textes de loi ou encore la robustesse de nos readers nous permettent d'améliorer quotidiennement votre expérience utilisateur. Ces données sont exclusivement à usage interne.