La lettre juridique n°768 du 17 janvier 2019 : Justice

[Focus] La création du droit par l’algorithme - Analyse du cas des gilets jaunes

Lecture: 12 min

N7155BXB

Citer l'article

Créer un lien vers ce contenu

[Focus] La création du droit par l’algorithme - Analyse du cas des gilets jaunes. Lire en ligne : https://www.lexbase.fr/article-juridique/49387378-focus-la-creation-du-droit-par-lalgorithme-analyse-du-cas-des-gilets-jaunes
Copier

par Guillaume Léguevaques, Docteur en droit, Attaché temporaire d’enseignement et de recherche, IEJUC EA1919, Université Toulouse 1 Capitole

le 16 Janvier 2019

La mobilisation des gilets jaunes est l’expression d’une contestation qui, dès l’origine, s’est faite sans les corps intermédiaires ni les partis politiques. La difficulté réside alors dans le fait d’identifier les revendications de chacun. Exprimées sur les réseaux sociaux, un algorithme a réussi à identifier cette contestation avant la première journée de manifestation (I). Dans ces conditions, un algorithme juridique aurait alors été capable d’anticiper la mobilisation en générant une norme complémentaire dérivée pour proposer immédiatement des solutions. La tradition juridique française demeure pourtant réticente à se servir de cette fonction particulière de l’algorithme. Le primat du législateur en constitue le chantre et cette prudence se mesure à l’aune du cas des gilets jaunes. Déterminant pour saisir l’enjeu de la contestation, l’usage de l’algorithme est modéré quand il s’agit de lui laisser le soin de créer une solution juridique (II).  

           

L’algorithme doit-il être mobilisé pour créer le droit face au cas particulier des gilets jaunes ?   

 

I - Le rôle de l’algorithme dans l’identification des contestations

 

 

La mobilisation des gilets jaunes est née spontanément la semaine du 12 novembre 2018. Elle s’est structurée sur les réseaux sociaux échappant ainsi au contrôle des partis politiques et des syndicats. Par le biais du numérique, les gilets jaunes se sont rassemblés autour de causes communes avant d’appeler à une première journée de mobilisation le samedi 17 novembre 2018. En rejetant les corps classiques, le mouvement a pourtant pris le risque d’être désorganisé, inaudible et confidentiel. Les différentes semaines de contestation ont cependant dissipé les quelques doutes. Il a alors fallu prendre la mesure de la contestation en un temps record avant d’y apporter une réponse juridique. Sans porte-parole et sans leader, toute la difficulté a résidé et réside encore dans le traitement de l’information pour identifier les revendications de chacun. Cette information est pourtant détenue, depuis l’origine, par l’algorithme du réseau social Facebook. L’enjeu est alors de savoir si, d’un point de vue juridique, l’intelligence artificielle est susceptible d’offrir des solutions pour sortir d’une contestation sociale.  

 

Elément essentiel de l’intelligence juridique artificielle, l’algorithme est un langage destiné à être programmé et donner des instructions. Son introduction dans les logiciels juridiques ou encore les réseaux sociaux permet «une exécution automatisée des opérations » [1]. Défini comme «l’étude de la résolution de problèmes par la mise en œuvre de suites d’opérations élémentaires selon un processus défini aboutissant à une solution» [2], l’algorithme offre une puissance de calcul exponentielle. Etait-il pour autant possible d’anticiper la mobilisation des gilets jaunes à travers l’identification de comportement contestataire grandissant au sein de la société française ? La réponse est peu évidente. Si d’un point de vue communicationnel l’algorithme performe, la tradition juridique française est réticente à l’empirisme. Si «les algorithmes rassurent par leur logique mathématique implacable» [3], la question de son usage juridique dans le cas des gilets jaunes se pose. Il est en effet «beaucoup plus délicat d’apprendre à des algorithmes le droit souple que le droit dur» [4]. La distinction entre le droit souple et le droit dur consacre la double fonction de l’algorithme : prédire et dire le droit.

 

L’approche singulière d’Eric Chol apporte une réponse [5]. En s’intéressant à la modification du code de l’algorithme au début de l’année 2018 sur le réseau social Facebook, des contestations solitaires, disséminées dans toute la France, ont pu être identifiées, sélectionnées avant d’être rapprochées. Le codage offre donc, bien avant la première manifestation concrète du 17 novembre 2018, des perspectives sur le traitement de l’information en temps réel. En ce sens, l’algorithme, s’il est employé par le législateur, «participe à la mise en œuvre du droit» [6] à travers un traitement massif de données [7]. Pourtant, depuis l’avènement de la mathématisation du raisonnement juridique, le législateur s’efforce d’encadrer les algorithmes en laissant ses bienfaits à la marge du droit [8]. Il opère une lecture inverse en tentant d’en limiter les effets à travers un cadre juridique sans chercher à savoir «comment les algorithmes sont en train de se saisir du droit» [9]. Si, une «décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé de données […]» [10], l’usage de l’algorithme face à la mobilisation des gilets jaunes permettrait, à travers la libre expression sur les réseaux sociaux, de sélectionner les contestations majoritaires pour y apporter une réponse adaptée dans un temps record. L'utilisation prudente de l’algorithme s’explique néanmoins par la volonté de garder une «distance critique» [11] face aux «pièges» [12] qu’il tend.

 

 

II - Le rôle l’algorithme dans la détermination d’une solution juridique

 

 

Si l’algorithme est capable de créer du droit en saisissant les aspirations immédiates de la société, l’emploi de cette fonction était la bienvenue à l’origine de la contestation. «La loi des algorithmes rejoint sous cet angle les usages et toutes ces normativités immanentes et spontanées, qui ne s’imposent pas de l’extérieur, mais de l’intérieur, loin de toute discussion, de toute délibération et de toute évaluation. Il faut rappeler combien la loi des algorithmes repose sur un jeu d’échanges et d’interactions entre l’utilisateur et l’algorithme : l’utilisateur, par son comportement, influence l’algorithme, lequel en retour, par ses informations, influence l’utilisateur, etc.» [13]. L’algorithme «appréhende les conduites au regard, non pas de normes abstraites, mais des flux de données recueillies, c’est-à-dire la pratique» [14]. En identifiant parfaitement les contestations, la technologie du deep learning est capable de générer une norme complémentaire dérivée pour répondre à l’attente des gilets jaunes. Selon les situations, l’intelligence artificielle a en effet atteint le stade où les logiciels peuvent s’adapter afin de livrer des résultats qui étaient d’ordinaire l’apanage de la réflexion humaine.    

 

Le Professeur Croze en souligne néanmoins les risques puisque le droit s’abandonne à des corrélations. «Ce sont les cigognes qui apportent les bébés. Une étude statistique fondée sur une méthodologie rigoureuse établit en effet une corrélation entre le nombre de cigognes et le nombre de naissances humaines sur un territoire donné. C’est une relation de corrélation, pas de causalité. C’est un fait, non une règle» [15]. Dès lors, si les gilets jaunes se plaignent de la hausse des taxes sur les carburants, cela ne signifie pas nécessairement qu’ils en exigent la baisse. Par convictions écologiques, certains attendent en effet des solutions alternatives. Pourtant, l’algorithme propose une réponse juridique dans ce qui n’est qu’une corrélation de faits bruts contestation, prix du carburant, difficulté à se déplacer. En prenant en compte trop rapidement les mouvements spontanés, la loi perd de sa nature et de son éclat en assouvissant les intérêts égoïstes à travers des «systèmes automatiques de modélisation du social» [16]. Elle devient ainsi «le miroir des normativités les plus immanentes» [17]. De surcroît, «les statistiques relèvent de l’empire du fait. C’est l’une des manifestations de l’importance des éléments factuels dans la réflexion, la production et l’activité juridique. Une sorte de revanche du fait qui grignote l’empire du droit» [18]. La production normative propre à l’algorithme s’extrait de toute évaluation et délibération pour n’être que l’exact reflet de la société. Si une telle avancée est séduisante, elle comporte en réalité des risques majeurs. Les algorithmes sont à l’origine de normes complémentaires dérivées, sur la seule base d’une programmation. La figure tutélaire du législateur disparaît progressivement pour laisser place à des formules mathématiques. En soumettant la matière juridique au comportement du citoyen, la norme est exposée à une instabilité excessive. Par une programmation informatique, dès que le code identifie un élément, il l’associe à une conséquence et propose une norme. A travers le déclin de la normativité juridique descendante [19], le droit s’inscrit dans un système ouvert aux différents faits environnementaux. Dans ces conditions, le droit risque d’être noyé dans un flot incessant de normes «immanences portées par les algorithmes» [20]. La mobilisation des gilets jaunes illustre cet écueil à travers le caractère hétéroclite des revendications.  

 

Dans le prolongement de la solution que l’algorithme est susceptible d’apporter, pour qu’un fait puisse donner naissance à une norme, il faut qu’il se répète pendant «une longue tradition de respect du principe» [21]. La gestion des gilets jaunes par l’algorithme se heurte alors aux nécessités d’un temps long afin que l’empirisme fasse le droit car «ce n’est pas parce qu’une chose est, que cette chose, ou une autre, doit être» [22]. Le fait que cette mobilisation s’inscrive dans sa neuvième semaine de contestation n’est pas suffisant pour l’algorithme. L’identification de comportements prompts à générer une norme complémentaire dérivée impose un temps plus long laissé à la libre appréciation des pouvoirs publics et des programmateurs. L’algorithme doit en effet repérer une répétition, l’enregistrer [23], la traduire mathématiquement par un codage informatique, s’assurer qu’elle inscrive dans la durée tout en veillant à ce qu’elle soit considérée comme obligatoire [24] par les sujets de droit [25] et d’intérêt général.    

 

Sur ce dernier point, l’usage parcellaire de l’algorithme au cas des gilets jaunes s’entend. Le droit est le fruit d’une réflexion et d’une concertation destinées à servir l’intérêt général et non l’intérêt collectif [26]. Si l’algorithme sert le législateur en lui communiquant immédiatement des informations relatives aux mutations attendues sur les taxes pétrolières ou encore le pouvoir d’achat, quels que soient la contestation et sa gravité, l’algorithme ne doit pas être employé trop rapidement pour dire le droit, car «la morale des algorithmes est la morale des forts. User de cette technique c’est adhérer à une certaine conception du droit en général […] libertaire qui prétend développer un monde sans Etat et sans droit étatique, un ordre juridique autonome, avec ses propres valeurs, ses propres principes et ses propres règles» [27]. Pour attirer l’attention sur un tel risque, Alain Supiot, auteur de l’ouvrage La gouvernance par le nombre, emploie l’expression de gouvernance par les algorithmes [28]. L’expression souligne la place de l’algorithme dans la production et la mise en œuvre d’une norme complémentaire dérivée, automatisée et personnelle. Dans ces conditions, la gouvernance par l’algorithme doit être un complément à la gouvernance par la loi en ce qu’elle perfectionne la norme en répondant à des attentes et en lui évitant le risque d’être désuète. La mobilisation des gilets jaunes montre qu’il faut donc davantage voir l’algorithme comme un assistant et non moins comme un substitut législatif. 

 

 

[1] S. Chassagnard-Pinet, Les usages des algorithmes en droit : prédire ou dire le droit ?, D., IP/IT/, 2017, 495.

[2] Arrêté du 27 juin 1989 relatif à l'enrichissement du vocabulaire de l'informatique, En ce sens, E. Marique et A. Strowel, Gouverner par la loi ou les algorithmes : de la norme générale de comportement au guidage rapproché des conduites, D. IP/IT 2017, 519 ; H. Croze, Justice prédictive. La factualisation du droit, JCP éd. G., n° 5, 2017, 101 ; J.-B. Duclercq, Les effets de la multiplication des algorithmes informatiques sur l’ordonnancement juridique, CCE, novembre 2015, Etude 20, p. 2 ; G. Chantepie, Le droit en algorithmes ou la fin de la norme délibérée ?, D. IP/IT 2017, 522 ; L. Larret-Chahine, Les algorithmes et l'aide à la décision de justice, Colloque, Sécurité et justice, Le défi de l’algorithme, inhesj.fr, 27 juin 2017 ; H. Cazaux-Charles, Sécurité et justice, Le défi de l’algorithme, Colloque, inhesj.fr, 27 juin 2017 ; A. Supiot, La gouvernance par les nombres, Fayard, 2015.

[3] B. Barraud, Le coup de data permanent, la loi des algorithmes, chron. 35.

[4] Ibidem.

[5] E. Chol, Gilets jaunes : la révolution en algorithme, Le courrier international, 14 décembre 2018.

[6] S. Chassagnard-Pinet, Les usages des algorithmes en droit : prédire ou dire le droit ?, préc., 495.

[7] Le traitement massif des données est dit Big data. Le législateur procède à des études d'impact avant de légiférer ou de réglementer. Tel est le cas dans l’expérimentation de la loi travail. Dans la factualisation du droit, les algorithmes interfèrent dans l’élaboration normative via les «possibilités qu’ils offrent de simuler les conséquences économiques et sociales qu’un nouveau dispositif législatif est susceptible de produire» (S. Chassagnard-Pinet, Les usages des algorithmes en droit : prédire ou dire le droit ?, préc., 495). Le logiciel Worksim l’a montré en assistant les parlementaires lors de la loi votée le 8 août 2016, relative au travail, à la modernisation du dialogue social et à la sécurisation des parcours professionnels (N° Lexbase : L8436K9C). Sur la base d’algorithmes programmés par un mathématicien et un informaticien, il a été possible de reconstituer le marché du travail français. Par une programmation annexe, le législateur a pu mesurer efficacement l’influence de sa réforme et opérer des ajustements. Aux vues des nombreuses contestations politiques et sociales, il n’est toutefois pas certains que le logiciel ait convaincu. Indépendamment du climat politique, la sécurité juridique et l’algorithme font cause commune en participant de concert à une loi de qualité prompte à répondre à l’intérêt général.

[8] Conseil d’Etat, Le numérique et les droits fondamentaux, Rapport annuel, 2014, LDF, 2014, p. 6.

[9] S. Chassagnard-Pinet, Les usages des algorithmes en droit : prédire ou dire le droit ?, préc., 495.

[10] Article 10 alinéa 2 de la loi n° 78-17, 6 janvier 1978, relative à l’informatique, aux fichiers et aux libertés modifiée par la loi n° 2004-801 du 6 août 2004, relative à la protection des personnes physiques à l’égard des traitements de données à caractère personnel (N° Lexbase : L0722GTW), JORF du 7 août 2004, p. 14063.

[11] E. Marique et A. Strowel, Gouverner par la loi ou les algorithmes : de la norme générale de comportement au guidage rapproché des conduites, préc., 520.

[12] Ibidem, c’est nous qui soulignons : «Le pouvoir des programmeurs dans la structuration du code, qui désormais fait loi, est particulièrement important. Les programmeurs sont amenés à effectuer des arbitrages sur des valeurs, sur l'importance des règles juridiques et sur l'interprétation de ces dernières, alors qu'ils n'ont pas été initiés à la technique du droit, ni amenés à réfléchir à ses finalités. Confronté à l'usage accru des algorithmes en droit, le juriste, avocat, juge ou fonctionnaire conservera un rôle décisif s'il use de sa formation pour interroger les règles, leur ordonnancement, la pertinence de leur application à un cas d'espèce, leur équité, afin de pointer ces biais de programmation qui donnent lieu à des résultats insatisfaisants ou simplement injustes».

[13] B. Barraud, Le coup de data permanent, la loi des algorithmes, préc. 35.

[14] S. Chassagnard-pinet, Les usages des algorithmes en droit : prédire ou dire le droit ?, préc., 495.

[15] H. Croze, Justice prédictive. La factualisation du droit, préc., 101 :

[16] E. Marique et A. Strowel, Gouverner par la loi ou les algorithmes : de la norme générale de comportement au guidage rapproché des conduites, préc. 517.

[17] Ibidem.

[18] H. Croze, Justice prédictive. La factualisation du droit, préc., 101.

[19] B. Barraud, Le coup de data permanent, la loi des algorithmes, préc., chron. 35 : «La loi des algorithmes est significative du glissement du gouvernement politique délibéré et vertical vers la gouvernance mathématique automatique et horizontale. Cette automaticité et cette horizontalité proviennent du fait qu’il ne s’agit plus d’imposer des devoir-être à des être ; au contraire, les être s’imposent aux devoir-être, les faits s’imposent aux normes, deviennent normes. Telle est la conséquence de la généralisation des pratiques statistiques et de la multiplication des corrélations de données. La loi des algorithmes est donc symptomatique de la factualisation du juridique. C’est ainsi que la « loi de Hume» et l’idée d’une séparation nette entre être et devoir-être, entre fait et droit  -peut-être contestable d’ailleurs, car que vaut le droit détaché des faits et des pratiques qu’il est supposé saisir ?- perd toute force didactique à l’épreuve de la loi des algorithmes».

[20] S. Chassagnard-Pinet, Les usages des algorithmes en droit : prédire ou dire le droit ?, préc., 495.

[21] V. Bouvier, Le Conseil constitutionnel et la coutume, sur les principes fondamentaux reconnus par les lois de la république, in La coutume, Droits-3, 1986, p. 93.

[22] M. Troper, Du fondement de la coutume à la coutume comme fondement , Droits-3, 1986, p. 11.

[23] Sur les risques du droit à la vie privée v. J.-B. Duclercq, Les effets de la multiplication des algorithmes informatiques sur l’ordonnancement juridique, préc., p. 2. «L’usage d’algorithmes ne conduirait pas seulement à accéder à des normes diffuses et méconnues. Il permet de déceler des traces de nos actions, dans les différents champs de notre vie sociale. Consciemment semés ou non, ces signaux sont autant de traces laissées, qui permettent d’envisager une mesure globale de l’activité du monde, l’algorithme ‘'prenant’ par rapprochements successifs, dégageant des corrélations» (G. Chantepie, Le droit en algorithmes ou la fin de la norme délibérée ?, préc., 522)

[24] L’algorithme renforce naturellement le lien social en s’efforçant d’être accepté. La norme complémentaire dérivée, par transposition à la coutume, brillera par sa «souplesse» et son «caractère démocratique» (M. Troper, Du fondement de la coutume à la coutume comme fondement , préc., p. 13). «L’usage, pour engendrer la coutume, doit avoir, chez ceux qui le pratiquent, le caractère d’exercice d’un droit subjectif, qui contienne l’expression d’une règle de droit objectif; autrement dit, que les actes composant cet usage n’ont d’effet, pour la création du droit, que s’ils ont lieu dans la pensée d’une sanction sociale effective» (F. Gény cité par B. Oppetit, Sur la coutume en droit privé, in La coutume, Droits-3, 1986, p. 44).

[25] L’étude poursuit le parallélisme avec la coutume : dans la thèse romano canonique, «la coutume naît d’un usage dont la répétition doit s’étendre dans la durée : la transformation de l’usage en coutume s’opère alors sous l’empire d’un élément psychologique, l’opinio juris seu necessitatis» (B. Oppetit, ibidem).

[26] L’algorithme ne garantit toutefois pas que les revendications adoptées par les gilets jaunes soient conformes à l’intérêt général. Or, depuis l’avènement de l’algorithme en droit, aucune commission de contrôle n’a été créée pour s’assurer que la norme automatique a effectivement des vertus pour l’intérêt général -et non l’intérêt collectif-.

[27] M. Mekki, Le contrat, objet des smart contracts (Partie 1), D. IP/IT, 2018, 409.

[28] A. Supiot, La gouvernance par les nombres, Fayard, 2015.

newsid:467155

Utilisation des cookies sur Lexbase

Notre site utilise des cookies à des fins statistiques, communicatives et commerciales. Vous pouvez paramétrer chaque cookie de façon individuelle, accepter l'ensemble des cookies ou n'accepter que les cookies fonctionnels.

En savoir plus

Parcours utilisateur

Lexbase, via la solution Salesforce, utilisée uniquement pour des besoins internes, peut être amené à suivre une partie du parcours utilisateur afin d’améliorer l’expérience utilisateur et l’éventuelle relation commerciale. Il s’agit d’information uniquement dédiée à l’usage de Lexbase et elles ne sont communiquées à aucun tiers, autre que Salesforce qui s’est engagée à ne pas utiliser lesdites données.

Réseaux sociaux

Nous intégrons à Lexbase.fr du contenu créé par Lexbase et diffusé via la plateforme de streaming Youtube. Ces intégrations impliquent des cookies de navigation lorsque l’utilisateur souhaite accéder à la vidéo. En les acceptant, les vidéos éditoriales de Lexbase vous seront accessibles.

Données analytiques

Nous attachons la plus grande importance au confort d'utilisation de notre site. Des informations essentielles fournies par Google Tag Manager comme le temps de lecture d'une revue, la facilité d'accès aux textes de loi ou encore la robustesse de nos readers nous permettent d'améliorer quotidiennement votre expérience utilisateur. Ces données sont exclusivement à usage interne.