Lecture: 4 min
N4220B3P
Citer l'article
Créer un lien vers ce contenu
par Axel Valard
Le 14 Avril 2026
Après quatre heures de lecture un peu monotone, la phrase a fait l’effet d’un coup de tonnerre dans le prétoire : « Messieurs les policiers. Veuillez procéder à l’arrestation de Monsieur Lafont et de Monsieur Herrault… ». Dans un délibéré cinglant, le tribunal judiciaire de Paris a estimé, lundi 13 avril, que l’ancien cimentier français Lafarge (avalé depuis par son concurrent suisse, Holcim) avait bien financé trois organisations terroristes entre 2013 et 2014 afin de pouvoir maintenir l’activité d’une de ses usines située à Jalabiya, dans le nord de la Syrie.
En conséquence, le tribunal a prononcé des peines lourdes à l’encontre des huit prévenus dans ce dossier. Allant au-delà des réquisitions du parquet national antiterroriste (Pnat), elle a ainsi décerné un mandat de dépôt, à l’audience, à l’encontre de Bruno Lafont, ex-PDG du groupe, ainsi qu’à Christian Herrault, son ancien bras droit. Incarcérés immédiatement après l’audience, ils dorment depuis à la prison de la Santé à Paris.
« Les fonds se sont transformés en explosifs »
Présidé par Isabelle Prévost-Desprez, le tribunal a jugé que le groupe Lafarge avait versé environ 5,6 millions d’euros à trois groupes djihadistes entre 2013 et 2014 dans le but de pouvoir continuer à produire du ciment et à se positionner comme un acteur incontournable lors de la reconstruction du pays. Prise d’assaut par le groupe « État islamique », l’usine avait fini par fermer en 2014.
« Les fonds [transmis aux groupes terroristes] se sont transformés en kalachnikovs et en explosifs », a tonné la présidente du tribunal, au milieu de son délibéré, après avoir rappelé la longue liste des attentats perpétrés en Europe à la même période. « Les prévenus étaient totalement indifférents à l’utilisation de ces fonds ».
Dénonçant la stratégie de défense des principaux prévenus, confinant parfois « à l’absurde », le tribunal a estimé que Lafarge n’avait pas été victime d’un « racket », comme ils l’ont prétendu à l’audience. « Il s’agissait bien d’accords commerciaux avec les trois entités terroristes afin de neutraliser la concurrence ». Expliquant que la démarche avait permis d’éviter l’import de ciment turc en Syrie, le tribunal a jugé que Lafarge souhaitait ainsi se placer « en situation de monopole » sur place, en vue de la reconstruction du pays.
Deux amendes pour le groupe Lafarge, personne morale
Égrainant les responsabilités des uns et des autres d’une voix glaciale, Isabelle Prévost-Desprez a eu des mots extrêmement durs à l’encontre de Bruno Lafont, ancien PDG du groupe, qui a nié, lors de l’audience, avoir eu connaissance du transfert des fonds. Celui-ci avait expliqué qu’il n’avait pas, en raison de ses fonctions, le temps de lire les nombreux mails qu’il recevait. Mais aussi les comptes rendus du Comité Sécurité sur le sujet. « On ne sait pas s’il a seulement ouvert les enveloppes contenant ces comptes rendus ou s’il les a jetées directement dans la poubelle », a ainsi taclé la magistrate avant d’annoncer, donc, une peine de six ans de prison assortie d’un mandat de dépôt.
Elle a réservé le même sort à Christian Herrault, ancien bras droit de Bruno Lafont, en lui décernant une peine de cinq ans de prison. Le tribunal a également prononcé des peines allant de 18 mois de prison pour un gestionnaire de sûreté norvégien de Lafarge à sept ans de prison pour un intermédiaire syrien, aujourd’hui en fuite et qui gérait les rapports et les paiements aux groupes djihadistes.
Pour avoir établi « un véritable partenariat commercial avec l’État islamique », l’entreprise Lafarge en qualité de personne morale a été condamnée à l’amende maximale de 1,125 million d’euros et à payer solidairement avec les prévenus une amende douanière de 4,57 millions d’euros pour le « non-respect des sanctions financières ».
Estomaqués par les mandats de dépôt décernés, les avocats de Bruno Lafont et de Christian Herrault ont immédiatement annoncé leur intention de faire appel de ce jugement. Et de déposer des demandes de mises en liberté pour leurs clients en col blanc, désormais derrière les barreaux.
© Reproduction interdite, sauf autorisation écrite préalable
newsid:494220
Réf. : Cass. com., 25 mars 2026, n° 25-11.719, F-B
Lecture: 2 min
N4219B3N
Citer l'article
Créer un lien vers ce contenu
par Vincent Téchené, Rédacteur en chef de Lexbase Affaires
Le 15 Avril 2026
Il résulte de l'article L. 621-2, alinéa 2, du Code de commerce que le liquidateur, à qui ce texte confère qualité à agir dans l'intérêt collectif des créanciers, dispose d'un intérêt à faire constater la confusion des patrimoines en vue d'étendre la procédure collective à une autre personne, nonobstant les résultats que pourrait avoir l'extension vis-à-vis de ces créanciers.
L’article L. 621-2 du Code de commerce N° Lexbase : L3679MBU permet d’étendre la procédure ouverte à une ou plusieurs autres personnes en cas de confusion de leur patrimoine avec celui du débiteur ou de fictivité de la personne morale. Cette extension peut être prononcée uniquement à la demande de l'administrateur, du mandataire judiciaire et donc du liquidateur judiciaire en cas de liquidation judiciaire, du débiteur ou du ministère public.
La question qui était alors posée à la Cour était de savoir si le liquidateur judiciaire (et donc le mandataire judiciaire en cas de sauvegarde ou de redressement) n'est recevable à introduire une telle action que dans l'hypothèse où pareille initiative est justifiée par l'intérêt collectif des créanciers, qu'il a pour mission de représenter.
La Cour de cassation y répond par la négative. Elle retient, en effet, qu’il résulté de l'article L. 621-2, alinéa 2, du Code de commerce que le liquidateur, à qui texte confère qualité à agir dans l'intérêt collectif des créanciers, dispose d'un intérêt à faire constater la confusion des patrimoines en vue d'étendre la procédure collective à une autre personne.
Ainsi, dans l’affaire qui lui était soumise, elle approuve la cour d’appel (CA Montpellier, 14 janviet 2025, n° 24/02680 N° Lexbase : A92260LB) d’avoir énoné que que le liquidateur exerçant l'action en extension agit nécessairement dans l'intérêt collectif des créanciers de la procédure collective, nonobstant les résultats que pourrait avoir l'extension vis-à-vis de ces créanciers. Le liquidateur a donc bien intérêt à agir.
|
Voir aussi : ETUDE : L'ouverture des procédures par extension, La saisine du tribunal en matière d'extension de la procédure collective, in Entreprises en difficulté, (dir. P.-M. Le Corre), Lexbase N° Lexbase : E8679ETM. |
© Reproduction interdite, sauf autorisation écrite préalable
newsid:494219
Réf. : Proposition de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux
Lecture: 8 min
N4175B3Z
Citer l'article
Créer un lien vers ce contenu
par Clément Boudoyen, Avocat associé du cabinet Sensei Avocats
Le 08 Avril 2026
Mots clés : réseaux sociaux • mineurs • protection de l'enfance • DSA • RGPD
Sous la pression d’alertes sanitaires, d’enquêtes parlementaires et d’un débat européen nourri autour du Digital Services Act, la France s’apprête à franchir un cap en encadrant strictement l’accès des mineurs aux réseaux sociaux, en renforçant les obligations des plateformes et en articulant interdiction, responsabilisation parentale et éducation au numérique, au prix de délicats arbitrages entre protection de l’enfance, libertés fondamentales et faisabilité technique.
À la croisée de l’actualité judiciaire et des préoccupations sociétales, la proposition de loi adoptée en première lecture par l’Assemblée nationale le 26 janvier 2026 s’inscrit dans un contexte de mobilisation inédite [1]. Face à la montée des troubles psychologiques chez les jeunes, à la multiplication des phénomènes de cyberharcèlement et à la banalisation de l’accès à des contenus dangereux [2], le législateur a choisi de frapper fort. La commission d’enquête dédiée, nourrie par des témoignages de familles et d’adolescents, a dressé un constat alarmant : l’âge d’entrée sur les réseaux sociaux ne cesse de baisser, malgré des règles contractuelles fixant un seuil à treize ans, régulièrement contournées [3].
II. Une réponse législative structurante et pionnière
La proposition de loi portée par Mme Laure Miller, députée de la Marne, ambitionne de faire de la France le premier pays européen [4] à instaurer une interdiction claire d’accès aux réseaux sociaux pour les moins de quinze ans, en modifiant en profondeur la loi no 2004‑575 du 21 juin 2004, pour la confiance dans l’économie numérique N° Lexbase : L2600DZC.
Elle érige ainsi une interdiction stricte d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans [5], prévoyant la suspension des comptes existants tout en ménageant des exceptions pour les plateformes à vocation éducative ou encyclopédique [6], et organise un contrôle d’âge renforcé, à la charge des fournisseurs, reposant sur des dispositifs techniques validés par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), applicables également aux services établis dans d’autres États membres de l’Union européenne conformément au Règlement (UE) n° 2022/2065 du 19 octobre 2022, relatif à un marché unique des services numériques N° Lexbase : L7614MEQ [7].
Le texte accentue en outre la responsabilité des plateformes : dès lors qu’un système de recommandation vise spécifiquement les mineurs, la plateforme se voit reconnaître la qualité d’éditeur et assume l’ensemble des responsabilités qui y sont attachées, tandis que la régulation de la publicité est durcie, toute promotion destinée aux mineurs sur les réseaux sociaux – y compris via les influenceurs – étant proscrite et les publicités devant désormais mentionner que les produits concernés sont dangereux pour les moins de quinze ans [8].
Sur le terrain éducatif, la réforme opère un prolongement notable dans le code de l’éducation, en étendant l’interdiction d’usage des téléphones portables aux lycées, sauf utilisation explicitement autorisée à des fins pédagogiques [9].
Si certains dispositifs initiaux, tels que le couvre‑feu numérique ou le délit de négligence numérique [10], ont été supprimés ou profondément remaniés au fil des débats parlementaires, l’économie générale de la proposition demeure orientée vers une réduction significative de l’exposition des mineurs aux risques majeurs liés aux réseaux sociaux, dans un cadre que le législateur a tenu à articuler étroitement avec les exigences du droit européen.
III. Des débats parlementaires vifs et contrastés
Le parcours parlementaire a révélé des points de convergence forts mais aussi des tensions majeures, les débats s’étant structurés autour de plusieurs axes qui se sont progressivement entremêlés.
D’abord, la question de la conformité au droit européen a occupé une place centrale et la nécessité d’articuler la proposition avec le Digital Services Act a conduit à recentrer l’interdiction sur les réseaux considérés comme les plus nocifs [11], dont la liste devra être fixée par décret après avis de l’Arcom, tandis que le Conseil d’État rappelait que la liberté d’expression des mineurs devait être préservée, ce qui a incité le législateur à tempérer la portée de l’interdiction.
Parallèlement, la faisabilité technique et l’efficacité du dispositif ont été vivement discutées, plusieurs députés exprimant leurs doutes sur la capacité réelle à empêcher l’accès des mineurs, notamment en raison des multiples moyens de contournement disponibles, tels que les VPN, et en s’appuyant sur l’exemple australien souvent cité comme illustration des difficultés à rendre effectives des interdictions trop strictes [12].
Le partage des responsabilités a également nourri les échanges, opposant ceux qui insistaient sur la nécessaire responsabilisation des parents à ceux qui plaidaient pour un renforcement marqué des obligations pesant sur les plateformes, ce qui a conduit à une solution d’équilibre : l’autorisation parentale est appelée à jouer un rôle pour certains accès mais la responsabilité principale demeure concentrée sur les fournisseurs de services [13].
Dans le même mouvement, de nombreux parlementaires ont défendu une approche globale fondée sur la prévention et l’éducation, en insistant sur la formation des parents, l’éducation au numérique dès le primaire et l’accompagnement psychologique des jeunes, de sorte que l’interdiction ne soit qu’un outil parmi d’autres et non l’alpha et l’oméga de la politique publique [14].
Le contrôle d’âge, véritable clé de voûte du dispositif, a par ailleurs suscité de vives interrogations quant à la protection des données personnelles et, plus largement, à la préservation de la vie privée des mineurs, l’interdiction d’accès étant perçue par certains comme une atteinte potentiellement disproportionnée à la liberté de communication [15].
Enfin, la régulation de la publicité et des contenus est apparue comme un champ de tension autonome [16] : tout en réaffirmant la nécessité de réduire la pression commerciale, de limiter la promotion de produits nocifs et de combattre la diffusion de contenus addictifs qui visent ou touchent spécialement les mineurs [17], plusieurs intervenants ont mis en doute la capacité opérationnelle des plateformes à modérer ces risques de manière effective et pérenne.
IV. Un texte à la fois pragmatique et perfectible
La version finalement adoptée combine ainsi des mesures d’interdiction, de régulation et d’accompagnement, avec une entrée en vigueur progressive à la rentrée 2026 [18].
Cependant, la plupart des intervenants s’accordent à dire que ce texte n’est qu’une première étape [19]. Il s’agit, selon la rapporteure, de « la première pierre d’une régulation durable », qui devra s’appuyer sur une coopération renforcée à l’échelle européenne, une amélioration des moyens de contrôle et un investissement accru dans l’éducation et la prévention.
V. La proposition française face aux modèles étrangers
La proposition de loi ne peut être comprise isolément. Elle s’inscrit dans un mouvement européen [20] et international de durcissement de la protection des mineurs en ligne, mais adopte une voie singulière : celle d’un seuil d’interdiction explicite.
L’Australie a récemment choisi une solution comparable en fixant à 16 ans l’âge minimal pour l’ouverture d’un compte sur certaines plateformes [21]. L’option est a priori claire puisqu’il s’agit de protéger par l’éviction. Mais l’expérience étrangère montre que cette clarté normative se heurte immédiatement à une question technique et juridique majeure : comment vérifier l’âge sans porter une atteinte excessive à la vie privée ? La solidité du dispositif dépend alors moins de la proclamation du principe que de l’architecture du contrôle.
Le Royaume-Uni a retenu une approche différente. L’Online Safety Act (OSA) [22] ne pose pas d’interdiction générale mais impose aux plateformes accessibles aux enfants des obligations renforcées d’évaluation des risques et de réduction des contenus ou fonctionnalités susceptibles de leur nuire. Le contrôle est confié à un régulateur sectoriel, l’Office of communications (Ofcom). Il s’agit moins d’empêcher l’accès que d’encadrer l’environnement numérique. Ce modèle privilégie la régulation continue et la responsabilité des acteurs plutôt qu’un seuil uniforme.
À l’échelle européenne, le Digital Services Act (DSA) [23] impose aux plateformes de garantir un niveau élevé de protection des mineurs tandis que le Règlement général sur la protection des données (RGPD) [24] encadre le consentement des enfants aux services numériques. L’Union européenne n’a toutefois pas instauré d’interdiction générale d’accès aux réseaux sociaux.
Aux États-Unis enfin, le texte de référence – le Children’s Online Privacy Protection Rule (COPPA) [25] – vise la collecte et l’utilisation des données des moins de 13 ans, sans interdire leur présence sur les plateformes. Le choix américain est historiquement centré sur la régulation informationnelle, non sur l’exclusion.
Ainsi, le texte français se situe au croisement de ces modèles. Il emprunte à l’Australie la logique du seuil tout en évoluant dans un cadre juridique européen fondé sur la proportionnalité, la minimisation des données et la liberté d’expression.
VI. Conclusion : un équilibre en construction
À l’issue d’un débat parlementaire nourri, la France s’apprête à se doter d’un arsenal législatif ambitieux pour protéger sa jeunesse des dangers des réseaux sociaux. Si le texte adopté reflète la rigueur juridique et la volonté politique de ses promoteurs, il incarne aussi la complexité de concilier protection des mineurs, respect des libertés fondamentales et adaptation aux mutations rapides du numérique. Il ouvre la voie à des ajustements futurs, guidés par l’expérience, l’évaluation de son efficacité et le dialogue européen.
[1] Laure Miller, Rapport fait au nom de la commission des affaires culturelles et de l’éducation sur la proposition de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux, p. 5 : « Le 13 mars 2025, l’Assemblée nationale décidait la création d’une commission d’enquête sur les effets psychologiques de TikTok sur les mineurs, dont la rapporteure de la présente proposition de loi était à l’initiative. Cette commission d’enquête faisait suite aux alertes lancées par des pères et mères de famille, regroupés au sein du collectif Algos Victima, et qui accusaient le réseau social chinois d’avoir enfermé leurs enfants dans des boucles faisant l’apologie du suicide, prônant l’automutilation ou promouvant des canons de beauté malsains. »
[2] Ibid., p. 6 : « Selon l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), 48 % des adolescents sont régulièrement exposés à des contenus choquants sur les réseaux sociaux, dont 24 % à des contenus relatifs aux troubles alimentaires, 19 % à de la pornographie et 16 % à des contenus relatifs au suicide et à l’automutilation. Loin d’être une exception, le visionnage de ce type de contenus peut constituer une routine pour des adolescents entraînés dans des « spirales » de contenus favorisant les pensées et comportements suicidaires. »
[3] Ibid., p. 5 : « […] si les conditions générales d’utilisation des principaux réseaux sociaux interdisent leur accès avant l’âge de 13 ans, 67 % des élèves de primaire sont pourtant inscrits sur les réseaux sociaux. Chez leurs aînés, la non-inscription sur les réseaux sociaux est, de loin, l’exception – seuls 7 % des collégiens et 4 % des lycéens n’ont pas encore créé de compte. »
[4] Proposition de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux, 18 nov. 2025, p. 4 : « […] si le Règlement général sur la protection des données de 2018, ou encore le Digital Services Act de 2024, ont constitué des avancées importantes vers une meilleure régulation des réseaux sociaux, ils restent encore aujourd’hui perfectibles et la France, à la pointe au niveau européen sur ces thématiques, doit continuer de mener ce combat pour des réseaux plus éthiques. »
[5] Proposition de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux, adoptée par l’Assemblée en première lecture, 26 janv. 2026, art. 1er, I : « I. – La loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique est ainsi modifiée : / 1° Après la section 3 du chapitre II du titre Ier, est insérée une section 3 bis ainsi rédigée : / « Section 3 bis « Protection des mineurs en ligne / « Art. 6-9. – I. – L’accès à un service de réseau social en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans. […] »
[6] Op. cit., note 5 : « II. – Le présent article ne s’applique ni aux encyclopédies en ligne, ni aux répertoires éducatifs ou scientifiques, ni aux plateformes de développement et de partage de logiciels libres. »
[7] Op. cit., note 5 : « III. – L’Autorité de régulation de la communication audiovisuelle et numérique veille, dans les conditions prévues au chapitre IV du Règlement (UE) n° 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la Directive 2000/31/CE (règlement sur les services numériques) et aux articles 9-1 et 9-2 de la présente loi, au respect du présent article. »
[8] Ibid., art. 1er bis (nouveau) : « La section 3 du chapitre II du titre Ier de la loi n° 2004-575 du 21 juin 2004 précitée est complétée par un article 6-8-1 ainsi rédigé : / « Art. 6-8-1. – I. – Lorsqu’ils suggèrent ou hiérarchisent, au moyen d’un système de recommandation, des informations fournies par des destinataires du service, les fournisseurs de services de réseaux sociaux en ligne sont réputés exercer, pour ces informations, une activité d’édition lorsque la mise en avant est destinée à un compte identifié comme appartenant à une personne mineure, au moyen d’un classement fondé sur le profilage du destinataire du service. / « II. – Pour les informations ainsi mises en avant, la responsabilité du fournisseur peut être engagée en qualité d’éditeur, sans préjudice de la responsabilité de l’auteur de l’information et du destinataire du service l’ayant fournie. »
[9] Ibid., art. 6 : « I. – Le Code de l’éducation est ainsi modifié : / 1° L’article L. 511-5 est ainsi modifié : / a) (Supprimé) / b) (nouveau) (Supprimé) / c) Au deuxième alinéa, les mots : « peut interdire l’utilisation » sont remplacés par les mots : « doit préciser les lieux et les conditions d’utilisation » ; / d) (nouveau) Après le même deuxième alinéa, il est inséré un alinéa ainsi rédigé : / « À défaut de dispositions spécifiques dans le règlement intérieur, l’utilisation de ces appareils est interdite pendant les cours, sauf demande explicite de l’enseignant. Elle est également interdite dans les couloirs, mais autorisée dans une zone définie de la cour. » ; »
[10] Op. cit., note 4, p. 8 : « L’article 7 a pour objectif d’inscrire dans le Code pénal un délit de négligence numérique. Il s’agit ainsi de laisser la possibilité au juge de sanctionner des parents qui exposeraient de façon manifestement abusive et non contrôlée leurs enfants, et notamment les plus jeunes, à des écrans. Dans la mesure où cette inscription ne peut intervenir qu’après une sensibilisation réelle et effective des parents aux dangers potentiels de l’exposition des plus jeunes aux écrans, il est proposé que cette inscription intervienne 3 ans après la promulgation de la loi. »
[11] Compte-rendu de la commission des affaires culturelles et de l’éducation, 13 janv. 2026, no 30, p. 4 : « La conclusion du Conseil d’État est claire : depuis 2023, l’état du droit n’a pas évolué. Le DSA étant un règlement d’harmonisation maximale, la régulation des plateformes relève du droit de l’Union européenne et les États membres ne peuvent pas, dans ce champ, adopter ou maintenir des exigences nationales supplémentaires. Autrement dit, il n’est pas conforme au droit de l’Union d’imposer aux plateformes de nouvelles obligations, notamment en matière d’âge minimal d’accès, comme la loi de M. Marcangeli entendait le faire et comme le propose l’article premier de ma proposition de loi. / Ce constat n’est, heureusement, pas synonyme d’échec, car le DSA laisse aux États membres la compétence de définir ce qui est licite ou non sur les plateformes. Le législateur national peut donc choisir de rendre illicite l’accès des mineurs de moins de 15 ans aux contenus diffusés par les réseaux sociaux. L’artifice est subtil mais efficace : il ne faut pas écrire « les réseaux sociaux interdisent l’accès aux moins de 15 ans », mais « l’accès aux réseaux sociaux est interdit aux moins de 15 ans ». Ce faisant, nous rendrions applicables l’ensemble des mécanismes prévus par le DSA pour réguler les contenus illicites, notamment le contrôle de l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) et de la Commission européenne. Les plateformes qui ne respecteraient pas l’interdiction de l’accès aux mineurs de moins de 15 ans seraient sanctionnées. Notre objectif serait ainsi atteint. »
[12] JORF AN, 27 janv. 2026, Compte-rendu intégral de la 2e séance du lundi 26 janv. 2026, p. 3-4 : « La parole est à M. Arnaud Saint-Martin, pour soutenir l’amendement no 13. / M. Arnaud Saint-Martin. Cet amendement vise à décaler la date d’entrée en vigueur de la présente loi au 1er septembre 2027 ; il s’agit donc d’un amendement de repli. Je me fonderai sur l’exemple australien, souvent cité ce soir. En décembre dernier, l’Australie a approuvé un texte obligeant les plateformes de réseaux sociaux comme X, TikTok, Instagram ou Facebook à prendre des mesures raisonnables pour interdire aux mineurs de moins de 16 ans la création ou la conservation d’un compte, sous peine d’amendes pouvant atteindre 28 millions d’euros. / Le texte avait des contours flous. Il ne fournissait quasiment aucun détail sur ses modalités d’application concrètes ou sur la protection des droits fondamentaux en ligne, sachant que les solutions envisagées pour contrôler l’âge des utilisateurs mineurs sont toutes plus délétères les unes que les autres : recours à un tiers extérieur détenant leurs informations personnelles, selfies de vérification, surveillance des habitudes de consommation pour tenter de déduire leur âge, contrôle des contenus consultés ou des messages d’anniversaire reçus. De manière implicite, c’est la fin de la vie privée et l’instauration d’une surveillance généralisée. / Cependant, comme une forme d’aveu, le gouvernement australien a rapidement reconnu qu’aucune solution ne serait efficace à 100 %. À peine un mois après son entrée en vigueur, la presse rapporte déjà que de nombreux utilisateurs ont recours à diverses techniques pour contourner l’interdiction : migration vers de plus petites plateformes non concernées par cette obligation à ce stade, usage d’un VPN ou recours à des proches plus âgés pour passer les filtres. / Le cas australien confirme l’inefficacité de cette mesure et la nécessité d’une véritable politique de régulation des plateformes numériques, accompagnée d’un renforcement de la prévention des risques associés, mais vous vous obstinez, tête baissée, dans ce qui ressemble à un échec. Si l’on veut légiférer, il faut le faire à partir de cas concrets et, en l’espèce, ils montrent que votre stratégie n’est pas efficiente ! »
[13] Ibid., p. 4-5 : « Il m’a également paru important de laisser une place à l’autorité parentale – ce qui satisfera sans doute certains d’entre vous –, comme s’y employait la loi de M. Marcangeli. / L’article 371-1 du Code civil, qui définit l’autorité parentale, prévoit que les parents protègent leur enfant et l’associent aux décisions qui le concernent, selon son âge et son degré de maturité. / En conséquence, je vous propose un système à deux étages. / Les réseaux sociaux et les plateformes de partage de vidéos qui constituent un danger pour l’épanouissement physique, mental ou moral des moins de 15 ans leur seront interdits. / La liste des plateformes concernées sera déterminée par décret en Conseil d’État, pris après avis de l’Arcom. Ce dispositif permettra de s’adapter à l’évolution des réseaux sociaux. / Pour les autres réseaux sociaux, le principe sera également l’interdiction, sauf si le mineur de moins de 15 ans peut justifier de l’accord préalable exprès d’au moins l’un de ses administrateurs légaux. »
[14] Op. cit., note 1, p. 69 : « Plusieurs d’entre vous ont mis en avant l’éducation au numérique. Je suis d’accord et ce que je propose ne nous exonère pas de la mettre en œuvre. Cet enseignement existe un peu ; il devrait être mieux organisé et peut-être faire l’objet d’une matière à part entière. Toutefois, le temps et les moyens alloués à une proposition de loi sont réduits. Avant la fin de l’année ou de la législature, nous pourrions en faire adopter une autre qui serait centrée sur la sensibilisation et l’éducation au numérique. J’espère que nous y travaillerons tous ensemble. »
[15] Ibid., p. 58 : « Les réseaux sociaux exposent nos enfants à des risques majeurs : contenus violents, cyberharcèlement, addictions, effondrement de l’attention, etc. Nous ne pouvons plus fermer les yeux. Protéger les mineurs dans l’univers numérique est une priorité nationale, car les jeunes sont l’avenir de la nation. / Pour autant, cette exigence de protection ne doit pas faire oublier la nécessité de préserver les libertés fondamentales. Le Rassemblement national attache une grande importance à la liberté d’expression, au respect de la vie privée et à la garantie de l’anonymat sur internet, qui sont au cœur des principes démocratiques. La lutte contre les dérives des plateformes ne doit jamais servir de prétexte à une surveillance généralisée : nous restons très vigilants à cet égard. Le projet Chat Control de la Commission européenne, qui visait à autoriser l’analyse automatisée des communications privées au nom de la protection des mineurs, est l’exemple le plus inquiétant des tendances existantes en la matière. »
[16] Ibid., p. 31 : « Aujourd’hui, le droit français n’impose pas aux messages publicitaires en faveur de services de réseaux sociaux de comporter une information à caractère sanitaire, portant notamment sur les risques de dépendance susceptible d’être développée par les jeunes enfants, les troubles de l’attention pouvant découler d’une utilisation excessive, les troubles du sommeil, etc. »
[17] Op. cit., note 5, art. 3 bis B (nouveau) : « L’article 5 de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux est complété par un V ainsi rédigé : / « V. – La promotion de services tels que les réseaux sociaux ou les plateformes en ligne s’accompagne d’une mention “produits dangereux pour les moins de quinze ans”. Cette mention est claire, lisible et identifiable sur l’image ou sur la vidéo, sous tous les formats et durant l’intégralité de la promotion. »
[18] Ibid, art. 1er in fine : « II (nouveau). − Le présent article entre en vigueur le 1er septembre 2026, y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française. Pour les comptes d’accès aux services de réseaux sociaux créés avant cette date, il s’applique à l’expiration d’un délai de quatre mois à compter de cette date. »
[19] Op. cit., note 1, p. 55 : « Le texte est sans doute aussi imparfait, car nous sommes les premiers dans l’Union européenne à légiférer depuis les lignes directrices publiées en juillet. Il faut accepter l’idée que nous essuyions les plâtres et que l’efficacité de ces dispositions suscite une certaine perplexité. Dans ces conditions, il serait compréhensible que nous ne parvenions pas tout de suite à une solution parfaite. Nous devrons renforcer l’efficacité de la protection à mesure que nous avançons. »
[20] Ibid., p. 7-8 : « Dans ce contexte, des projets d’instauration d’un âge minimal d’accès aux réseaux sociaux sont étudiés, à un stade plus ou moins avancé, dans plusieurs États membres, dont le Danemark, la Norvège, l’Italie, l’Espagne et la Grèce. »
[21] Ibid., p. 8 : « En dehors de l’Union européenne, l’Australie a interdit l’accès des mineurs de 16 ans à plusieurs plateformes, dont Facebook, Instagram, YouTube, TikTok, Snapchat, Reddit, Kick, Twitch, Threads et X, à compter du 10 décembre 2025. À cette date, les plateformes concernées ont désactivé l’accès à 4,7 millions de comptes détenus par des mineurs de 16 ans. »
[22] L’Online Safety Act (OSA) est une loi du Royaume-Uni qui établit un cadre juridique de régulation des services en ligne afin de protéger les utilisateurs, en particulier les mineurs, contre les contenus illégaux et préjudiciables diffusés sur les plateformes numériques. Il s’agit d’une loi adoptée par le Parlement britannique qui impose aux fournisseurs de services en ligne (notamment réseaux sociaux, plateformes de partage de contenus et moteurs de recherche) un devoir de diligence (« duty of care ») visant à prévenir l’exposition des utilisateurs à des contenus illicites et à des contenus nuisibles.
[23] Le Digital Services Act (DSA) est un règlement de l’Union européenne qui établit un cadre juridique harmonisé applicable aux services numériques intermédiaires (notamment les plateformes en ligne, les réseaux sociaux, les places de marché et les hébergeurs), afin de lutter contre les contenus illicites en ligne, renforcer la protection des utilisateurs et accroître la transparence et la responsabilité des acteurs du numérique. Le DSA correspond au Règlement (UE) n° 2022/2065 du Parlement européen et du Conseil du 19 oct. 2022, relatif à un marché unique des services numériques et modifiant la Directive 2000/31/CE (directive « e-commerce ») .
[24] Le Règlement général sur la protection des données (RGPD) est un règlement de l’Union européenne qui établit le cadre juridique applicable à la collecte, au traitement et à la protection des données à caractère personnel des personnes physiques, afin de garantir leurs droits et libertés fondamentaux, notamment le droit à la protection des données. Le RGPD correspond au Règlement (UE) n° 2016/679 du Parlement européen et du Conseil du 27 avr. 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données N° Lexbase : L0189K8I.
[25] Le COPPA (Children’s Online Privacy Protection Act) est une loi fédérale des États-Unis qui encadre la collecte, l’utilisation et la divulgation des données personnelles des enfants de moins de treize ans sur internet par les services en ligne et les sites web. Le COPPA est une loi adoptée en 1998 (15 U.S.C. §§ 6501–6506) visant à protéger la vie privée des enfants en ligne en imposant aux opérateurs de services en ligne destinés aux enfants, ou ayant connaissance qu’ils collectent des données d’enfants de moins de treize ans, des obligations spécifiques en matière de consentement parental et de transparence.
© Reproduction interdite, sauf autorisation écrite préalable
newsid:494175
Réf. : TJ Évry, JEX, 31 mars 2026, n° 25/06593 N° Lexbase : B1055EC3
Lecture: 3 min
N4197B3T
Citer l'article
Créer un lien vers ce contenu
par Jérémie Bouveret, Commissaire de justice
Le 13 Avril 2026
Toute réforme créant de nouveaux actes de procédure interroge sur la portée et les effets de leur délivrance. La procédure de saisie des rémunérations, réformée au 1er juillet 2025, n'échappe pas à ces incertitudes - et ce sont les premières décisions judiciaires qui commencent à y répondre. L'effet interruptif de prescription du commandement de payer semblait pouvoir être acquis par analogie avec la solution retenue en matière de saisie-vente. À l'instar de ce dernier, le commandement aux fins de saisie des rémunérations n'est pas un acte d'exécution forcée au sens strict, puisqu'il précède la saisie elle-même, mais il a pour effet d'en engager la procédure. Or la jurisprudence, faisant application de l'article 2244 du Code civil N° Lexbase : L4838IRM N° Lexbase : L4838IRM, considère que les actes qui engagent la mesure d'exécution forcée interrompent la prescription de la créance qu'ils tendent à recouvrer, quand bien même ils ne constituent pas eux-mêmes des actes d'exécution (Cass. civ. 2, 13 mai 2015, n° 14-16.025, FS-P+B+R+I N° Lexbase : A8787NHW ; CA Riom, 20 mai 2025, n° 23/01362 N° Lexbase : B0571ABR ; CA Amiens, 30 mai 2023, n° 22/05351 N° Lexbase : A02369YE; CA Poitiers, 1er juillet 2025, n° 25/00800) ; solutions rendues, il est vrai, en matière de saisie-vente. Le juge de l'exécution du tribunal judiciaire d'Évry fait application de ce principe au commandement délivré sous l'empire de la réforme et confirme son effet interruptif de la prescription décennale attachée à l'exécution d'un titre judiciaire.
Faits et procédure. À la suite d'une procédure de saisie immobilière soldée par une distribution du prix intervenue au plus tôt le 13 février 2023, un solde de créance restait dû à la Caisse de Crédit Mutuel, dont le montant avait été fixé à 260 787,91 euros par jugement d'orientation du 8 décembre 2020. Le créancier a fait délivrer, le 15 octobre 2025, un commandement aux fins de saisie des rémunérations pour un montant de 132 692,93 euros. La débitrice a saisi le juge de l'exécution en invoquant, d'une part, la prescription biennale de l'article L. 218-2 du Code de la consommation N° Lexbase : L1585K7T et, d'autre part, la caducité du commandement faute d'inscription régulière au registre numérique des saisies des rémunérations.
Solution. Le juge de l'exécution déboute la débitrice de l'intégralité de ses demandes. Il écarte d'abord la caducité, le commandement ayant été inscrit au registre numérique dans le délai imposé par les articles L. 212-2 N° Lexbase : L3500MKT et R. 212-1-2 N° Lexbase : L4068MSH du CPCE. Sur la prescription, il retient que la créance, fondée sur un titre judiciaire, relève de la prescription décennale de l'article L. 111-4 du CPCE N° Lexbase : L5792IRX et non de la prescription biennale du droit de la consommation. Ce délai n'ayant commencé à courir qu'à compter de la clôture de la procédure de saisie immobilière - celle-ci interrompant la prescription jusqu'à la distribution du prix en application de l'article R. 322-20 du CPCE N° Lexbase : L2439ITI-, le commandement du 15 octobre 2025 est intervenu utilement dans le nouveau délai ouvert : en tant qu'acte engageant la mesure d'exécution forcée au sens de l'article 2244 du Code civil, il en interrompt valablement le cours et fait courir un nouveau délai décennal.
© Reproduction interdite, sauf autorisation écrite préalable
newsid:494197