Le Quotidien du 5 mai 2026

Le Quotidien

Commissaires de justice

[Brèves] Le salarié doit se voir notifier l’ordonnance sur requête lorsqu’il est visé par celle-ci

Réf. : Cass. civ. 2, 16 avril 2026, n° 23-12.123, FS-B  N° Lexbase : B0656EEZ

Lecture: 3 min

N4327B3N

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/133759808-edition-du-05052026#article-494327
Copier

par Alexandre Autrand, doctorant, ATER à l’Université Paris-Est Créteil

Le 04 Mai 2026

Lorsqu’une ordonnance sur requête autorise des mesures d’investigations, à l’égard d’une société et de l’un de ses salariés, le commissaire de justice doit remettre une copie de l’ordonnance et de la requête au salarié après lui avoir présenté la minute, quand bien même la décision est exécutée seulement dans les locaux de l’employeur (V. Cass. civ. 2, 13 novembre 2015, n° 13-27.563, FS-P+B N° Lexbase : A1982NZG).

Faits et procédure. Une société de production se prévaut d’actes de concurrence déloyale de la part de l’une de ses concurrentes, susceptibles de concerner l’un de leurs anciens salariés, à savoir M. [L]. Sur le fondement de l’article 145 du Code de procédure civile N° Lexbase : L3150NAW, la société de production a obtenu du président d’un tribunal de commerce, une ordonnance sur requête autorisant à diverses mesures d’investigation. Dans cette ordonnance, le juge a autorisé l’huissier de justice, après avoir constaté la présence de M. [L], à avoir notamment accès à ses ordinateurs personnels. Le 9 novembre 2021, cette mesure est exécutée par un huissier de justice. Lors de l’exécution, l’huissier a laissé une copie de la requête et de l’ordonnance seulement à l’employeur. Le salarié n’a rien reçu en ce sens. La société visée par cette exécution et M. [L] décident d’assigner la société de production, un mois plus tard, aux fins d’obtenir la rétractation de l’ordonnance. À la suite de la décision de première instance, un appel est interjeté par-devant la cour d’appel de Douai, qui statue sur ce recours dans un arrêt du 10 novembre 2022. Ensuite, cette décision est attaquée devant la Cour de cassation par la société de production.

Moyen / Appel.  Cette dernière fait grief à l’arrêt d’ordonner la rétractation de l’ordonnance sur requête. Au soutien de son pourvoi, la société de production estime que malgré la mention de M. [L] dans l’ordonnance, les mesures d’instruction sollicitées devaient s’exécuter dans les seuls locaux de l’employeur. La société de production estime que c’est à bon droit que le salarié n’a pas reçu une copie de la requête et de l’ordonnance par l’huissier. Or, la cour d’appel estime que l’employeur et le salarié sont deux personnes juridiquement distinctes. Par conséquent, les juges du fond affirment que le salarié aurait aussi dû recevoir une copie de la requête et de l’ordonnance, après s’être fait présenter la minute par l’huissier. En statuant ainsi, la société de production estime que la cour d’appel a violé l’article 495 du Code de procédure civile N° Lexbase : L6612H7Z.

Solution. La Cour de cassation rejette l’argumentation de la société.  Après avoir évoqué la jurisprudence de la Cour européenne des droits de l’Homme, la Haute juridiction estime qu’elle doit préciser sa jurisprudence (Cass. civ. 2, 13 novembre 2015, n°13-27.563 N° Lexbase : A1982NZG), relative à la notification de l’ordonnance sur requête désignant une société et l’un de ses salariés. Désormais elle considère que la personne qui supporte l'exécution de la mesure devant s'exécuter au siège social d'une société est aussi le salarié de cette société, lorsque l'ordonnance autorise l'huissier de justice, après avoir constaté la présence de ce dernier, à accéder non seulement aux serveurs et postes informatiques de la société, mais aussi aux ordinateurs personnels et à la messagerie personnelle de celui-ci. Par conséquent, l’huissier aurait dû remettre au salarié de la société une copie de l’ordonnance et de la requête après lui avoir présenté la minute.

newsid:494327

Droit des étrangers

[Dépêches] Illégalité du refus de la protection temporaire à un ressortissant ukrainien détenteur d’un titre de séjour

Réf. : CAA Toulouse, 2 avril 2026, n° 24TL01455 N° Lexbase : B7773D9R

Lecture: 1 min

N4309B3Y

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/133759808-edition-du-05052026#article-494309
Copier

par Yann Le Foll

Le 30 Avril 2026

La détention d’un titre de séjour d’un État tiers à l’Union européenne ne constitue pas un motif légal de refus du renouvellement d’un document provisoire de séjour « protection temporaire ».

La question ici posée est de savoir si une ressortissante ukrainienne entrée en France en mars 2022 qui a bénéficié d’une autorisation provisoire de séjour portant la mention « bénéficiaire de la protection temporaire » au titre de l’article L. 581-3 du Code de l'entrée et du séjour des étrangers et du droit d'asile N° Lexbase : L3574LZE peut se voir refuser le renouvellement de cette protection temporaire au motif qu’elle a bénéficié d’un titre de séjour délivré par les autorités d’un État tiers à l’Union européenne (en l’occurrence le Canada).

Les juges toulousains apportent une réponse négative.

Ils précisent qu’en effet, il résulte des dispositions de l’article L. 581-3 précité qu’un tel refus ne peut être opposé qu’aux étrangers déjà autorisés à résider sous couvert d'un document de séjour au titre de la protection temporaire dans un autre État membre de l'Union européenne.

Voir aussi : T. Fleury Graff, Dignité humaine et afflux massif de demandeurs de protection internationale : quelle responsabilité des États membres au regard du droit de l’Union européenne ?, Lexbase Public n° 778, novembre 2025 N° Lexbase : N3206B37.

 

 

newsid:494309

Internet

[Focus] TikTok, scroll infini et santé mentale des mineurs : l’Europe invente- t-elle un droit de l’attention ?

Lecture: 11 min

N3982B3U

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/133759808-edition-du-05052026#article-493982
Copier

par Sacha Bettach, Avocate au barreau de Paris

Le 30 Avril 2026

Mots clés : internet • tiktok • scrolling • libertés • algorithme


 

TikTok, scroll infini et santé mentale des mineurs : l’Europe invente- t-elle un droit de l’attention ?

TikTok n’est plus seulement une application de divertissement, ni même un symbole de la « génération Z ». C’est devenu un terrain d’expérimentation juridique où se cristallisent plusieurs lignes de fracture : entre liberté de communication et protection de la santé mentale, entre innovation algorithmique et design addictif, entre régulation nationale et cadre européen.

En quelques années, les pouvoirs publics sont passés de la curiosité inquiète à la mise sous surveillance active. La France a créé une commission d’enquête parlementaire exclusivement consacrée aux effets psychologiques de TikTok sur les mineurs ; l’Organisation mondiale de la santé alerte sur l’augmentation de l’usage problématique des réseaux sociaux chez les adolescents ; la Commission européenne a ouvert une procédure formelle contre TikTok au titre du règlement sur les services numériques (DSA).

Derrière ces signaux, une question structurante émerge : le droit doit-il et peut-il encadrer le « scroll infini » et l’économie de l’attention comme tels ?

L’algorithme de l’attention : des « For You » aux signaux de détresse.

Depuis 2020, les études se succèdent sur l’impact des flux vidéo courts et du scroll infini sur la santé mentale des plus jeunes. En Europe, de nouvelles données publiées par le Bureau régional de l’OMS montrent que la part des adolescents présentant un usage problématique des réseaux sociaux est passée de 7 % en 2018 à 11 % en 2022.

En France, TikTok compte environ 25 millions d’utilisateurs actifs mensuels, et c’est chez les mineurs que la plateforme concentre l’essentiel de son audience. Un rapport de l’Assemblée nationale publié en septembre 2025, à l’issue de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs, relève notamment des cas de contenus incitant à l’automutilation ou au suicide recommandés à des adolescents.

Des ONG comme Amnesty International ont mené leurs propres tests : en créant de faux comptes de jeunes de 13 ans et en se contentant de faire défiler le fil « Pour toi » plusieurs heures, elles ont constaté une concentration de contenus liés à la détresse psychologique, aux troubles alimentaires ou au suicide, sans interaction active (likes, commentaires).

Autrement dit, le simple fait de scroller suffit à entraîner l’algorithme vers des thématiques sensibles, alors que la frontière entre curiosité, vulnérabilité et risque avéré est particulièrement ténue chez les mineurs.

Le DSA : TikTok sous procédure formelle.

Depuis le 25 août 2023, TikTok fait partie des très grandes plateformes en ligne soumises au régime renforcé du DSA (Règlement (UE) n° 2022/2065 sur les services numériques N° Lexbase : L7614MEQ) (VLOP). À ce titre, elle doit évaluer et atténuer les risques systémiques, en particulier ceux pesant sur la protection des mineurs, la santé mentale et la diffusion de contenus préjudiciables.

En février 2024, la Commission européenne a ouvert une procédure formelle pour vérifier si TikTok respecte effectivement ces obligations.

Le 6 février 2026, elle a publié des conclusions préliminaires, estimant que TikTok enfreint le DSA « en raison de sa conception addictive », qui repose sur des fonctionnalités telles que le défilement infini, la lecture automatique des vidéos, les notifications push et un système de recommandation hautement personnalisé.

Les griefs portent notamment sur :

  • la conception de son système de recommandation ;
  • la protection des mineurs, y compris en matière de durée d’exposition ;
  • la transparence des pratiques publicitaires ;
  • et, plus largement, la capacité de la plateforme à atténuer les risques de dépendance.

Le DSA ne vise pas expressément le « scroll infini » mais impose une logique de gestion des risques de design : il ne s’agit plus seulement de supprimer des contenus manifestement illicites, mais d’interroger la structure même de l’interface et des algorithmes lorsqu’ils favorisent des usages problématiques.

Dans son communiqué, la Commission reproche aussi à TikTok de ne pas avoir « évalué de manière adéquate » les conséquences de ces caractéristiques addictives sur le bien-être physique et mental de ses utilisateurs, en particulier les mineurs et les adultes vulnérables, et de ne pas avoir pris de mesures « raisonnables, proportionnées et efficaces » pour atténuer ces risques (gestion du temps, contrôle parental, limitation des usages nocturnes, etc.). Elle indique à titre d’exemple que TikTok pourrait devoir désactiver le défilement infini, introduire de véritables temps d’interruption, notamment la nuit, et adapter en profondeur son système de recommandations. En cas de violation confirmée, la plateforme risquerait jusqu’à 6 % de son chiffre d’affaires annuel mondial.

Ces conclusions préliminaires s’inscrivent dans une enquête plus large : la Commission doit encore se prononcer sur l’efficacité des dispositifs de vérification de l’âge et sur la manière dont TikTok conduit les utilisateurs vers des contenus de plus en plus préjudiciables. Elle avait déjà relevé, dès 2024, des manquements en matière de traitement des signalements, et avait auparavant mobilisé la notion de « conception addictive » pour suspendre le programme de récompenses TikTok Lite dans l’Union.

Face à Bruxelles, TikTok conteste vigoureusement la lecture de l’exécutif européen, dénonçant une « description catégoriquement fausse et totalement infondée » de sa plateforme et annonçant qu’elle utilisera « tous les moyens à [sa] disposition » pour contester ces conclusions.

De son côté, le régulateur français des médias et du numérique, Arcom, s’est félicité de la prise de position de la Commission et a publiquement revendiqué sa contribution au dossier.

La réponse française : de la majorité numérique au procès du scroll infini.

La France a commencé par une approche statutaire. La loi n° 2023-566 du 7 juillet 2023, visant à instaurer une majorité numérique et à lutter contre la haine en ligne N° Lexbase : L5593MSX, a tenté d’instaurer une majorité numérique à 15 ans pour s’inscrire sur les réseaux sociaux. En pratique, faute de décret d’application pleinement opérationnel et de validation par la Commission européenne, ce dispositif n’a pas été appliqué.

Constatant ce décalage entre la norme et la réalité, le législateur français change d’échelle à partir de 2025–2026 en créant une commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs. Cette dernière a formulé une série de recommandations, dont certaines portent directement sur les mécanismes d’addiction : limitation des recommandations de contenus anxiogènes, meilleure information des parents, contrôle du temps d’écran et encadrement des fonctionnalités addictives comme le scroll infini.

En janvier 2026, l’Assemblée nationale adopte, en première lecture, une proposition de loi interdisant l’accès aux réseaux sociaux aux moins de 15 ans, avec une entrée en vigueur envisagée à la rentrée 2026. Plusieurs amendements précisent le périmètre et les exceptions (plateformes éducatives, logiciels libres, etc.).

Ce texte devra être voté par le Sénat et confirmé par la Commission avant de pouvoir entrer en vigueur.

En parallèle, le Sénat discute un texte plus large sur les risques liés à l’exposition aux écrans, intégrant la prévention dans les politiques de santé publique et l’éducation nationale.

Du contenu au design : la naissance d’un « droit des interfaces » ?

Jusqu’ici, le droit de l’internet a majoritairement raisonné en termes de contenus : illicites ou non, modérés ou non, retirés ou non, responsabilité de l’éditeur ou de l’hébergeur.

Avec TikTok et le scroll infini, le débat se déplace vers le design : peut-on considérer certaines architectures de service comme intrinsèquement nuisibles lorsqu’elles visent à capter l’attention des plus vulnérables ?

Deux évolutions convergentes se dessinent :

  • le DSA prohibe explicitement certains « dark patterns », c’est-à-dire des interfaces manipulatoires qui orientent abusivement le choix des utilisateurs (consentement forcé, désabonnement dissuasif, etc.) ;
  • la Commission qualifie désormais explicitement certaines fonctionnalités, défilement infini, lecture automatique, notifications push, de composantes d’une « conception addictive» et demande à TikTok de «modifier la conception de base de son service» ; parallèlement, en France, les travaux parlementaires et les études juridiques identifient le défilement infini et l’autoplay comme des pratiques problématiques à encadrer, en particulier pour les mineurs.

Ce glissement ouvre un chantier théorique :

  • à partir de quel seuil un design devient-il illicite ?
  • faut-il l’évaluer au regard d’un utilisateur moyen ou d’un mineur particulièrement vulnérable ?
  • comment articuler ce contrôle du design avec la liberté d’entreprendre et la liberté de communication, qui comprend l’accès aux services en ligne ?

De l’autre côté de l’Atlantique : le procès de la conception addictive.

Aux États-Unis, le débat sur le scroll infini et les algorithmes de recommandation se judiciarise sous une autre forme. Une procédure de « litige multidistrict » regroupe depuis 2022 plus de 2 000 plaignants, familles d’adolescents, établissements scolaires, autorités locales, qui reprochent à plusieurs grands réseaux sociaux, dont TikTok, Instagram, YouTube et Snapchat, d’avoir sciemment conçu leurs applications pour prolonger au maximum le temps passé en ligne et favoriser l’addiction des jeunes utilisateurs.

Le premier dossier pilote, celui d’une jeune Californienne de 19 ans identifiée sous les initiales K.G.M., devait être jugé début 2026 devant un jury populaire à Los Angeles. À la veille des débats, Snapchat puis TikTok (via sa maison mère ByteDance) ont toutefois choisi de conclure un accord confidentiel, laissant seuls en lice Meta (Facebook, Instagram) et Alphabet (YouTube) pour ce premier procès. L’enjeu dépasse largement le cas individuel : il s’agit de tester, devant un tribunal civil, la possibilité de qualifier la conception même de ces services, et notamment leurs algorithmes de recommandation personnalisés, de produit défectueux au sens du droit de la responsabilité, à l’image des contentieux menés jadis contre l’industrie du tabac.

Pour contourner la protection offerte aux plateformes par la section 230 du Communications Decency Act, les avocats des plaignants ne se placent pas sur le terrain des contenus, mais sur celui du défaut de conception : ce ne seraient pas uniquement les messages ou les vidéos hébergés qui seraient en cause, mais la manière dont les interfaces et les recommandations sont pensées pour créer une utilisation compulsive, à l’origine de dépressions, troubles anxieux, troubles de l’image corporelle ou idées suicidaires.

Qui doit tenir le timer : l’État, la plateforme ou les parents ?

En filigrane, le débat sur le scroll infini pose la question de la répartition des responsabilités.

1.     Les plateformes

Avec le DSA et les propositions nationales, elles ne peuvent plus se retrancher derrière le seul consentement de l’utilisateur. L’argument selon lequel « l’utilisateur peut toujours fermer l’application » devient fragile lorsqu’il s’agit de mineurs et que l’architecture du service est optimisée pour maximiser le temps d’écran.

2.     Les parents et l’école

Les textes en discussion au Sénat et à l’Assemblée insistent sur la nécessité d’une éducation au numérique et d’une prévention intégrée dans les politiques de santé et d’éducation, dès le plus jeune âge.

Le projet de loi discuté à l’Assemblée sur la majorité numérique vise à étendre d’ailleurs l’interdiction des portables dans les lycées aux collèges également.

Mais renvoyer l’essentiel de la charge sur les familles revient, de facto, à consacrer une asymétrie de moyens : un foyer isolé face à un système industriel d’optimisation de l’attention.

3.     L’État régulateur

La multiplication des rapports, commissions et propositions de loi traduit une prise de conscience, mais aussi une hésitation sur l’instrument à privilégier :

  • interdiction par l'âge ;
  • encadrement du design ;
  • régulation des algorithmes via le DSA ;
  • ou combinaison de ces approches.

Conclusion

Le « scrolling TikTok » n’est pas un simple geste du pouce : c’est le symptôme d’un modèle économique qui monétise la durée de présence et la vulnérabilité attentionnelle, en particulier celle des mineurs.

En qualifiant, au niveau européen, certaines fonctionnalités comme le défilement infini, l’autoplay et les notifications push de composantes d’une « conception addictive », et en les identifiant, dans les travaux français, comme des pratiques à limiter ou à interdire pour les moins de 15 ans, les régulateurs ne s’attaquent plus seulement aux contenus, mais bien à l’architecture même des services.

Combiné au DSA, aux évolutions du droit français et aux contentieux qui émergent aux États-Unis, ce mouvement pourrait faire émerger un véritable droit de l’attention, où le temps de cerveau disponible des plus jeunes serait enfin considéré comme une ressource à protéger, et non comme une variable d’optimisation publicitaire.

La question n’est plus de savoir si TikTok va transformer durablement nos usages : c’est déjà fait. La question est désormais de savoir si cette transformation se fera sous l’empire de la loi ou sous celui de l’algorithme.

newsid:493982

Cookies juridiques

Considérant en premier lieu que le site requiert le consentement de l'utilisateur pour l'usage des cookies; Considérant en second lieu qu'une navigation sans cookies, c'est comme naviguer sans boussole; Considérant enfin que lesdits cookies n'ont d'autre utilité que l'optimisation de votre expérience en ligne; Par ces motifs, la Cour vous invite à les autoriser pour votre propre confort en ligne.

En savoir plus