En avril 2026, le compte officiel de la Commission européenne consacré au numérique publie un message à vocation pédagogique. Il y est question d’émojis. Une feuille d’érable rose, un flocon de neige, un diamant bleu : « un émoji n’est pas toujours un émoji ». Le propos se veut léger. Il renvoie au premier rapport à l’échelle de l’Union sur les risques systémiques en ligne, publié le 20 novembre 2025 par la Commission et le Board des coordinateurs pour les services numériques, en application de l’article 35(2) du règlement sur les services numériques (DSA)[1]. Ce rapport salue, parmi les mesures d’atténuation déployées par les très grandes plateformes, le recours à des systèmes automatisés de détection d’émojis utilisés comme langage codé pour des activités illégales, au premier rang desquelles la vente de drogues[2].
L’anecdote mérite d’être prise au sérieux. Non parce que la Commission aurait découvert un phénomène réel — le recours à des symboles pour contourner la modération est documenté de longue date par les plateformes elles-mêmes, à commencer par Meta et X dans leurs rapports d’évaluation des risques[3] — et il ne s’agit pas de contester l’existence des pratiques visées. La vente en ligne de substances illicites, le recrutement criminel de mineurs, la diffusion de contenus pédopornographiques constituent des problèmes réels auxquels la logique traditionnelle du signalement individuel ne peut plus répondre à l’échelle des très grandes plateformes. Reconnaître cela est une condition de sérieux pour qui veut ensuite interroger la méthode retenue.
C’est précisément cette méthode qui mérite l’attention. Sous l’apparence d’une information technique, le rapport acte un basculement juridique qui n’a pas été identifié comme tel par la presse généraliste. Ce que les institutions européennes célèbrent comme une bonne pratique n’est rien de moins qu’un changement de régime dans la responsabilité des intermédiaires numériques. Le DSA entre dans son âge sémiotique.
Du contenu illégal au signe suspect
La directive sur le commerce électronique de l’an 2000, puis la jurisprudence qui l’a précisée, avaient posé un principe clair : l’hébergeur ne répond pas du contenu illicite qu’il stocke, sauf à en avoir connaissance effective et à ne pas agir promptement[4]. Le pivot de la responsabilité était l’illégalité manifeste d’un contenu identifié, signalé, et laissé en ligne malgré cela. Ce régime présentait une vertu cardinale : il se réglait sur des actes délimités. Un contenu illégal est un objet discret. Il existe ou n’existe pas. Il se prête au contrôle juridictionnel.
Le DSA n’abroge pas ce régime. Il le recouvre. À côté de l’obligation de retrait des contenus illégaux, les articles 34 et 35 imposent aux très grandes plateformes d’identifier et d’atténuer les « risques systémiques » que leurs services feraient peser sur la dissémination de contenus illégaux, sur les droits fondamentaux, sur le débat civique, sur la santé publique ou sur la protection des mineurs[5]. Le glissement est considérable, et il est de trois ordres.
Il est d’abord quantitatif. On passe d’une logique de contenu — on identifie une pièce, on la qualifie, on la retire — à une logique de flux. La plateforme doit évaluer non plus ce qui circule, mais ce qui pourrait circuler et ce que ses propres dispositifs techniques, à commencer par les systèmes de recommandation, rendent probable. L’objet de la régulation n’est plus le message ; c’est l’architecture qui le transporte.
Il est ensuite qualitatif. Le rapport du Board reconnaît explicitement, au sujet de l’article 34, que la notion de risque systémique n’est pas définie par le règlement et que les plateformes se sont abstenues d’en proposer une définition opératoire dans leurs évaluations annuelles[6]. Cette indétermination, loin d’être un défaut de rédaction, devient l’espace opératoire du nouveau régime. Les autorités évaluent après coup si l’évaluation conduite par la plateforme était suffisante. Le juge n’intervient qu’en bout de chaîne, pour connaître des sanctions administratives. Entre les deux, c’est l’appréciation du régulateur qui structure le droit applicable.
Il est enfin sémiotique, au sens propre. La détection d’émojis comme mesure d’atténuation vertueuse marque le moment où l’objet du contrôle cesse d’être le contenu identifiable pour devenir le signe interprétable. Un émoji de feuille d’érable n’est pas un contenu illégal. Il peut l’être, dans un certain contexte, en combinaison avec d’autres signes, sur certaines plateformes, auprès de certains publics. Sa qualification dépend d’une lecture. Or cette lecture, à l’échelle du volume traité par les très grandes plateformes, ne peut être qu’algorithmique — et, par conséquent, probabiliste, contextuelle, opaque.
L’économie politique de l’indétermination
Un régime juridique fondé sur l’interprétation contextuelle de signes par des systèmes automatisés, encadré par des obligations dont la définition est laissée ouverte, produit mécaniquement une double délégation.
La première va du législateur à l’administration. En inscrivant dans le règlement des obligations dont le contenu est défini par des lignes directrices, des rapports, des échanges bilatéraux, des codes de conduite et des enquêtes formelles, le DSA confie à la Commission européenne une latitude d’interprétation que le droit pénal traditionnel n’aurait jamais tolérée. Les premières procédures engagées depuis 2023 contre X, TikTok, AliExpress, Meta et, plus récemment, Snapchat suivent toutes la même structure : demande d’information, qualification préliminaire par les services de la Commission, dialogue de conformité, puis, le cas échéant, sanction pouvant atteindre 6 % du chiffre d’affaires mondial[7]. La première amende formelle, prononcée le 5 décembre 2025 contre X pour 120 millions d’euros, atteste la maturation du dispositif[8]. La chaîne d’évaluation est pour l’essentiel administrative. Le contrôle de la Cour de justice de l’Union européenne reste disponible en bout de procédure, mais il n’a pas encore eu l’occasion de se prononcer sur l’interprétation des articles 34 et 35 — ce qui laisse pour l’instant la Commission maîtresse du terrain sémantique[9].
La seconde délégation va de l’administration aux plateformes elles-mêmes. L’article 35 exige certes que les mesures d’atténuation soient « raisonnables, proportionnées et effectives » et qu’elles tiennent « particulièrement compte » de leurs impacts sur les droits fondamentaux, liberté d’expression comprise[10]. Ces qualificatifs sont ceux qu’un juriste attend du texte. Ils n’épuisent pas la difficulté : la proportionnalité d’une mesure s’apprécie au regard d’un risque dont la définition reste ouverte, ce qui ramène la question au même point. Dès lors que la conformité se juge à l’aune des dispositifs techniques mis en œuvre pour détecter, atténuer ou prévenir des risques eux-mêmes mal définis, les plateformes ont intérêt à déployer des mécanismes extensifs plutôt que restrictifs. Les rapports d’évaluation des risques publiés par Meta en 2024 et par X entre 2023 et 2024, cités par le Board, attestent cette orientation : la liste des catégories de contournement s’allonge, la détection algorithmique s’étend, la palette des signes surveillés croît à mesure que les acteurs illicites adaptent leur vocabulaire[11]. La détection sémiotique n’a pas de point d’équilibre stable. Elle est par construction en expansion.
Il s’ensuit une situation où ce ne sont ni les institutions judiciaires, ni même les autorités administratives, qui arbitrent en pratique le périmètre du licite en ligne. Ce sont les équipes de confiance et sécurité des très grandes plateformes, répondant à des obligations dont la mesure exacte leur échappe, et choisissant la prudence. La Commission, dans ses communications, insiste sur le fait que le DSA n’impose jamais de retirer des contenus légaux. L’objection est juridiquement exacte et politiquement insuffisante. Le régime ne contraint pas au retrait. Il incite structurellement à la sur-modération, parce que la sur-modération est le comportement dominant pour un acteur rationnel exposé à une obligation indéfinie assortie de sanctions définies. Le rapport du Board reconnaît d’ailleurs lui-même que « la sur-modération peut affecter négativement le débat civique et créer des risques pour la liberté d’expression »[12].
Un glissement qui n’a pas été nommé
La critique du DSA existe. Elle a pris, depuis le début de l’année 2025, une tonalité principalement américaine, portée par des dirigeants de plateformes et des responsables politiques qui voient dans le règlement un instrument de censure étrangère[13]. La Commission a répondu, notamment dans le rapport de novembre 2025, en réaffirmant que le DSA protège la liberté d’expression, qu’il ne contraint à aucun retrait de contenu licite, et que le risque majeur pour la parole libre vient au contraire de la sur-modération privée des plateformes elles-mêmes. Cette défense est habile. Elle déplace le débat du terrain du droit — où l’indétermination des obligations pose un problème sérieux — vers celui des intentions, où chacun peut produire les siennes.
L’enjeu n’est pourtant pas celui de la censure, au sens où l’entendraient un pouvoir autoritaire et son opposition. Le DSA n’est pas un dispositif de suppression des opinions contraires. Il est autre chose, que les catégories politiques héritées peinent à saisir : un régime d’orientation des flux communicationnels par l’administration, fondé sur des obligations procédurales dont la mesure est appréciée en continu par le régulateur. Ce n’est pas la censure classique, c’est la gestion permanente des conditions de la parole publique. Le rapport de novembre 2025, et la communication d’avril 2026 qui le met en scène, en offrent une illustration particulièrement claire parce qu’ils portent sur l’objet le plus anodin possible : de petits dessins dans des messages privés ou publics.
La presse généraliste a couvert le rapport en retenant ce qui s’y prêtait le mieux : la protection des mineurs, la désinformation électorale, les risques liés à l’intelligence artificielle générative. Ces thèmes existent. Ils ne sont pas le cœur du document. Le cœur du document, c’est la normalisation d’un régime juridique où la conformité d’une plateforme se mesure à la qualité de sa lecture des signes que font circuler ses utilisateurs. Aucun grand journal ne l’a présenté ainsi.
Trajectoire probable
Il n’est pas nécessaire de prêter à la Commission des intentions illibérales pour anticiper la trajectoire de cette architecture. Il suffit d’en suivre la logique propre.
Dans un premier temps, les catégories de signes soumis à détection s’élargiront. La feuille d’érable rose et le flocon de neige rejoindront des symboles déjà identifiés, puis d’autres, à mesure que les acteurs illicites innoveront. La « liste » n’est pas publique, ne peut pas l’être, et ne sera jamais stable. Le champ de la surveillance automatisée suit la logique des outils de détection : il s’étend.
Dans un deuxième temps, les catégories de risques systémiques s’élargiront également, par voie de lignes directrices, de codes de conduite, de réponses aux crises. La Commission a déjà publié des orientations spécifiques pour les élections en mars 2024, puis des lignes directrices sur la protection des mineurs en 2025[14]. D’autres suivront. Chaque nouvelle catégorie créera de nouveaux signes à surveiller, de nouveaux contextes à pondérer, de nouvelles métriques à produire. Le périmètre des services visés suit une trajectoire analogue : de dix-sept plateformes et deux moteurs de recherche désignés en avril 2023, le dispositif couvre aujourd’hui vingt-trois très grandes plateformes, et son extension n’a aucune raison structurelle de s’interrompre[15].
Dans un troisième temps, la logique sémiotique débordera les plateformes déjà désignées. Les messageries chiffrées sont régulièrement évoquées dans les débats européens comme prochain horizon, même si aucune désignation formelle n’a été prononcée à ce stade. Les environnements immersifs — jeux, univers persistants — figurent également dans les discussions. L’intelligence artificielle générative est déjà dans le champ. Ce qui a commencé comme un dispositif ciblant quelques très grandes plateformes est une matrice transposable à tout intermédiaire numérique servant un public européen.
Dans un quatrième temps, la question se posera, dans les termes de la tradition libérale classique, de savoir si un ordre juridique où la parole se règle par l’appréciation continue d’un régulateur administratif sur les dispositifs techniques d’intermédiaires privés reste compatible avec ce que Constant, Tocqueville ou Aron entendaient par société libre. La question n’est pas encore posée publiquement. Elle le sera. Le rapport du 20 novembre 2025 en fournit, sans le savoir, le point de départ documenté : le jour où l’Union européenne a officiellement célébré, comme une réussite, le fait que des machines lisent nos émojis pour le compte de ses institutions.

Sources


  1. Commission européenne, Digital Services Act report lays out landscape of systemic risks online, communiqué de presse, 20 novembre 2025. https://digital-strategy.ec.europa.eu/en/news/digital-services-act-report-lays-out-landscape-systemic-risks-online ↩︎
  2. First report of the European Board for Digital Services under Article 35(2) DSA on systemic risks and mitigations, Board européen des services numériques et Commission européenne, novembre 2025. https://ec.europa.eu/newsroom/dae/redirection/document/121707 ↩︎
  3. Facebook, 2024 DSA risk assessment report, p. 31, cité dans le premier rapport du Board ; X, 2023 DSA risk assessment report, p. 28, et 2024 DSA risk assessment report, p. 32, cités dans le même rapport. ↩︎
  4. Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, articles 14 et 15. https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=celex%3A32000L0031 ↩︎
  5. Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques, articles 34 et 35. https://eur-lex.europa.eu/eli/reg/2022/2065/oj/fra ↩︎
  6. Premier rapport du Board DSA, op. cit. ; voir également DSA Observatory, The DSA’s Systemic Risk Framework: Taking Stock and Looking Ahead, mai 2025. https://dsa-observatory.eu/2025/05/27/the-dsas-systemic-risk-framework-taking-stock-and-looking-ahead/ ↩︎
  7. Commission européenne, The enforcement framework under the Digital Services Act. https://digital-strategy.ec.europa.eu/en/policies/dsa-enforcement ; Commission européenne, Commission investigates Snapchat’s compliance with child protection rules under the Digital Services Act, 26 mars 2026. https://digital-strategy.ec.europa.eu/en/news/commission-investigates-snapchats-compliance-child-protection-rules-under-digital-services-act ↩︎
  8. International Association of Privacy Professionals, European Commission fines X 120M euros for DSA violations, 5 décembre 2025. https://iapp.org/news/a/european-commission-fines-x-120m-euros-for-dsa-violations ↩︎
  9. Règlement (UE) 2022/2065, articles 73, 74 et 82 ; sur l’absence de jurisprudence de la CJUE relative aux articles 34-35, voir DSA Observatory, op. cit., mai 2025. ↩︎
  10. Règlement (UE) 2022/2065, article 35(1). https://eur-lex.europa.eu/eli/reg/2022/2065/oj/fra ↩︎
  11. Premier rapport du Board DSA, op. cit., citations des rapports plateformes précitées. ↩︎
  12. TechPolicy.Press, Assessing What an EU Report Says About Systemic Risks Under the Digital Services Act, décembre 2025, citant le rapport du Board. https://www.techpolicy.press/assessing-what-an-eu-report-says-about-systemic-risks-under-the-digital-services-act/ ↩︎
  13. Lawfare Media, Systemic Risk Assessments Hold Clues for EU Platform Enforcement, février 2025. https://www.lawfaremedia.org/article/systemic-risk-assessments-hold-clues-for-eu-platform-enforcement ↩︎
  14. Commission européenne, Guidelines for providers of VLOPs and VLOSEs on the mitigation of systemic risks for electoral processes, 26 mars 2024 (adoption formelle 26 avril 2024). https://digital-strategy.ec.europa.eu/en/library/guidelines-providers-vlops-and-vloses-mitigation-systemic-risks-electoral-processes ; Commission européenne, 2025 DSA Guidelines on the protection of minors. ↩︎
  15. Commission européenne, Supervision of the designated very large online platforms and search engines under DSA. https://digital-strategy.ec.europa.eu/en/policies/dsa-vlops ; Library of Congress, European Union: Commission Publishes List of Very Large Online Platforms and Search Engines under Digital Services Act, 4 mai 2023. https://www.loc.gov/item/global-legal-monitor/2023-05-04/european-union-commission-publishes-list-of-very-large-online-platforms-and-search-engines-under-digital-services-act/ ↩︎