Le 16 avril 2026, la Commission européenne a notifié à Alphabet ses conclusions préliminaires dans la procédure de spécification DMA.100209. Le document de 29 pages, mis en consultation publique jusqu’au 1er mai et destiné à se conclure par une décision contraignante au plus tard le 27 juillet, détaille les mesures que Google devra mettre en œuvre pour partager avec ses concurrents — moteurs de recherche traditionnels et, désormais, chatbots d’intelligence artificielle dotés d’une fonction de recherche — quatre catégories de données issues de Google Search : classement, requêtes, clics et vues. Le partage devra s’effectuer quotidiennement, au niveau de l’enregistrement, par API, à des conditions « équitables, raisonnables et non discriminatoires » (FRAND).
Présenté par la Commission comme une simple opération de mise en conformité, le dossier mérite un examen plus exigeant. Car ce qui se joue dans ces pages techniques n’est pas la sanction d’un abus prouvé, mais la redistribution administrative, en flux continu, de l’actif compétitif central d’une entreprise privée. Une opération sans précédent dans l’histoire du droit de la concurrence européen, et que la presse française traite avec une indifférence révélatrice.
Une procédure inédite : la spécification ex ante
Le DMA, entré en application en 2024, repose sur une logique de droit administratif économique : il désigne par avance certains opérateurs comme gatekeepers — Alphabet, Meta, Apple, Amazon, Microsoft, ByteDance, Booking — et leur impose une série d’obligations de comportement. L’article 6(11), invoqué ici, oblige les gatekeepers exploitant un moteur de recherche à fournir aux moteurs concurrents un accès aux données de classement, requête, clic et vue, à des conditions FRAND et sous forme anonymisée.
La nouveauté tient à la procédure dite de spécification, ouverte par la Commission le 27 janvier 2026. Cet instrument, fondé sur l’article 8(2) du DMA, permet à la Commission, hors de toute constatation de manquement, de préciser unilatéralement le contenu concret des obligations qu’un gatekeeper doit respecter. Autrement dit : la Commission n’a pas constaté que Google viole le DMA. Elle estime simplement que la mise en œuvre proposée par l’entreprise — un programme de licence baptisé European Search Dataset, déjà actif depuis 2024 et couvrant plus d’un milliard de requêtes distinctes par trimestre — n’est pas suffisamment utile aux concurrents. Et elle se substitue à Google pour redéfinir le périmètre, la fréquence, le format et les conditions tarifaires du partage.
Cette substitution administrative au gestionnaire privé est la véritable nouveauté du dossier. Elle ne sanctionne aucune faute. Elle organise.
La comparaison qui dérange : US v. Google et le juge Mehta
Pour mesurer l’ampleur de la rupture, il faut placer le dossier européen en regard de son équivalent américain. En septembre puis en décembre 2025, dans la phase remédiale de l’affaire United States v. Google LLC, le juge fédéral Amit Mehta a imposé à Google un partage de données comparable : accès, pour les moteurs concurrents qualifiés, à un sous-ensemble des données de requête et de clic. Quatre divergences structurantes séparent pourtant les deux régimes.
D’abord, le remède Mehta intervient ex post, après une constatation judiciaire d’illégalité — la stratégie de distribution par défaut sur Android et Safari ayant été qualifiée, par jugement du 5 août 2024, de comportement anticoncurrentiel illicite au sens de la section 2 du Sherman Act. Le partage de données est explicitement présenté comme une « méthode raisonnable d’élimination des conséquences » de cette illégalité. Le DMA, à l’inverse, agit ex ante : il transfère un actif sans avoir établi qu’il a été acquis ou exploité illicitement.
Ensuite, le remède américain est plafonné : l’accès est borné en volume, soumis à un plafond fixé par le juge. Le DMA ne connaît aucun plafond volumétrique : Google devra partager les données « quotidiennement, au niveau de l’enregistrement », sans limite supérieure du nombre de requêtes transférées.
Ensuite encore, le remède américain s’accompagne d’un comité technique de cinq personnes placé sous autorité judiciaire, chargé d’arbitrer les inévitables tensions entre utilité concurrentielle et protection des données personnelles. Le DMA confie ce même arbitrage à la Commission, juge et partie, sans organe technique séparé.
Enfin, et c’est peut-être le point le plus important, Mehta exclut explicitement le partage de tout ce qui constituerait un « substitut fonctionnel » à l’algorithme de Google : aucun signal de classement, aucun modèle entraîné, aucune donnée susceptible de permettre une réplication. Le DMA ne prévoit aucune garde-fou équivalente. La Commission elle-même reconnaît, dans son document préliminaire, que les données partagées doivent permettre aux concurrents « d’optimiser leurs services et de contester la position de Google Search ».
L’écart est philosophique. Aux États-Unis, le juge sanctionne un comportement, dose le remède, et veille à ne pas transférer le mérite compétitif. En Europe, l’administration redistribue continûment un avantage compétitif au motif qu’il existe.
La confusion fondatrice : abus dominant vs avantage compétitif
Le droit classique de la concurrence — celui dont le Traité, en ses articles 101 et 102, est l’héritier — repose sur une distinction nette. La position dominante n’est pas illicite ; seul l’est son abus. Détenir 90 % du marché de la recherche n’est pas en soi répréhensible si cette position résulte d’un mérite compétitif : meilleur produit, meilleurs investissements, meilleure intuition stratégique. C’est l’exploitation abusive de cette position — exclusion artificielle des concurrents, ventes liées, prix prédateurs — qui déclenche la sanction.
Le DMA renverse cette logique. Il considère que la position dominante elle-même, dès lors qu’elle dépasse certains seuils quantitatifs définis dans son article 3, justifie l’imposition d’obligations de comportement. La désignation de gatekeeper est donc une sanction structurelle préventive, infligée non pour un acte mais pour une qualité.
Or les données dont la Commission impose aujourd’hui le partage ne sont pas issues d’un abus. Elles sont issues de vingt-cinq années d’investissement, d’innovation algorithmique, d’infrastructure mondiale et d’un usage volontaire par des milliards d’utilisateurs. Elles constituent le mérite compétitif central de Google Search. Les redistribuer, c’est socialiser le résultat d’une accumulation entrepreneuriale légitime — au profit, qui plus est, de concurrents non-européens dont les chatbots à fonction de recherche, ChatGPT en tête, sont désormais explicitement inclus dans le périmètre des bénéficiaires éligibles par les mesures préliminaires de la Commission.
Bastiat aurait reconnu là, sans hésiter, l’opération qu’il décrivait dans La Loi (juin 1850) : la distinction entre « spoliation extra-légale » — le vol, puni par le Code pénal — et « spoliation légale » — l’appropriation organisée par la procédure étatique. Le mécanisme contemporain est plus subtil, l’habillage juridique plus sophistiqué, mais la structure morale est identique : prendre à un acteur économique, sans constatation préalable d’illégalité, ce qu’il a légitimement acquis, pour le donner à des tiers réputés moins bien dotés.
L’incohérence interne : RGPD contre DMA
À cette difficulté de principe s’ajoute une contradiction technique que la Commission peine à résoudre. L’article 6(11) exige que les données partagées, lorsqu’elles constituent des données personnelles, soient anonymisées. Or la doctrine européenne de l’anonymisation, fixée par l’avis 05/2014 du Groupe de l’article 29 (WP 216, 10 avril 2014) — auquel l’EDPB continue de se référer dans ses avis post-RGPD — est exigeante : elle requiert l’absence de tout risque raisonnable de réidentification, y compris contextuelle.
L’arbitrage est donc connu : plus l’anonymisation est rigoureuse — par suppression d’attributs, seuils de fréquence élevés, agrégation —, plus la donnée perd son utilité concurrentielle. Plus l’anonymisation est légère, plus elle expose les utilisateurs à une réidentification et la Commission à une censure du Comité européen de la protection des données. Le programme actuel de Google — European Search Dataset, avec ses seuils de 30 occurrences minimum par requête sur treize mois et trente utilisateurs distincts — jugé insuffisamment utile, est précisément calibré pour respecter cette exigence. Le rendre plus utile, comme l’exige la Commission, c’est nécessairement diminuer la robustesse de l’anonymisation.
Cette tension structurelle, signalée dès mai 2024 par Mikolaj Barczentewicz dans une analyse pour l’International Center for Law & Economics, n’a reçu aucune réponse stable de la Commission. Les ateliers de conformité organisés en 2024 et 2025 ont au contraire révélé une volonté de minimiser systématiquement les enjeux de sécurité et de vie privée pour privilégier les objectifs concurrentiels. La décision du 27 juillet, si elle confirme les mesures préliminaires, transférera ce conflit non résolu sur Google, sommé de se conformer simultanément à deux corps de règles incompatibles.
Que devrait être un DMA respectueux de la propriété
La critique classique-libérale n’impose pas le rejet de toute régulation des grandes plateformes. Elle exige, en revanche, que cette régulation respecte quelques principes substantiels que le DMA actuel, dans son maniement par la Commission, viole méthodiquement.
D’abord, le déclenchement des obligations devrait être conditionné à la constatation préalable d’un comportement abusif, et non à un seuil quantitatif automatique. La désignation de gatekeeper devrait être un constat, non une présomption irréfragable.
Ensuite, toute obligation de partage d’actif compétitif — données, code, infrastructure — devrait être plafonnée en volume et bornée dans le temps par une sunset clause explicite. Sans plafond, le partage continu équivaut à une expropriation permanente ; sans terme, il décourage tout investissement futur en données et en infrastructure de recherche, sur le territoire européen comme ailleurs.
Ensuite encore, l’arbitrage entre obligations concurrentes — protection des données, sécurité, concurrence — devrait être confié à un organe technique placé sous autorité judiciaire indépendante, à l’image du comité prévu par le juge Mehta, et non à la Commission elle-même, qui cumule fonctions législative, exécutive et juridictionnelle. Cette concentration de pouvoirs est incompatible avec la séparation des fonctions formulée par Montesquieu dans L’Esprit des Lois (livre XI, chapitre 6) comme condition même de la liberté politique.
Enfin, la procédure de spécification, dans sa forme actuelle, devrait être encadrée par un contrôle juridictionnel pré-décisionnel, et non seulement a posteriori devant le Tribunal de l’Union. La logique du DMA — édicter, spécifier, sanctionner sans interlude judiciaire — fait de la Commission un régulateur quasi-souverain dans son périmètre, au mépris de l’État de droit dont l’Union se réclame.
Ce que voit la Commission, ce qu’elle ne voit pas
Bruxelles voit ses concurrents bénéficiaires : Bing, Qwant, Ecosia, et désormais OpenAI ou Anthropic au titre des chatbots à fonction de recherche. Elle voit l’amélioration immédiate de leur position concurrentielle. Elle voit l’argument politique commode d’une Europe « qui régule les géants ».
Elle ne voit pas, ou refuse de voir, ce que le DMA laisse aux ombres : l’effet désincitatif sur l’investissement de long terme dans la recherche et l’infrastructure de données en Europe ; le signal envoyé à toute entreprise envisageant de devenir, demain, un acteur dominant — qu’elle sera, le moment venu, sommée de partager le fruit de ses efforts ; l’asymétrie réelle, qui veut qu’aucun gatekeeper européen n’existe et que la mesure bénéficie donc, par construction, à des acteurs américains et asiatiques ; et la fragilisation, par accumulation de spécifications discrétionnaires, de la sécurité juridique sans laquelle aucune économie de marché ne fonctionne durablement.
La consultation se ferme dans quatre jours. La décision tombera le 27 juillet. Il est encore temps, non pas de défendre Google — qui n’a pas besoin d’être défendu — mais de rappeler que la régulation, lorsqu’elle confond mérite et abus, ne corrige pas le marché : elle le déforme.
Sources
Sources primaires
— Commission européenne, Preliminary findings, Case DMA.100209 — SP — Alphabet — Article 6(11), 16 avril 2026, 29 pages. URL : digital-markets-act.ec.europa.eu.
— Règlement (UE) 2022/1925 du 14 septembre 2022 (Digital Markets Act), articles 6(11) et 8(2).
— United States District Court for the District of Columbia, United States v. Google LLC, opinion du 5 août 2024 (liability) ; opinion remédiale du 2 septembre 2025 ; jugement final du 5 décembre 2025.
— Groupe de l’article 29 sur la protection des données, Avis 05/2014 sur les techniques d’anonymisation (WP 216), 10 avril 2014.
— Google, European Search Dataset Licensing Program, documentation publique, mise à jour décembre 2025. URL : developers.google.com/search/help/about-search-data-program.
Sources secondaires
— Mikolaj Barczentewicz, Google Previews the Coming Tussle Between GDPR and DMA Article 6(11), International Center for Law & Economics / Truth on the Market, 7 mai 2024.
— Mikolaj Barczentewicz, Comparing the EU DMA to the Search-Query Data-Sharing Remedy in US v Google, ICLE, 3 septembre 2025.
— Winston & Strawn, Antitrust Remedies in United States v. Google: AI and the Evolving Search Market, décembre 2025.
— Knight-Georgetown Institute, Without a Payment Ban, What Can We Expect from the US v. Google Data Sharing Remedies?, 26 septembre 2025.
— National Taxpayers Union, Google Antitrust Ruling: Key Takeaways from the District Court’s Decision, 9 octobre 2025.
Sources d’opinion et d’analyse
— Frédéric Bastiat, La Loi, juin 1850 (Œuvres complètes, Guillaumin, tome IV).
— Montesquieu, De l’Esprit des Lois, 1748, livre XI, chapitre 6.
Note sur les limites des données
L’analyse repose sur les conclusions préliminaires publiées par la Commission le 16 avril 2026. Le texte définitif de la décision contraignante sera adopté au plus tard le 27 juillet 2026 et pourra différer sur certains points techniques (seuils d’anonymisation, conditions FRAND, calendrier de mise en œuvre) en fonction des contributions reçues lors de la consultation publique. Les estimations de volume du programme European Search Dataset (plus d’un milliard de requêtes distinctes par trimestre) sont issues de la documentation publique de Google et de son rapport de conformité 2024 ; elles n’ont pas été vérifiées indépendamment par la Commission. La comparaison avec le remède américain repose sur la version finale du jugement Mehta du 5 décembre 2025, qui fait actuellement l’objet d’un appel de Google.