La cheffe de l’antitrust de l’UE annonce un examen approfondi des partenariats Big Tech dans l’IA : les infrastructures en jeu !

L’impact de l’IA doit être pris en compte dans les politiques de contrôle des fusions, a déclaré hier la chef de l’antitrust de l’Union européenne et EVP numérique, Margrethe Vestager, mettant en garde contre les effets économiques inattendus des marchés numériques « étendus ». S’exprimant lors d’un séminaire sur la façon d’empêcher les géants de la technologie tels que Microsoft, Google et Meta de monopoliser l’IA, elle a lancé une mise en garde verbale aux Big Tech en leur annonçant une surveillance plus approfondie de leurs opérations.

« Nous devons examiner attentivement l’intégration verticale et les écosystèmes. Nous devons prendre en compte l’impact de l’IA dans l’évaluation des fusions. Nous devons même réfléchir à la manière dont l’IA pourrait conduire à de nouveaux types de collusion algorithmique », a-t-elle déclaré.

Ses remarques suggèrent que le bloc sera beaucoup plus actif dans ses évaluations des fusions technologiques à l’avenir, et ce, même pour les partenariats d’IA.

Le mois dernier, l’UE a annoncé qu’elle examinerait si l’investissement de Microsoft dans le géant de l’IA générative OpenAI était soumis à un examen en vertu des règlements de fusion du bloc.

L’intervention de Vestager est également notable car elle exprime clairement que les défis de la concurrence sont inhérents au développement de l’IA de pointe, la vice-présidente de la Commission mettant en évidence des « barrières à l’entrée partout ».

« Les modèles linguistiques massifs [LLMs] dépendent de grandes quantités de données, de l’espace cloud et de puces. Il y a des barrières à l’entrée partout. Ajoutez à cela le fait que les géants de la technologie ont les ressources pour acquérir les meilleurs talents », a-t-elle déclaré. « Nous ne verrons pas de perturbation causée par une poignée d’étudiants qui, d’une manière ou d’une autre, surpassent le partenaire de Microsoft, OpenAI, ou Google DeepMind. La perturbation de l’IA viendra de l’intérieur des écosystèmes technologiques existants. »

L’essor fulgurant de l’IA générative au cours de l’année écoulée a mis en évidence le fait que quelques entreprises dominent le secteur, soit en ayant des liens étroits avec les grandes plateformes de la Big Tech, soit en étant elles-mêmes des géants de la technologie. Parmi les exemples figurent le partenariat étroit entre OpenAI, le créateur de ChatGPT, et le géant de l’informatique en nuage Microsoft ; Google et Amazon investissent dans le rival d’OpenAI, Anthropic ; et la maison mère de Facebook, Meta, exploite ses données des réseaux sociaux pour développer sa propre série de modèles fondamentaux (alias LLaMA).

La question de savoir comment les start-ups européennes de l’IA peuvent espérer rivaliser sans avoir accès à une infrastructure clé de l’IA a été un fil conducteur des discussions du séminaire.

Challenges et incertitudes

« Nous avons vu que LLaMa 2 a été rendu open source. Le sera-t-il également pour LLaMa 3 ? » s’est interrogé Tobias Haar, avocat général de la start-up allemande de modèles fondamentaux de l’IA, Aleph Alpha, lors d’une table ronde qui a suivi l’intervention de Vestager. « Y aura-t-il des entreprises qui comptent sur des modèles linguistiques massifs en open source et qui soudainement, du moins pas dans la prochaine étape itérative, ne seront plus disponibles en open source ? »

Haar a souligné que l’incertitude quant à l’accès aux éléments clés de l’IA est la raison pour laquelle la start-up a décidé d’investir dans la construction et la formation de ses propres modèles fondamentaux dans son propre centre de données, « afin de conserver et de maintenir cette indépendance ». Parallèlement, il a soulevé le défi inhérent pour une start-up européenne qui tente de rivaliser avec les hyperscalers américains et les ressources de calcul dédiées qu’ils peuvent déployer pour former des IA avec leurs partenaires choisis.

Le propre centre de données d’Aleph Alpha est équipé de 512 GPU A100 Nvidia, le « plus grand cluster commercial d’IA » en Europe, selon Haar. Mais il a souligné que cela est encore loin de l’infrastructure de la Big Tech pour la formation – citant l’annonce de Microsoft selon laquelle il installerait environ 10 000 GPU au Royaume-Uni rien qu’en 2021, dans le cadre d’un investissement de 25 milliards de livres sterling sur trois ans (qui financera en réalité plus de 20 000 GPU d’ici 2026).

« Pour mettre les choses en perspective – et la perspective est également ce qui est pertinent dans l’évaluation concurrentielle, juridique de ce qui se passe sur le marché – nous utilisons 512 GPU A100 de Nvidia », a-t-il déclaré. « C’est beaucoup car cela nous rend en quelque sorte indépendants, mais cela n’a rien à voir avec la puissance de calcul pure qu’il y a pour les autres organisations pour former et affiner leurs LLM. Et je sais qu’OpenAI a formé les LLM, mais je comprends que Microsoft les affine également en fonction de ses besoins. Donc, ce n’est déjà pas un champ de jeu équitable. »

Dans son discours, Vestager n’a pas proposé de plan concret sur la manière dont le bloc pourrait égaliser les chances des start-ups européennes d’IA générative – ni même de s’engager complètement sur la nécessité d’une intervention du bloc. (Cependant, la question de la concentration du marché numérique, qui a été en partie construite sous son mandat, reste un sujet délicat pour l’UE, qui est de plus en plus accusée de réglementer tout sauf de changer quoi que ce soit en ce qui concerne le pouvoir de marché de la Big Tech.)

Néanmoins, son discours suggère que l’UE se prépare à être beaucoup plus rigoureuse et plus complète dans l’examen des transactions technologiques, à la suite des récents développements en matière d’IA.

Il y a seulement quelques années, Vestager avait autorisé l’acquisition controversée de Fitbit par Google, acceptant les engagements du géant de la technologie selon lesquels il n’utiliserait pas les données de Fitbit à des fins publicitaires pendant une période de dix ans – mais laissant le géant de la technologie libre d’exploiter les données des utilisateurs à d’autres fins, y compris l’IA. (Pour preuve : l’année dernière, Google a ajouté un chatbot d’IA générative à l’application Fitbit.)

Mais les jours où la Big Tech pouvait choisir librement ses cibles d’acquisition et s’emparer de données d’entraînement d’IA prometteuses pourraient toucher à leur fin en Europe.

Vestager a également laissé entendre que le bloc chercherait à utiliser pleinement les outils de concurrence existants, notamment le Digital Markets Act (DMA) – une réforme de la concurrence ex ante qui entrera en vigueur pour six géants de la technologie (dont Microsoft, Google et Meta) dès le mois prochain – dans le cadre de sa stratégie pour façonner le développement du marché de l’IA, suggérant que la politique de concurrence de l’UE doit travailler de concert avec les réglementations numériques pour suivre le rythme des risques et des préjudices.

Il y a eu des doutes sur la manière dont – ou même si – le DMA s’applique à l’IA générative, étant donné que aucun service en nuage n’a jusqu’à présent été désigné en vertu de la réglementation en tant que « services de plateforme centrale » dits. Il y a donc des inquiétudes selon lesquelles le bloc a, une fois de plus, manqué le coche en ce qui concerne l’imposition de contrôles de marché significatifs sur la prochaine vague de technologies perturbatrices.

Dans son discours, Vestager a rejeté l’idée qu’il est déjà trop tard pour que l’UE empêche la Big Tech de monopoliser les marchés de l’IA, suggérant timidement que « nous pouvons avoir un impact » – mais elle a également averti que la « fenêtre d’opportunité » pour les autorités de contrôle et les législateurs de façonner des résultats « véritablement bénéfiques pour notre économie, nos citoyens et nos démocraties », comme elle l’a dit, ne sera ouverte que brièvement.

Néanmoins, son discours a soulevé beaucoup plus de questions sur la manière dont les autorités de contrôle et les décideurs politiques devraient réagir aux défis posés par l’IA – y compris l’intégrité démocratique, la propriété intellectuelle et l’application éthique de ces systèmes, pour n’en citer que quelques-uns – que de solutions réelles. Elle semblait également hésitante quant à la manière de concilier les considérations de concurrence avec les risques plus larges que l’utilisation de l’IA peut comporter pour la société. Son message – et sa détermination – semblaient donc un peu contradictoires.

« Il reste de grandes questions sur le respect des droits de propriété intellectuelle. Sur la façon dont l’IA éthique est déployée. Sur les domaines où l’IA ne devrait jamais être déployée. Dans chacune de ces décisions, il y a une dimension de politique de concurrence qui doit être prise en compte. Inversement, la manière dont la réglementation de l’IA est appliquée affectera l’ouverture et l’accessibilité des marchés qu’elle touche », a-t-elle déclaré, laissant entendre qu’il pourrait y avoir des compromis entre la réglementation des risques liés à l’IA et la création d’un écosystème d’IA dynamique.

Il est clair qu’adopter de nouvelles lois maintenant n’est pas une recette pour une action immédiate sur l’IA – pourtant son discours a appelé littéralement à « agir rapidement » (et « penser à l’avenir » et « coopérer ») pour maximiser les avantages de l’IA tout en minimisant les risques.

Dans l’ensemble, malgré la promesse d’un examen plus intelligent des fusions, le ton qu’elle a adopté penchait vers la « gestion des attentes ». Et son appel à l’action s’adressait à un collectif plus large d’autorités de contrôle, de régulateurs et de décideurs politiques internationaux pour s’unir afin de résoudre ce problème – plutôt que l’UE se démarque.

Alors que Vestager évitait de donner des réponses immédiates pour entraver la course bien financée de la Big Tech vers la monopolisation de l’IA, d’autres intervenants en ont proposé quelques-unes.

Solutions

Les idées les plus enflammées sont venues de Barry Lynn de l’Open Markets Institute à Washington, une organisation à but non lucratif dont la mission déclarée commence par la lutte contre les monopoles. « Détachons le cloud », a-t-il suggéré. « Transformons le cloud en service public. C’est assez facile à faire. C’est en fait l’une des solutions les plus faciles que nous puissions adopter dès maintenant – et cela éliminerait une grande partie de leur influence. »

Il a également appelé à un régime général de non-discrimination (c’est-à-dire des règles de type « opérateur commun » pour les plateformes afin d’interdire la discrimination tarifaire et la manipulation de l’information) ; et à la réquisition des « données publiques » agrégées que les géants de la technologie ont accumulées en suivant les utilisateurs du web. « Pourquoi Google possède-t-il les données ? Ce sont nos données », a-t-il argumenté. « Ce sont des données publiques… Elles n’appartiennent pas à Google – elles n’appartiennent à aucun de ces acteurs. Ce sont nos données. Exerçons notre propriété dessus. »

Carel Maske, directeur de la concurrence de Microsoft, qui était – assez maladroitement – assis juste à côté de Lynn lors de la table ronde, a presque commencé à transpirer lorsque le modérateur lui a donné l’occasion de répondre. « Je pense qu’il y a beaucoup à discuter », a-t-il hésité, avant de faire de son mieux pour écarter l’argument de Lynn en faveur d’une séparation structurelle immédiate des hyperscalers.

« Je ne suis pas sûr que vous abordiez vraiment les besoins des investissements nécessaires dans le cloud et l’infrastructure », a-t-il réussi à dire, avançant un argument squelettique contre la séparation des Big Tech de l’infrastructure centrale de l’IA (à savoir que la séparation structurelle empêcherait l’investissement nécessaire pour stimuler l’innovation), avant de se dépêcher de revenir à des sujets plus confortables (comme « comment rendre les outils de concurrence efficaces » ou « quel est le cadre réglementaire approprié »), que Microsoft estime visiblement ne pas empêcher les activités commerciales habituelles de la Big Tech.

En ce qui concerne la question de savoir si les outils de concurrence actuels sont en mesure de contrer la course effrénée des géants de la technologie vers l’IA, un autre participant, Andreas Mundt, président de l’autorité allemande de la concurrence, l’Office fédéral des cartels (FCO), avait une perspective négative à partager, tirée d’une expérience récente.

Les processus de fusion existants ont déjà échoué, sur le plan national, à contrer la relation privilégiée entre Microsoft et OpenAI, a-t-il souligné. Le FCO a examiné dès le début la question de savoir si le partenariat devait faire l’objet d’un contrôle des fusions – avant de décider, en novembre dernier, que l’arrangement ne répondait pas « actuellement » aux critères requis.

Lors de la table ronde, Mundt a déclaré qu’il aurait aimé un résultat très différent. Il a fait valoir que les géants de la technologie ont manifestement changé de cap par rapport à la stratégie d’acquisition meurtrière qu’ils avaient déployée pour éliminer la concurrence émergente, pour adopter un modèle de partenariat plus souple qui permet à ces engagements étroits de passer inaperçus aux yeux des autorités de contrôle.

« Tout ce que nous voyons, ce sont des coopérations très souples », a-t-il remarqué. « C’est pourquoi nous avons examiné cette question de Microsoft OpenAI – et qu’avons-nous trouvé ? Eh bien, nous n’étions pas très heureux de cela, mais d’un point de vue formel, nous ne pouvions pas dire que c’était une fusion.

« Ce que nous avons constaté – et cela ne doit pas être sous-estimé – c’est qu’en 2019, lorsque Microsoft a investi plus d’un milliard d’euros dans OpenAI, nous avons constaté la création d’une influence concurrentielle substantielle de Microsoft sur OpenAI. Et cela s’est produit bien avant que Sam Altman soit licencié et réembauché. Il y a donc cette influence, telle que nous la voyons, et c’est pourquoi le contrôle des fusions est si important.

« Mais nous n’avons pas pu interdire cela en tant que fusion, d’ailleurs, car à cette époque, OpenAI n’avait aucun impact en Allemagne – ils n’étaient pas actifs sur les marchés allemands – c’est pourquoi ce n’était pas une fusion de notre point de vue. Mais ce qui reste, c’est très, très important, il y a cette influence concurrentielle substantielle – et nous devons examiner cela. »

Interrogé sur ce qu’il aurait aimé pouvoir faire au sujet de Microsoft OpenAI, Mundt a déclaré que ce qu’il aurait aimé examiner, c’était la question centrale : « S’agissait-il d’une fusion ? Et s’agissait-il d’une fusion qui doit peut-être passer à la phase deux – que nous devrions évaluer et peut-être bloquer ? »

Plus optimiste, le président du FCO s’est dit « très satisfait » de la décision ultérieure de la Commission européenne – le mois dernier – d’ouvrir sa propre procédure pour vérifier si le partenariat entre Microsoft et OpenAI relève des règles de fusion du bloc. Il a également mis en avant l’action de l’autorité britannique de la concurrence, qui a déclaré en décembre qu’elle examinerait si l’accord constitue une « fusion pertinente ».

Ces procédures sont en cours.

« Je peux vous promettre que nous examinerons très attentivement toutes ces coopérations – et si nous constatons qu’il s’agit seulement d’une fusion, nous essaierons de l’intégrer [dans les règles de fusion] », a ajouté Mundt, intégrant les actions des autres autorités de contrôle dans son calcul de ce à quoi ressemble le succès ici.

Toute une armée d’autorités de contrôle de la concurrence et de réglementations numériques travaillant ensemble – même en parallèle – pour résoudre les problèmes complexes posés par la Big Tech + l’IA a également été citée par Vestager comme un élément essentiel pour résoudre cette énigme. (Et à cet égard, elle a encouragé les réponses à une consultation ouverte sur l’IA générative et les mondes virtuels, menée par l’unité de concurrence et ouverte jusqu’au 11 mars.)

« Pour moi, la première leçon tirée de notre expérience jusqu’à présent est que notre impact sera toujours plus grand lorsque nous travaillons ensemble, communiquons clairement et agissons rapidement », a-t-elle souligné, ajoutant : « Je continuerai à collaborer avec mes homologues aux États-Unis et ailleurs pour aligner autant que possible notre approche. »

Share your opinion

This site uses Akismet to reduce spam. Learn how your comment data is processed.