Vue normale

Reçu — 19 novembre 2025 Next - Articles gratuits

Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

19 novembre 2025 à 16:30
Cumulonimbus
Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

La Commission a annoncé avoir ouvert plusieurs enquêtes sur le marché du cloud en Europe pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud et ainsi être soumises à des règles plus strictes du DMA.

Alors qu’Emmanuel Macron et le chancelier allemand Friedrich Merz organisaient un sommet sur la souveraineté numérique européenne à Berlin, la Commission européenne a annoncé l’ouverture d’enquêtes sur le marché du cloud computing en Europe. Elle veut notamment vérifier que le DMA est bien appliqué sur ce marché et envisage de modifier le statut d’AWS et d’Azure en leur attribuant l’étiquette de « contrôleurs d’accès » (ou gatekeepers), ce qui leur ajouterait des obligations légales permettant de simplifier la concurrence pour les autres acteurs.

« Soyons clairs, l’Europe ne veut pas être le client des grands entrepreneurs ou des grandes solutions proposées, que ce soit par les États-Unis ou par la Chine. Nous voulons clairement concevoir nos propres solutions », a déclaré Emmanuel Macron à Berlin, ajoutant qu’il s’agit « simplement d’un refus d’être un vassal ». Le message envoyé en parallèle par la Commission concernant le cloud se veut dans le même sens.

Lobbying des deux côtés de l’atlantique

Il correspond à ce qu’avaient demandé plusieurs lobbys européens du milieu vendredi dernier. Dans une « déclaration commune », le Cigref et ses homologues néerlandais, belges et allemands appelaient « la Commission européenne et les autorités nationales à faire preuve d’une vigilance accrue et à mettre en œuvre rigoureusement la loi sur les marchés numériques (DMA) », en ajoutant que « les grands fournisseurs mondiaux de technologies doivent être désignés comme gardiens lorsque leur position sur le marché leur permet d’imposer des conditions commerciales déloyales, de limiter les choix industriels de leurs clients et de restreindre la libre concurrence ».

De son côté, le lobby états-unien Business Software Alliance, dont font partie AWS et Microsoft, implorait lundi l’Europe de « laisser la porte ouverte ». « À l’heure où la souveraineté est devenue l’un des thèmes politiques les plus controversés de l’UE », affirmait BSA, le lobby proposait des alternatives « aux mesures de localisation restrictives et aux stratégies « exclusivement européennes » ».

La Commission semble donc pencher dans le sens des lobbys européens en ouvrant, comme elle l’indique dans un communiqué, deux enquêtes de marché pour évaluer si « Amazon et Microsoft devraient être désignés comme contrôleurs d’accès pour leurs services de cloud computing, Amazon Web Services et Microsoft Azure, au titre du DMA, c’est-à-dire qu’ils agissent comme des passerelles importantes entre les entreprises et les consommateurs, même s’ils ne remplissent pas les critères du DMA en matière de taille, de nombre d’utilisateurs et de position sur le marché ». Elle y ajoute une troisième enquête pour estimer « si le DMA peut lutter efficacement contre les pratiques susceptibles de limiter la compétitivité et l’équité dans le secteur du cloud computing dans l’UE ».

Des obligations nouvelles comme une interopérabilité plus importante

La Commission explique que « les analyses des marchés du cloud menées ces dernières années semblent indiquer que les services de cloud computing Microsoft Azure et Amazon Web Services occupent des positions très fortes par rapport aux entreprises et aux consommateurs ». Elle ajoute qu’elle évaluera « si certaines caractéristiques du secteur du cloud computing sont susceptibles de renforcer encore la position de Microsoft Azure et d’Amazon Web Services ».

Comme nous l’indiquions dans notre article détaillé lors de l’entrée en application du DMA, les obligations que devront respecter AWS et Azure en cas de désignation seront multiples. Notamment, le texte prévoit une obligation d’interopérabilité, « avec les mêmes caractéristiques matérielles et logicielles », ainsi que la portabilité des données. Ils ne pourraient non plus inscrire d’office l’utilisateur d’un service à un autre fourni par le même contrôleur d’accès, ni utiliser les données fournies par les entreprises qui utilisent le service de plateforme pour favoriser les propres services du contrôleur d’accès.

La Commission ajoute d’ailleurs comme exemple de sujets que les enquêtes devront aborder « les obstacles à l’interopérabilité entre le cloud computing, l’accès limité ou conditionné des entreprises utilisatrices aux données, les services de vente liée et de groupage et les clauses contractuelles potentiellement déséquilibrées ».

« Les services d’informatique en nuage sont essentiels pour la compétitivité et la résilience de l’Europe. Nous voulons que ce secteur stratégique se développe à des conditions équitables, ouvertes et concurrentielles », affirme Teresa Ribera, vice-présidente exécutive chargée d’une transition propre, juste et compétitive. « C’est pourquoi nous ouvrons aujourd’hui des enquêtes pour déterminer si les principaux services de cloud computing d’Amazon et de Microsoft, Amazon Web Services et Microsoft Azure, devraient être soumis aux obligations du règlement sur les marchés numériques (DMA) ». Elle ajoute que la Commission pourrait aussi faire évoluer ce texte pour « que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques » dans ce secteur.

Alors que Microsoft a déclaré à Reuters être prête à contribuer au travail d’enquête de la Commission, AWS affirmait que « désigner les fournisseurs de services cloud comme gatekeepers ne vaut pas la peine de prendre le risque d’étouffer l’innovation ou d’augmenter les coûts pour les entreprises européennes ».

Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

19 novembre 2025 à 11:44
Petits investissements entre amis
Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

Anthropic, Microsoft et NVIDIA ont annoncé ce 18 novembre un nouvel accord tripartite d’investissements croisés, avec différents engagements.

Les investissements circulaires dans le monde de l’intelligence artificielle générative continuent de plus belle, avec comme acteur permanent NVIDIA et ses GPU dont la tech ne se passe décidément plus. Les deux nouveaux partenaires sont cette fois Anthropic et Microsoft, avec des engagements sur l’utilisation de services, la fourniture de capacités de calcul et ainsi de suite.

Milliards de dollars et gigawatts

L’accord, officialisé le 18 novembre, débloque de nombreuses possibilités pour Anthropic et Microsoft. Il débute par un investissement de 15 milliards de dollars dans Anthropic, NVIDIA injectant 10 milliards et Microsoft les 5 milliards restants.

En contrepartie, Anthropic s’engage à acheter des services cloud à Microsoft (via Azure) à hauteur de 30 milliards d’euros. Sans surprise, l’accord vise à fournir les capacités de calcul nécessaires au développement des prochains modèles Claude d’Anthropic. La startup indique d’ailleurs qu’elle accèdera ainsi à « une capacité de calcul supplémentaire jusqu’à un gigawatt ». On ne sait pas grand-chose de plus, sinon que cette capacité passera par des systèmes Grace Blackwell et Vera Rubin, comme chez pratiquement tous les concurrents.

Dans un billet, Anthropic indique également avoir établi « pour la première fois » un partenariat technologique avec NVIDIA. Les deux entreprises vont collaborer « sur la conception et l’ingénierie, dans le but d’optimiser les modèles Anthropic pour les meilleures performances, efficacité et TCO [coût total de possession, ndlr] possibles, et d’optimiser les futures architectures NVIDIA pour les charges de travail Anthropic ».

Même le PDG de NVIDIA, Jensen Huang, semble extatique dans la vidéo de l’annonce : « C’est un rêve devenu réalité pour nous. Vous savez, nous admirons le travail d’Anthropic et Dario [Amodei, CEO d’Anthropic, ndlr] depuis longtemps, et c’est la première fois que nous allons nous associer profondément à Anthropic pour accélérer Claude ».

Les modèles Claude débarquent en force chez Microsoft

Les liens entre Anthropic et Microsoft se renforcent aussi nettement. Les modèles Claude Sonnet 4.5, Sonnet 4.1 et Haiku 4.5 déboulent dans presque tous les produits Microsoft, et pas uniquement à destination des développeurs. On les retrouve ainsi dans Microsoft Foundry et dans toutes les déclinaisons de la gamme Copilot, par exemple GitHub et Microsoft 365. Pour la clientèle, cela signifie donc la possibilité d’utiliser les modèles Claude plutôt que GPT.

En dépit de cette annonce importante, Anthropic précise en fin de billet qu’Amazon reste son « principal fournisseur cloud et partenaire de formation ».

Si les investissements circulaires sont nombreux depuis plusieurs semaines, avec toujours NVIDIA au centre de la toile (même si AMD commence à se manifester un peu plus), on observe désormais une volonté de réduire la dépendance à OpenAI et une renégociation des exclusivités, comme dans le cas d’OpenAI avec Microsoft. L’accord avec Anthropic était attendu, car il s’agissait d’une conséquence évidente à l’indépendance d’OpenAI. Une approche multi-modèles qui assure de ne pas mettre tous ses œufs dans le même panier, même si les milliards de dollars investis concernent toujours la même petite poignée de sociétés.

Pour OpenAI, cela signifie également qu’Anthropic est confirmé dans sa position de concurrent direct, même si le lancement de Gemini 3 Pro pourrait rebattre les cartes. Avec 800 millions d’utilisateurs, ChatGPT reste cependant en tête. En attendant, les modèles Claude sont maintenant disponibles chez les trois grands fournisseurs de solutions cloud : AWS, Microsoft Azure et Google Cloud Platform.

Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

19 novembre 2025 à 09:27
Roi du jour
Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

Google a finalement dégainé sa nouvelle famille de LLM, dont le représentant star est Gemini 3 Pro. L’entreprise ne manque pas d’arguments pour propulser son modèle sous les projecteurs. Présenté comme un anti-ChatGPT, Gemini 3 Pro est déjà disponible (presque) partout.

La guerre entre les LLM repart de plus belle avec la nouvelle incarnation de Gemini chez Google. Cette troisième mouture, comme on peut s’y attendre, prend la tête dans tous les benchmarks, avec parfois des marges significatives, en particulier face à GPT-5.1.

Google présente ainsi Gemini 3 Pro comme « une nouvelle étape pour l’intelligence artificielle » et « un autre grand pas vers l’AGI », avec des résultats plus visuels, plus directs et beaucoup moins flatteurs. « Ses réponses sont intelligentes, concises et directes, troquant clichés et flatteries contre une véritable intuition — vous disant ce que vous avez besoin d’entendre, pas seulement ce que vous voulez entendre », déclare Google dans son billet d’annonce.

Google prend la tête du peloton

Gemini 3 Pro affiche des performances d’autant plus intéressantes qu’il se retrouve premier sur nombre de tests face à GPT-5.1 et Claude Sonnet 4.5, et bien sûr face à Gemini 2.5 Pro, largement dépassé par son petit frère.

Google met particulièrement en avant certains résultats car l’écart avec les autres est majeur. Sur Humanity’s Last Exam, qui teste le « raisonnement académique », Gemini 3 Pro affiche un score de 37,5 % sans outils, et de 45,8 % avec la recherche ou l’exécution de code. Des scores très supérieurs à ceux de GPT-5.1 (26,5 %) et surtout de Claude Sonnet 4.5 (13,7 %). Sur ARC-AGI-2, Gemini 3 Pro grimpe à 31,1 %, loin devant GPT-5.1 (17,6 %) et Claude Sonnet 4.5 (13,6 %). Le nouveau LLM affiche également un score de 1 501 points sur LMArena.

Crédits : Google

La tarification de Gemini 3 Pro est dans la moyenne, avec 2 dollars par million de jetons en entrée et 12 dollars par million de jetons en sortie, mais uniquement pour les requêtes ne dépassant pas 200 000 jetons via l’API Gemini dans Google AI Studio et Vertex AI. Pour les contextes dépassant 200 000 tokens, la tarification passe à 4 dollars en entrée et 18 dollars en sortie par million de jetons.

Google marque également sa différence avec une disponibilité immédiate. Tous les produits intégrant Gemini sont passés hier soir de la version 2.5 Pro à la 3 Pro. Seule exception, les résumés IA dans les résultats de recherche, qui ne seront générés que pour les requêtes « les plus complexes ». Pour le reste, que ce soit dans l’application ou ailleurs, c’est bien le dernier LLM qui est présent, en deux versions.

Deux variantes et des capacités réservées aux comptes payants

Comme chez presque tous les concurrents, Gemini 3 Pro est en effet proposé en version « Rapide » et « Raisonnement ». On s’en doute, le premier donne des résultats plus vite, tandis que le second prend davantage le temps de la « réflexion », augmentant la précision au détriment de la rapidité. Dans le tableau des performances donné par Google, c’est le modèle Thinking qui affiche bien sûr les meilleurs résultats, puisque le modèle contrôle ses réponses au fur et à mesure, dans une démarche devenue typique de raisonnement.

Le modèle Thinking dispose en outre d’une fonction dite de « raisonnement auto-correctif » : il planifie, critique et corrige ses propres réponses avant de les afficher. Selon Google, cette méthode réduit considérablement les hallucinations sur les tâches complexes comme les mathématiques, le code et la logique. L’entreprise vante également sa « multimodalité native fusionnée », ses modèles traitant le texte, l’audio et la vidéo de la même manière, ce qui garantit selon Google une très faible latence dans les conversations vocales notamment.

Crédits : Google

Les deux versions du modèle sont disponibles partout, y compris pour les comptes gratuits. La différence se jouera – comme toujours – sur le nombre de requêtes, le compte gratuit étant rapidement épuisé en Raisonnement, tandis que les formules payantes ont des paliers plus élevés.

En mode raisonnement, les abonnés payants disposent aussi de plusieurs nouveaux modes expérimentaux d’affichage des résultats. Par exemple, le Visual Layout affiche les résultats sous forme de magazine incluant de nombreuses images, que l’on peut faire défiler. Autre possibilité, la Dynamic View, qui utilise les capacités du modèle en développement pour créer des interfaces personnalisées, par exemple une application web pour explorer la vie et l’œuvre d’un(e) artiste.

Google ajoute que Gemini 3 Pro est le premier représentant de la nouvelle famille. Des versions plus réduites arriveront après, mais l’entreprise ne donne aucun calendrier. Ajoutons que Gemini 3 Pro, comme la version 2.5 avant lui, est disponible sous forme de préversion. Là encore, pas d’information sur l’arrivée de la version finale. Dans le cas de Gemini 2.5, il s’était écoulé plusieurs mois.

Google veut frapper fort chez les développeurs

Si Gemini 3 Pro se présente avant tout comme un ChatGPT, notamment avec un ton présenté comme très neutre, Google veut clairement faire tomber Claude de son trône de LLM star chez les développeurs.

Sundar Pichai a ainsi indiqué que le nouveau modèle représentait une nouvelle étape majeure dans le développement agentique. Et pour marquer le coup, la firme lance Antigravity, sa propre solution de développement assisté par IA (vibe coding). Le nouvel outil rassemble sous un même toit une fenêtre de type chatbot, une interface en ligne de commande (bash) et une zone navigateur qui affiche les opérations en cours et l’impact des modifications.

Comme d’autres solutions de type Warp ou Cursor 2.0, Antigravity est clairement un IDE (Integrated Development Environment, que Microsoft s’est amusé récemment à renommer Intelligent Development Environment pour son Visual Studio 2026). Google le présente comme un « centre de contrôle » permettant de surveiller les agents en train de travailler. Toutes les activités sont retransmises aux développeurs par des « Artefacts », des sous-tâches servant à renseigner sur ce qui est fait et devant faciliter la vérification.

Antigravity fonctionne par défaut avec Gemini 3 Pro, mais Google veut rendre son produit « agnostique ». Il prend ainsi en charge Claude Sonnet 4.5 et les agents GPT-OSS. L’entreprise affirme cependant que Gemini 3 Pro est aujourd’hui le meilleur modèle disponible pour le vibe coding.

Le nouveau IDE est disponible pour Windows, macOS et Linux.

Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

19 novembre 2025 à 08:00
sources ?
Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

Plus de 70 chercheurs et chercheuses européens ont signé une lettre ouverte adressée à la présidente de la Commission européenne pour lui demander de revenir sur ses propos prédisant que l’IA serait capable d’égaler le raisonnement humain l’an prochain. Ils lui reprochent de ne s’appuyer que sur des déclarations de marketing prononcées par des CEO d’entreprises d’IA.

« Nous, experts en intelligence artificielle et ses conséquences sociales, sommes profondément préoccupés par votre déclaration non scientifique et inexacte selon laquelle l’IA se rapproche du raisonnement humain », expliquent plusieurs dizaines de chercheuses et chercheurs à la présidente de la Commission européenne, Ursula von der Leyen, dans une lettre ouverte [PDF].

Ils réagissent aux propos que la dirigeante a tenus en mai dernier lors de la Conférence annuelle sur le budget de l’UE 2025. En effet, Ursula von der Leyen affirmait, entre autres que, « quand le budget actuel a été négocié, nous pensions que l’IA ne se rapprocherait du raisonnement humain que vers 2050. Aujourd’hui, nous nous attendons à ce que cela se produise déjà l’année prochaine ».

Pas de sources précises de la Commission

Le chercheur Kris Shrishak, qui travaille au sein de l’ONG irlandaise Irish Council for Civil Liberties, avait questionné début juillet la Commission à propos de documents sources sur lesquelles se basait sa présidente pour affirmer une telle chose.

Les services d’Ursula von der Leyen lui ont répondu [PDF] en octobre « que la Commission ne détient aucun document qui correspondrait à la description donnée dans votre demande », tout en affirmant que cette déclaration s’appuyait « sur les connaissances professionnelles des services de la Commission et sur l’analyse documentaire de la littérature scientifique ».

Mais en référence, ils citaient trois responsables d’entreprises d’IA : Dario Amodei (CEO d’Anthropic), Jensen Huang (CEO de NVIDIA), Sam Altman (CEO d’OpenAI). Les services de la Commission ajoutaient aussi le billet de blog du chercheur franco-marocain Yoshua Bengio publié en octobre 2024.

« Affirmations marketing motivées par l’appât du gain »

Pour les chercheurs, « il s’agit là d’affirmations marketing motivées par l’appât du gain et l’idéologie plutôt que par des preuves empiriques et formelles. En bref, les déclarations de ces CEO du secteur technologique concernant la « superintelligence » et l’ « AGI » sont manifestement liées à leurs impératifs financiers et non à une science rigoureuse ».

Selon eux, une telle reprise par la présidente de la Commission saperait « la crédibilité de l’Europe en tant que source fiable et digne de confiance de connaissances scientifiques. Cela est particulièrement vrai dans le contexte actuel d’une importante bulle spéculative alimentée par un engouement injustifié pour l’IA ».

Kris Shrishak a enfoncé le clou dans un article publié sur Tech avec la chercheuse Abeba Birhane, en affirmant que « ces spéculations ne sont pas que des mots ». Ainsi, ils expliquent que « le plan « Continent IA » de la Commission intègre ces spéculations idéologiques dans ses politiques. Dans ce plan, la Commission affirme que « la prochaine génération de modèles d’IA de pointe devrait permettre une avancée considérable en matière de capacités, vers l’intelligence artificielle générale » ». Et ils assènent que « la Commission européenne a accepté sans réserve l’utilité de l’IA, en particulier de l’IA générative ».

❌