Vue normale

Reçu aujourd’hui — 19 novembre 2025Next.ink

Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

19 novembre 2025 à 16:30
Cumulonimbus
Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

La Commission a annoncé avoir ouvert plusieurs enquêtes sur le marché du cloud en Europe pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud et ainsi être soumises à des règles plus strictes du DMA.

Alors qu’Emmanuel Macron et le chancelier allemand Friedrich Merz organisaient un sommet sur la souveraineté numérique européenne à Berlin, la Commission européenne a annoncé l’ouverture d’enquêtes sur le marché du cloud computing en Europe. Elle veut notamment vérifier que le DMA est bien appliqué sur ce marché et envisage de modifier le statut d’AWS et d’Azure en leur attribuant l’étiquette de « contrôleurs d’accès » (ou gatekeepers), ce qui leur ajouterait des obligations légales permettant de simplifier la concurrence pour les autres acteurs.

« Soyons clairs, l’Europe ne veut pas être le client des grands entrepreneurs ou des grandes solutions proposées, que ce soit par les États-Unis ou par la Chine. Nous voulons clairement concevoir nos propres solutions », a déclaré Emmanuel Macron à Berlin, ajoutant qu’il s’agit « simplement d’un refus d’être un vassal ». Le message envoyé en parallèle par la Commission concernant le cloud se veut dans le même sens.

Lobbying des deux côtés de l’atlantique

Il correspond à ce qu’avaient demandé plusieurs lobbys européens du milieu vendredi dernier. Dans une « déclaration commune », le Cigref et ses homologues néerlandais, belges et allemands appelaient « la Commission européenne et les autorités nationales à faire preuve d’une vigilance accrue et à mettre en œuvre rigoureusement la loi sur les marchés numériques (DMA) », en ajoutant que « les grands fournisseurs mondiaux de technologies doivent être désignés comme gardiens lorsque leur position sur le marché leur permet d’imposer des conditions commerciales déloyales, de limiter les choix industriels de leurs clients et de restreindre la libre concurrence ».

De son côté, le lobby états-unien Business Software Alliance, dont font partie AWS et Microsoft, implorait lundi l’Europe de « laisser la porte ouverte ». « À l’heure où la souveraineté est devenue l’un des thèmes politiques les plus controversés de l’UE », affirmait BSA, le lobby proposait des alternatives « aux mesures de localisation restrictives et aux stratégies « exclusivement européennes » ».

La Commission semble donc pencher dans le sens des lobbys européens en ouvrant, comme elle l’indique dans un communiqué, deux enquêtes de marché pour évaluer si « Amazon et Microsoft devraient être désignés comme contrôleurs d’accès pour leurs services de cloud computing, Amazon Web Services et Microsoft Azure, au titre du DMA, c’est-à-dire qu’ils agissent comme des passerelles importantes entre les entreprises et les consommateurs, même s’ils ne remplissent pas les critères du DMA en matière de taille, de nombre d’utilisateurs et de position sur le marché ». Elle y ajoute une troisième enquête pour estimer « si le DMA peut lutter efficacement contre les pratiques susceptibles de limiter la compétitivité et l’équité dans le secteur du cloud computing dans l’UE ».

Des obligations nouvelles comme une interopérabilité plus importante

La Commission explique que « les analyses des marchés du cloud menées ces dernières années semblent indiquer que les services de cloud computing Microsoft Azure et Amazon Web Services occupent des positions très fortes par rapport aux entreprises et aux consommateurs ». Elle ajoute qu’elle évaluera « si certaines caractéristiques du secteur du cloud computing sont susceptibles de renforcer encore la position de Microsoft Azure et d’Amazon Web Services ».

Comme nous l’indiquions dans notre article détaillé lors de l’entrée en application du DMA, les obligations que devront respecter AWS et Azure en cas de désignation seront multiples. Notamment, le texte prévoit une obligation d’interopérabilité, « avec les mêmes caractéristiques matérielles et logicielles », ainsi que la portabilité des données. Ils ne pourraient non plus inscrire d’office l’utilisateur d’un service à un autre fourni par le même contrôleur d’accès, ni utiliser les données fournies par les entreprises qui utilisent le service de plateforme pour favoriser les propres services du contrôleur d’accès.

La Commission ajoute d’ailleurs comme exemple de sujets que les enquêtes devront aborder « les obstacles à l’interopérabilité entre le cloud computing, l’accès limité ou conditionné des entreprises utilisatrices aux données, les services de vente liée et de groupage et les clauses contractuelles potentiellement déséquilibrées ».

« Les services d’informatique en nuage sont essentiels pour la compétitivité et la résilience de l’Europe. Nous voulons que ce secteur stratégique se développe à des conditions équitables, ouvertes et concurrentielles », affirme Teresa Ribera, vice-présidente exécutive chargée d’une transition propre, juste et compétitive. « C’est pourquoi nous ouvrons aujourd’hui des enquêtes pour déterminer si les principaux services de cloud computing d’Amazon et de Microsoft, Amazon Web Services et Microsoft Azure, devraient être soumis aux obligations du règlement sur les marchés numériques (DMA) ». Elle ajoute que la Commission pourrait aussi faire évoluer ce texte pour « que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques » dans ce secteur.

Alors que Microsoft a déclaré à Reuters être prête à contribuer au travail d’enquête de la Commission, AWS affirmait que « désigner les fournisseurs de services cloud comme gatekeepers ne vaut pas la peine de prendre le risque d’étouffer l’innovation ou d’augmenter les coûts pour les entreprises européennes ».

La grande panne de Cloudflare est partie d’un petit changement de permissions

19 novembre 2025 à 16:10
Des petits ruisseaux aux grandes rivières
La grande panne de Cloudflare est partie d’un petit changement de permissions

Le 18 novembre, la panne de Cloudflare a plongé une partie du web dans le noir. Comme on pouvait s’y attendre, l’entreprise a publié un billet explicatif détaillé sur les raisons ayant conduit à cette coupure d’environ trois heures. Les raisons sont complexes et non liées à une attaque ou autre incident de sécurité.

ChatGPT, X, Facebook, Spotify, Canva, Feedly, Marmiton, Doctissimo et autres sites ont été inaccessibles pendant environ trois heures le 18 novembre. Le dénominateur commun ? Ils sont tous protégés par Cloudflare, qui commercialise des services permettant de résister aux attaques distribuées par déni de service (DDoS), entre autres services.

Les solutions vendues par Cloudflare sont devenues omniprésentes, au point que l’entreprise américaine revendique aujourd’hui la gestion de 20 % du trafic web mondial. Un chiffre colossal, qui fait de l’acteur un maillon devenu essentiel du web, avec les conséquences allant de pair en cas de panne. Dans la veine du récent incident chez Amazon Web Services, la panne de Cloudflare a eu des répercussions mondiales et un post mortem détaillé était attendu pour expliquer ce qui avait bien pu provoquer une telle coupure.

D’un petit rien…

La disparition soudaine de Cloudflare aurait pu faire craindre une infrastructure finalement vaincue par une énorme attaque concertée. Il n’en est rien : tout a commencé par une modification apportée aux permissions de l’un des systèmes de base de données (ClickHouse). Elle visait à améliorer la sécurité des requêtes distribuées en rendant explicites les accès aux tables sous-jacentes dans la base de données.


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Octave Klaba, reprend les rênes d’OVHcloud : « Je suis revenu pour au minimum cinq ans »

19 novembre 2025 à 15:32
« Si tu reviens j'annule tout »
Octave Klaba, reprend les rênes d’OVHcloud : « Je suis revenu pour au minimum cinq ans »

Octave reprend encore les rênes d’OVHcloud et compte bien rester PDG pendant au moins cinq ans pour dérouler le nouveau plan stratégique. Il veut arriver à une croissance durable à deux chiffres et revient aussi sur le départ de Benjamin Revcolevschi.

Demain, OVHcloud tiendra sa grand-messe annuelle : son Summit. La semaine dernière, nous étions quelques journalistes chez OVHcloud pour parler de nombreux sujets, dont la vision stratégique de l’entreprise.

Un fondateur, une famille et des valeurs… pas une dictature

Il faut dire qu’un changement important a été annoncé il y a tout juste un mois : Octave Klaba reprend le poste de directeur général (et reste président du Conseil) à la place de Benjamin Revcolevschi. Ce dernier n’est donc resté qu’un an à la tête d’OVHcloud.

Une décision soudaine de la famille Klaba, qui est pour rappel très largement majoritaire puisqu’elle détient 81,3 % du capital et 82 % des droits de vote, ce qui facilite grandement des décisions sur le changement de la gouvernance… et inspire aussi Flock. À ce sujet, Octave Klaba tient à rappeler qu’il n’est pas le seul maitre à bord : « j’ai un board, j’ai des comités ». Il détaille son propos : « C’est une boîte où il y a un fondateur, une famille, des valeurs, une mission, une vision. Donc, oui, vous n’êtes pas dans une boîte de dépossédés ; mais non, ça ne veut pas dire que c’est de la dictature ».

2025 : des résultats « corrects, sans plus »


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Des articles générés par IA sont hébergés chez Ouest-France et 20Minutes

19 novembre 2025 à 13:53
The Sound of Silence
Des articles générés par IA sont hébergés chez Ouest-France et 20Minutes

Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.

Ce lundi 3 novembre, à 6h46, le journaliste Sylvain Ernault, cofondateur du site d’investigation breton Splann, racontait sur BlueSky avoir été surpris de découvrir qu’un site hébergé par Ouest-France.fr, sain-et-naturel.ouest-france.fr, déclenchait le message d’alerte de l’extension que Next a développée afin d’alerter ses utilisateurs lorsqu’ils consultent un site dont les articles « semblent avoir été (en tout ou partie) générés par IA » (GenAI). Nous en avons identifié, à ce jour, plus de 8 500 (rien qu’en français).

Dans son thread, il s’étonnait en outre de découvrir que certains des articles de ce site, à la ligne éditoriale un peu fourre-tout (il y est tout autant question de nature et d’écologie que de psychologie ou de « bien-être », avec une section dédiée à des tests de personnalité ou de QI, défis, énigmes et casse-têtes logiques), figurent dans la rubrique Environnement d’Ouest-France, comme s’il s’agissait d’articles signés par l’un de ses journalistes, ce qui n’est pas le cas.

Il émettait également l’hypothèse que ce recours à l’IA pourrait artificiellement gonfler les statistiques de trafic du groupe de presse. Ce dernier figure en effet en tête du classement des sites grand public et des groupes web de l’Alliance pour les chiffres de la presse et des médias (ACPM), en termes de visites totales.

Ce même 3 novembre à 15h34, soit quelques heures seulement après que Sylvain Ernault eut posté son message, les mentions légales de Sain et naturel ont été discrètement mises à jour, afin de préciser que « Le contenu peut être partiellement généré par l’IA », ce qu’elles ne mentionnaient pas jusque-là.

Sain et Naturel avait par ailleurs ajouté une discrète mention en bas de ses articles, indiquant que « Ce texte a pu être partiellement rédigé avec l’aide d’une IA », ce qui n’était pas non plus le cas jusque-là. Cette mention, constatée par nos soins et attestée par la mémoire de Google, n’est toutefois plus affichée le 19 novembre, date de publication de cet article.

Capture d’écran Google, datée du 19 novembre 2025

« Fasciné par toutes les méthodes d’investigation, vérifiables et reproductibles »

Le responsable du site, Cyril Renault, se présente comme « fasciné par toutes les méthodes d’investigation, vérifiables et reproductibles ayant pour but de produire des connaissances ». Ses articles, publiés dans les rubriques Nature et Écologie de Sain et Naturel, font d’autant plus bonne figure qu’il s’agit de traductions en français de publications anglo-saxonnes de vulgarisation scientifique.

Ses rubriques Psychologie et Bien-être sont quant à elles truffées d’articles « feel good », non sourcés pour ceux que nous avons consultés, mais eux aussi illustrés d’images générées par IA.

Illustration GenAI publiée sur sain-et-naturel.ouest-france.fr

La majeure partie des membres de la petite dizaine des auteurs de Sain et naturel n’y ont plus rien publié depuis des années. Mais plusieurs d’entre eux ont, a contrario, brusquement recommencé à y signer des articles après l’apparition des premières IA génératives, fin 2022.


Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

WhatsApp permettait de récupérer les infos liées à 3,5 milliards de numéros de téléphone

19 novembre 2025 à 12:45
La fuite évitée du carnet d'adresse du monde entier
WhatsApp permettait de récupérer les infos liées à 3,5 milliards de numéros de téléphone

Des chercheurs en sécurité autrichiens ont identifié et pu exploiter une faille de sécurité dans WhatsApp leur permettant de récupérer des informations personnelles liées à 3,5 milliards de numéros via l’API XMPP de l’application. Informée de la possibilité d’une faille en septembre 2024, l’entreprise a mis plus d’un an à leur répondre et à y remédier.

Quand on ajoute un contact dans WhatsApp, on se rend compte rapidement que l’application permet, avec juste le numéro de téléphone, de connaitre le nom de la personne liée ainsi que sa photo de profil. Jusque là, rien de nouveau même si ça pose des questions de confidentialité des données. Mais Gabriel K. Gegenhuber, chercheur en sécurité à l’université de Vienne, et ses collègues se sont aperçus qu’il était possible d’automatiser massivement cette récupération d’information jusqu’à obtenir une base de données de plus de 3,5 milliards de profils avec au moins le nom associé au numéro.

56,7 % de ces comptes avaient des photos de profils associées et les chercheurs ont donc pu les récupérer. De la même façon, ils ont pu connaître le « statut » de 29,3 % des utilisateurs qui l’avaient rempli et savoir que 9 % étaient des profils « business ». Leur accès leur a permis de constater que 8,8 % des profils WhatsApp utilisaient le mode « compagnon » qui permet d’utiliser l’application sur plusieurs appareils. Enfin, les chercheurs soulignent qu’ils ont pu récupérer des informations d’utilisateurs situés en Birmanie, en Chine et en Corée du Nord, « où WhatsApp est officiellement interdit et où les utilisateurs s’exposent à de lourdes sanctions s’ils l’utilisent ».

WhatsApp a échappé à la « plus grande fuite de données de l’histoire »

Dans leur article (mis en ligne sur GitHub et accepté à la conférence scientifique Network and Distributed System Security, ou NDSS, qui se déroulera en février 2026), les chercheurs affichent d’emblée qu’avec ces 3,5 milliards de comptes actifs concernés, leur découverte aurait été « la plus grande fuite de données de l’histoire, si elle n’avait pas été collectée dans le cadre d’une étude menée de manière responsable ».


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

19 novembre 2025 à 11:44
Petits investissements entre amis
Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

Anthropic, Microsoft et NVIDIA ont annoncé ce 18 novembre un nouvel accord tripartite d’investissements croisés, avec différents engagements.

Les investissements circulaires dans le monde de l’intelligence artificielle générative continuent de plus belle, avec comme acteur permanent NVIDIA et ses GPU dont la tech ne se passe décidément plus. Les deux nouveaux partenaires sont cette fois Anthropic et Microsoft, avec des engagements sur l’utilisation de services, la fourniture de capacités de calcul et ainsi de suite.

Milliards de dollars et gigawatts

L’accord, officialisé le 18 novembre, débloque de nombreuses possibilités pour Anthropic et Microsoft. Il débute par un investissement de 15 milliards de dollars dans Anthropic, NVIDIA injectant 10 milliards et Microsoft les 5 milliards restants.

En contrepartie, Anthropic s’engage à acheter des services cloud à Microsoft (via Azure) à hauteur de 30 milliards d’euros. Sans surprise, l’accord vise à fournir les capacités de calcul nécessaires au développement des prochains modèles Claude d’Anthropic. La startup indique d’ailleurs qu’elle accèdera ainsi à « une capacité de calcul supplémentaire jusqu’à un gigawatt ». On ne sait pas grand-chose de plus, sinon que cette capacité passera par des systèmes Grace Blackwell et Vera Rubin, comme chez pratiquement tous les concurrents.

Dans un billet, Anthropic indique également avoir établi « pour la première fois » un partenariat technologique avec NVIDIA. Les deux entreprises vont collaborer « sur la conception et l’ingénierie, dans le but d’optimiser les modèles Anthropic pour les meilleures performances, efficacité et TCO [coût total de possession, ndlr] possibles, et d’optimiser les futures architectures NVIDIA pour les charges de travail Anthropic ».

Même le PDG de NVIDIA, Jensen Huang, semble extatique dans la vidéo de l’annonce : « C’est un rêve devenu réalité pour nous. Vous savez, nous admirons le travail d’Anthropic et Dario [Amodei, CEO d’Anthropic, ndlr] depuis longtemps, et c’est la première fois que nous allons nous associer profondément à Anthropic pour accélérer Claude ».

Les modèles Claude débarquent en force chez Microsoft

Les liens entre Anthropic et Microsoft se renforcent aussi nettement. Les modèles Claude Sonnet 4.5, Sonnet 4.1 et Haiku 4.5 déboulent dans presque tous les produits Microsoft, et pas uniquement à destination des développeurs. On les retrouve ainsi dans Microsoft Foundry et dans toutes les déclinaisons de la gamme Copilot, par exemple GitHub et Microsoft 365. Pour la clientèle, cela signifie donc la possibilité d’utiliser les modèles Claude plutôt que GPT.

En dépit de cette annonce importante, Anthropic précise en fin de billet qu’Amazon reste son « principal fournisseur cloud et partenaire de formation ».

Si les investissements circulaires sont nombreux depuis plusieurs semaines, avec toujours NVIDIA au centre de la toile (même si AMD commence à se manifester un peu plus), on observe désormais une volonté de réduire la dépendance à OpenAI et une renégociation des exclusivités, comme dans le cas d’OpenAI avec Microsoft. L’accord avec Anthropic était attendu, car il s’agissait d’une conséquence évidente à l’indépendance d’OpenAI. Une approche multi-modèles qui assure de ne pas mettre tous ses œufs dans le même panier, même si les milliards de dollars investis concernent toujours la même petite poignée de sociétés.

Pour OpenAI, cela signifie également qu’Anthropic est confirmé dans sa position de concurrent direct, même si le lancement de Gemini 3 Pro pourrait rebattre les cartes. Avec 800 millions d’utilisateurs, ChatGPT reste cependant en tête. En attendant, les modèles Claude sont maintenant disponibles chez les trois grands fournisseurs de solutions cloud : AWS, Microsoft Azure et Google Cloud Platform.

Livebox Store : une boutique d’API arrive sur le nouvel OS Prpl des box d’Orange

19 novembre 2025 à 10:00
Prpl (rain)
Livebox Store : une boutique d’API arrive sur le nouvel OS Prpl des box d’Orange

Orange prépare un Livebox Store afin de proposer à ses clients des API maison, mais aussi pour permettre à des partenaires d’en publier. Une démonstration avec EDF R&D est présentée pour suivre en direct sa consommation électrique.

Pendant trois jours, Orange organise ses OpenTech 2025, l’occasion pour les équipes du fournisseur d’accès à Internet de présenter ses nouveautés. Nous étions cette année encore sur place. Une des démonstrations tournait sur Prpl OS : un Store d’API pour la Livebox.

Prpl OS se fait encore et toujours attendre

Prpl est un système d’exploitation pour les box Internet développé par une fondation regroupant des opérateurs du monde entier. On y retrouve notamment Orange, Verizon, AT&T, Vodafone ainsi que d’autres entreprises comme Qualcomm et AWS. Cela fait plus d’un an qu’Orange parle de Prpl, avec déjà des démonstrations lors du salon de l’année dernière.


Il reste 89% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

19 novembre 2025 à 09:27
Roi du jour
Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

Google a finalement dégainé sa nouvelle famille de LLM, dont le représentant star est Gemini 3 Pro. L’entreprise ne manque pas d’arguments pour propulser son modèle sous les projecteurs. Présenté comme un anti-ChatGPT, Gemini 3 Pro est déjà disponible (presque) partout.

La guerre entre les LLM repart de plus belle avec la nouvelle incarnation de Gemini chez Google. Cette troisième mouture, comme on peut s’y attendre, prend la tête dans tous les benchmarks, avec parfois des marges significatives, en particulier face à GPT-5.1.

Google présente ainsi Gemini 3 Pro comme « une nouvelle étape pour l’intelligence artificielle » et « un autre grand pas vers l’AGI », avec des résultats plus visuels, plus directs et beaucoup moins flatteurs. « Ses réponses sont intelligentes, concises et directes, troquant clichés et flatteries contre une véritable intuition — vous disant ce que vous avez besoin d’entendre, pas seulement ce que vous voulez entendre », déclare Google dans son billet d’annonce.

Google prend la tête du peloton

Gemini 3 Pro affiche des performances d’autant plus intéressantes qu’il se retrouve premier sur nombre de tests face à GPT-5.1 et Claude Sonnet 4.5, et bien sûr face à Gemini 2.5 Pro, largement dépassé par son petit frère.

Google met particulièrement en avant certains résultats car l’écart avec les autres est majeur. Sur Humanity’s Last Exam, qui teste le « raisonnement académique », Gemini 3 Pro affiche un score de 37,5 % sans outils, et de 45,8 % avec la recherche ou l’exécution de code. Des scores très supérieurs à ceux de GPT-5.1 (26,5 %) et surtout de Claude Sonnet 4.5 (13,7 %). Sur ARC-AGI-2, Gemini 3 Pro grimpe à 31,1 %, loin devant GPT-5.1 (17,6 %) et Claude Sonnet 4.5 (13,6 %). Le nouveau LLM affiche également un score de 1 501 points sur LMArena.

Crédits : Google

La tarification de Gemini 3 Pro est dans la moyenne, avec 2 dollars par million de jetons en entrée et 12 dollars par million de jetons en sortie, mais uniquement pour les requêtes ne dépassant pas 200 000 jetons via l’API Gemini dans Google AI Studio et Vertex AI. Pour les contextes dépassant 200 000 tokens, la tarification passe à 4 dollars en entrée et 18 dollars en sortie par million de jetons.

Google marque également sa différence avec une disponibilité immédiate. Tous les produits intégrant Gemini sont passés hier soir de la version 2.5 Pro à la 3 Pro. Seule exception, les résumés IA dans les résultats de recherche, qui ne seront générés que pour les requêtes « les plus complexes ». Pour le reste, que ce soit dans l’application ou ailleurs, c’est bien le dernier LLM qui est présent, en deux versions.

Deux variantes et des capacités réservées aux comptes payants

Comme chez presque tous les concurrents, Gemini 3 Pro est en effet proposé en version « Rapide » et « Raisonnement ». On s’en doute, le premier donne des résultats plus vite, tandis que le second prend davantage le temps de la « réflexion », augmentant la précision au détriment de la rapidité. Dans le tableau des performances donné par Google, c’est le modèle Thinking qui affiche bien sûr les meilleurs résultats, puisque le modèle contrôle ses réponses au fur et à mesure, dans une démarche devenue typique de raisonnement.

Le modèle Thinking dispose en outre d’une fonction dite de « raisonnement auto-correctif » : il planifie, critique et corrige ses propres réponses avant de les afficher. Selon Google, cette méthode réduit considérablement les hallucinations sur les tâches complexes comme les mathématiques, le code et la logique. L’entreprise vante également sa « multimodalité native fusionnée », ses modèles traitant le texte, l’audio et la vidéo de la même manière, ce qui garantit selon Google une très faible latence dans les conversations vocales notamment.

Crédits : Google

Les deux versions du modèle sont disponibles partout, y compris pour les comptes gratuits. La différence se jouera – comme toujours – sur le nombre de requêtes, le compte gratuit étant rapidement épuisé en Raisonnement, tandis que les formules payantes ont des paliers plus élevés.

En mode raisonnement, les abonnés payants disposent aussi de plusieurs nouveaux modes expérimentaux d’affichage des résultats. Par exemple, le Visual Layout affiche les résultats sous forme de magazine incluant de nombreuses images, que l’on peut faire défiler. Autre possibilité, la Dynamic View, qui utilise les capacités du modèle en développement pour créer des interfaces personnalisées, par exemple une application web pour explorer la vie et l’œuvre d’un(e) artiste.

Google ajoute que Gemini 3 Pro est le premier représentant de la nouvelle famille. Des versions plus réduites arriveront après, mais l’entreprise ne donne aucun calendrier. Ajoutons que Gemini 3 Pro, comme la version 2.5 avant lui, est disponible sous forme de préversion. Là encore, pas d’information sur l’arrivée de la version finale. Dans le cas de Gemini 2.5, il s’était écoulé plusieurs mois.

Google veut frapper fort chez les développeurs

Si Gemini 3 Pro se présente avant tout comme un ChatGPT, notamment avec un ton présenté comme très neutre, Google veut clairement faire tomber Claude de son trône de LLM star chez les développeurs.

Sundar Pichai a ainsi indiqué que le nouveau modèle représentait une nouvelle étape majeure dans le développement agentique. Et pour marquer le coup, la firme lance Antigravity, sa propre solution de développement assisté par IA (vibe coding). Le nouvel outil rassemble sous un même toit une fenêtre de type chatbot, une interface en ligne de commande (bash) et une zone navigateur qui affiche les opérations en cours et l’impact des modifications.

Comme d’autres solutions de type Warp ou Cursor 2.0, Antigravity est clairement un IDE (Integrated Development Environment, que Microsoft s’est amusé récemment à renommer Intelligent Development Environment pour son Visual Studio 2026). Google le présente comme un « centre de contrôle » permettant de surveiller les agents en train de travailler. Toutes les activités sont retransmises aux développeurs par des « Artefacts », des sous-tâches servant à renseigner sur ce qui est fait et devant faciliter la vérification.

Antigravity fonctionne par défaut avec Gemini 3 Pro, mais Google veut rendre son produit « agnostique ». Il prend ainsi en charge Claude Sonnet 4.5 et les agents GPT-OSS. L’entreprise affirme cependant que Gemini 3 Pro est aujourd’hui le meilleur modèle disponible pour le vibe coding.

Le nouveau IDE est disponible pour Windows, macOS et Linux.

Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

19 novembre 2025 à 08:00
sources ?
Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

Plus de 70 chercheurs et chercheuses européens ont signé une lettre ouverte adressée à la présidente de la Commission européenne pour lui demander de revenir sur ses propos prédisant que l’IA serait capable d’égaler le raisonnement humain l’an prochain. Ils lui reprochent de ne s’appuyer que sur des déclarations de marketing prononcées par des CEO d’entreprises d’IA.

« Nous, experts en intelligence artificielle et ses conséquences sociales, sommes profondément préoccupés par votre déclaration non scientifique et inexacte selon laquelle l’IA se rapproche du raisonnement humain », expliquent plusieurs dizaines de chercheuses et chercheurs à la présidente de la Commission européenne, Ursula von der Leyen, dans une lettre ouverte [PDF].

Ils réagissent aux propos que la dirigeante a tenus en mai dernier lors de la Conférence annuelle sur le budget de l’UE 2025. En effet, Ursula von der Leyen affirmait, entre autres que, « quand le budget actuel a été négocié, nous pensions que l’IA ne se rapprocherait du raisonnement humain que vers 2050. Aujourd’hui, nous nous attendons à ce que cela se produise déjà l’année prochaine ».

Pas de sources précises de la Commission

Le chercheur Kris Shrishak, qui travaille au sein de l’ONG irlandaise Irish Council for Civil Liberties, avait questionné début juillet la Commission à propos de documents sources sur lesquelles se basait sa présidente pour affirmer une telle chose.

Les services d’Ursula von der Leyen lui ont répondu [PDF] en octobre « que la Commission ne détient aucun document qui correspondrait à la description donnée dans votre demande », tout en affirmant que cette déclaration s’appuyait « sur les connaissances professionnelles des services de la Commission et sur l’analyse documentaire de la littérature scientifique ».

Mais en référence, ils citaient trois responsables d’entreprises d’IA : Dario Amodei (CEO d’Anthropic), Jensen Huang (CEO de NVIDIA), Sam Altman (CEO d’OpenAI). Les services de la Commission ajoutaient aussi le billet de blog du chercheur franco-marocain Yoshua Bengio publié en octobre 2024.

« Affirmations marketing motivées par l’appât du gain »

Pour les chercheurs, « il s’agit là d’affirmations marketing motivées par l’appât du gain et l’idéologie plutôt que par des preuves empiriques et formelles. En bref, les déclarations de ces CEO du secteur technologique concernant la « superintelligence » et l’ « AGI » sont manifestement liées à leurs impératifs financiers et non à une science rigoureuse ».

Selon eux, une telle reprise par la présidente de la Commission saperait « la crédibilité de l’Europe en tant que source fiable et digne de confiance de connaissances scientifiques. Cela est particulièrement vrai dans le contexte actuel d’une importante bulle spéculative alimentée par un engouement injustifié pour l’IA ».

Kris Shrishak a enfoncé le clou dans un article publié sur Tech avec la chercheuse Abeba Birhane, en affirmant que « ces spéculations ne sont pas que des mots ». Ainsi, ils expliquent que « le plan « Continent IA » de la Commission intègre ces spéculations idéologiques dans ses politiques. Dans ce plan, la Commission affirme que « la prochaine génération de modèles d’IA de pointe devrait permettre une avancée considérable en matière de capacités, vers l’intelligence artificielle générale » ». Et ils assènent que « la Commission européenne a accepté sans réserve l’utilité de l’IA, en particulier de l’IA générative ».

Du Direct to Device chez Orange : des SMS illimités par satellite, pour 5 euros par mois

19 novembre 2025 à 07:08
Est-ce que tu m'entends de là-haut ?
Du Direct to Device chez Orange : des SMS illimités par satellite, pour 5 euros par mois

Dans trois semaines, Orange permettra à ses clients d’envoyer et de recevoir des SMS par satellite. L’opérateur nous donne des détails techniques sur ce service et son fonctionnement. Pour faire simple, c’est comme du roaming, mais dans l’espace.

Lors de ses OpenTech, Orange a annoncé le lancement de Messages Satellite qui permettra d’envoyer des SMS sans aucune connexion à un réseau mobile, aussi bien depuis la France que dans « 36 pays sur 4 continents ».

Ce service sera disponible à partir du 11 décembre pour le grand public et courant 2026 pour les clients professionnels et entreprises. Selon Orange, c’est une « première en Europe continentale ». Pour envoyer ou recevoir des SMS, il faut être en extérieur, avoir une vue dégagée sur le ciel et « viser » un satellite avec son smartphone.

Orange s’associe à l’opérateur Skylo

Pour le lancement, seuls quelques smartphones sont compatibles : les Pixel 9 et 10 de Google. D’autres téléphones suivront, mais Orange a refusé de nous préciser lesquels ni dans quels délais. Orange s’appuie sur un partenaire américain : Skylo. C’est un opérateur de réseau non-terrestre (NTN). Ces Non-Terrestrial Networks sont, selon la 3GPP, « des réseaux ou des segments de réseaux qui utilisent soit des systèmes d’aéronefs sans équipage […] soit des satellites » pour les communications.

L’Américain Skylo est déjà partenaire de Google pour la fonctionnalité Satellite SOS sur les Pixel 9 et 10, les mêmes que ceux supportés par Orange.


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu hier — 18 novembre 2025Next.ink

OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

18 novembre 2025 à 16:27
Charbons ardents
OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

OpCore, la coentreprise réunissant le Groupe iliad et des fonds gérés par InfraVia Capital Partners, devrait pouvoir exploiter l’un des sites industriels d’EDF pour développer un datacenter représentant une puissance électrique de plusieurs centaines de MW. Le site retenu est l’ancienne centrale charbon EDF de Montereau-Vallée-de-la-Seine.

EDF et OpCore ont annoncé lundi leur entrée en négociations préalable à l’implantation d’un datacenter de grande capacité sur l’un des sites industriels proposés clés en main par l’énergéticien. C’est l’ancienne centrale charbon dite de Montereau en Seine-et-Marne qui a été retenue pour ce qui s’annonce comme un complexe de grande envergure. Le site se situe en réalité à cheval sur les communes de Vernou-La-Celle-sur-Seine et La Grande Paroisse.

Les deux partenaires évoquent une infrastructure équivalente à « plusieurs centaines de mégawatts » de puissance électrique, avec une enveloppe globale dont le montant se situerait, pour OpCore, aux alentours de 4 milliards d’euros.

OpCore (anciennement Scaleway Datacenter) est pour mémoire depuis le printemps une coentreprise entre le groupe iliad (maison mère de l’opérateur Free) et le fonds d’infrastructure français InfraVia.

Jusqu’à 700 MW sur 20 hectares

Dans leur communiqué d’annonce conjoint, diffusé le jour d’un événement dédié à l’investissement en France organisé par l’Élysée (Choose France, mais dans une édition destinée aux acteurs français), les deux partenaires restent volontairement évasifs sur les chiffres. La mèche avait cependant été vendue fin juillet par James Chéron, le maire de Montereau-Fault-Yonne, qui précisait alors que le projet correspondait à une puissance électrique maximale de 700 MW, et à une surface au sol d’environ 20 hectares.

Présenté comme « l’un des centres de calcul les plus importants d’Europe », le projet « constituera un atout majeur pour soutenir l’émergence d’une filière française et européenne d’excellence dans l’intelligence artificielle, et renforcera la souveraineté numérique du continent », vantent les deux partenaires. La finalité précise et les modalités de commercialisation des ressources informatiques mises en œuvre ne sont pas évoquées à ce stade, ce qui n’empêche pas EDF et OpCore d’affirmer que ce datacenter « permettra de créer plusieurs centaines d’emplois locaux, directs et indirects ».

« L’investissement se compte en milliards d’euros et notre vallée de la Seine peut être fière de la mise en œuvre de cette formidable ambition, qui participera à la constitution et au renforcement d’un cluster avec notamment le centre de recherche des Renardières et le Campus Énergie Durable », se réjouissait quant à lui le maire de Montereau.

Un projet vertueux ?

L’annonce par voie de communiqué a été doublée d’une conférence de presse organisée sur le site, pendant laquelle les porteurs de projet ont défendu son caractère vertueux. D’après Jean-Louis Thiériot, député de Seine-et-Marne, la construction du datacenter n’engendrerait aucune artificialisation des sols, puisque les bâtiments seraient construits sur l’emprise de l’ancienne centrale à charbon.

Les porteurs de projet auraient par ailleurs évoqué un refroidissement en circuit fermé, sans prélèvements d’eau extérieure, une réutilisation de la chaleur fatale via des usages locaux, et une utilisation d’électricité décarbonée. « C’est maintenant aux communautés de communes, en charge de l’activité économique, de faire croître un écosystème favorable avec les entreprises du secteur », veut croire le député. Les activités économiques les plus proches du site sont pour l’instant un fournisseur de granulats et un site de stockage de grains.

L’ancienne centrale thermique, retenue pour le datacenter, est à proximité immédiate de la Seine et voisine du poste électrique du Chesnoy – capture d’écran Next, carte OpenStreetMap

La mise en service de ce datacenter serait programmée à partir de 2027 avec, sans doute, un déploiement par tranches. Outre le soutien d’EDF, le site bénéficie en effet du dispositif de raccordement fast track, voulu par le Gouvernement et approuvé en mai dernier par la Commission de régulation de l’énergie (CRE), qui permet « de demander un raccordement accéléré et sans limitation à la capacité du réseau ».

Le site de Montereau, qui accueille aujourd’hui deux turbines à combustion alimentées par du gaz, est raccordé « au réseau électrique national au travers du poste du Chesnoy (400 kV/225 kV/63 kV) », indique Wikipédia.

Le datacenter d’OpCore sera ainsi situé à une trentaine de kilomètres d’un autre projet très médiatisé et doté d’un budget dix fois plus important, le fameux Campus IA dont la concertation publique vient de s’achever autour de Fouju, toujours en Seine-et-Marne.

Campus IA : « La souveraineté absolue n’existe pas »

18 novembre 2025 à 15:59
Entrepôt de données vs entrepôt de matériel
Campus IA : « La souveraineté absolue n’existe pas »

Le 17 novembre, au Châtelet-en-Brie, se tenait la réunion de clôture de la consultation publique liée au plus gros projet de data center de France, Campus IA. Next y était.

« Selon tous les benchmarks, la France est la première en Europe sur les modèles d’intelligence artificielle, en revanche elle est en retard sur l’infrastructure. » Thibaud Desfossés est directeur de Campus IA, et en ce 17 novembre 2025, dans la salle polyvalente du Châtelet-en-Brie, il présente au moins pour la quatrième fois le vaste projet de centres de données à 50 milliards d’euros et 1,4 gigawatt (GW) de puissance dont il doit gérer la sortie de terre.

Assises sur leurs chaises de plastique bleu, un tiers de la soixantaine de personnes présentes assistent pour la première fois à l’une des consultations publiques organisées depuis le 17 octobre sur le sujet. Citant le positionnement de l’Hexagone à l’international et des enjeux de souveraineté numérique, Thibaud Desfossés leur promet qu’une fois terminé, CampusIA sera « plus grand que les autres leaders européens ».


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Apple perd l’un de ses designers stars, Tim Cook partirait dès 2026

18 novembre 2025 à 14:39
So long
Apple perd l’un de ses designers stars, Tim Cook partirait dès 2026

En quelques jours, du chamboulement est apparu chez Apple. L’entreprise vient de perdre l’une de ses étoiles montantes du design et des sources affirment que Tim Cook pourrait laisser la direction de l’entreprise dès l’année prochaine.

Abidur Chowdhury, l’un des designers fétiches d’Apple, vient de quitter l’entreprise. Apple lui doit notamment en bonne partie le design du récent iPhone Air. Comme le rappelle notamment Bloomberg, Chowdhury avait été choisi pour faire la présentation de l’appareil durant la conférence de septembre.

Le designer était arrivé chez Apple en 2019 et faisait partie d’un lot de personnes embauchées au moment où Jony Ive s’en allait. Selon Bloomberg, le départ de Chowdhury n’a rien à voir avec les ventes décevantes de l’iPhone Air, dont le design a globalement été salué. Le designer serait simplement parti pour une jeune pousse de l’intelligence artificielle, Bloomberg citant des sources « familières ». Son départ aurait créé des remous en interne car il était considéré comme une étoile montante.

Tim Cook sur le départ ?

Selon d’autres sources, Apple s’apprêterait à vivre des changements plus importants. Le très sérieux Financial Times a indiqué pendant le week-end que Tim Cook pourrait quitter l’entreprise dès l’année prochaine. Le conseil d’administration et tous les cadres de la direction prépareraient activement le passage de relai. Aucune annonce n’aurait lieu avant la présentation des prochains résultats trimestriels, prévue pour fin janvier.

Tim Cook est actuellement le patron ayant tenu les rênes le plus longtemps chez Apple. Approchant des 15 ans d’exercice, il a durablement imprimé sa marque dans l’entreprise, en jouant la continuité avec Steve Jobs, dont il était un proche. Les résultats d’Apple sous sa houlette ayant affiché une croissance continue, le Financial Times parle d’une décision personnelle, pas d’un CEO poussé vers la porte de sortie.

Chez MacG, on estime que l’article du Financial Times pourrait être le résultat d’une fuite savamment orchestrée pour sonder la réaction du marché. Nos confrères font remarquer plusieurs points, dont une publication de l’article un vendredi soir après clôture de Wall Street, pour que l’information se diffuse et se tasse durant le week-end. Ils relèvent également que l’avenir proche de Tim Cook pourrait être celui de président du conseil d’administration, prenant alors la place d’Arthur D. Levinson, qui vient de fêter ses 75 ans, âge maximal autorisé pour ce poste.

☕️ Le ministère des Armées victime de 5 à 10 incidents cyber graves par an

18 novembre 2025 à 14:09

« Nous comptons un peu plus de 4 900 cybercombattants, avec un objectif de 5 500 d’ici 2030 », explique à Libération Emmanuel Naëgelen (LinkedIn), ancien chef des opérations du ComCyber de 2018 à 2020, puis directeur adjoint et n°2 de l’ANSSI et, depuis août, nouveau commandant de la cyberdéfense (COMCYBER) de l’état-major des armées.

Il succède à Aymeric Bonnemaison qui, après avoir œuvré dans plusieurs unités de guerre électronique, était devenu adjoint du directeur technique de la DGSE, et a été nommé cet été à la tête de la Direction du renseignement et de la sécurité de la Défense (DRSD), le service de contre-espionnage militaire.

Si les unités du ComCyber ne rassemblent qu’ « environ 500 personnes », elles bénéficient du soutien de 20 autres unités opérationnelles chargées de « combattre dans le cyberespace et renforcer la cyberdéfense des armées françaises », précise le COMCYBER. Ces dernières sont réunies au sein de la Communauté cyber des armées (CCA), comme nous le relevions à l’occasion de la création, en août, du Commissariat au Numérique de Défense (CND), le « 1ᵉʳ intranet militaire européen », composé de 6 745 hommes et femmes (dont 55 % militaires et 45 % civils).

Interrogé sur le nombre de cyberattaques visant les armées françaises, le général de division aérienne Naëgelen avance que le nombre d’incidents graves (à savoir le fait qu’un attaquant a « réussi à pénétrer nos systèmes et à en extraire de l’information ») « se compte sur les doigts d’une à deux mains, et nous sommes plus près de 5 que de 10 », par an.

« Si les IA génératives facilitent clairement le travail de nos adversaires », notamment pour « générer des mails trompeurs extrêmement crédibles », précise-t-il, « nous n’avons pas encore observé des attaques informatiques complexes qui seraient pilotées par un moteur d’intelligence artificielle ».

Rappelant qu’« un char, un avion, un bateau embarquent de l’informatique », il résume ce que le cyber représente en termes d’armements : « Du point de vue du ComCyber, un bateau, c’est un data center qui flotte ! »

☕️ [MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

18 novembre 2025 à 15:02
[MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

Mise à jour 18 novembre, 15h53 : « Une correction a été mise en œuvre et nous pensons que l’incident est désormais résolu », explique Cloudflare dans un message publié à 15h42 heure de Paris. « Nous continuons à surveiller les erreurs afin de nous assurer que tous les services fonctionnent à nouveau normalement », ajoute l’entreprise. L’incident aura duré environ 3 h.


Brief originel publié le 18 novembre à 14h19 :

Cloudflare est en carafe et, par cascade, de nombreux sites qui reposent sur ses services sont difficilement, voire pas du tout, accessibles. Ainsi les utilisateurs de X, Spotify, Canva, Downdetector.fr ou encore OpenAI peuvent rencontrer des difficultés à accéder à ces sites internet.

Downdetector, qui sert habituellement à vérifier si un site est hors ligne chez les autres, illustre ironiquement le phénomène – capture d’écran Next

« Le réseau mondial Cloudflare rencontre des problèmes » a annoncé Cloudflare sur son site d’information des pannes à 12h48, heure de Paris. Depuis l’entreprise a ajouté régulièrement des messages lapidaires affirmant qu’elle continue de creuser pour connaître la cause du problème.

Sur les sites concernés, le message d’erreur affiché évoque « challenges », l’appellation qui regroupe les services dédiés au contrôle de la légitimité de la requête de l’internaute, dont la case à cocher qui fait office de Captcha chez Cloudflare.

À 14h09 heure de Paris, l’entreprise a expliqué avoir identifié une modalité de résolution. « Nous avons apporté des modifications qui ont permis à Cloudflare Access et WARP de fonctionner à nouveau normalement. Les niveaux d’erreur pour les utilisateurs d’Access et de WARP sont revenus aux taux enregistrés avant l’incident », a-t-elle indiqué ensuite.

Cryptomonnaies : Binance et OKX utilisées pour blanchir des centaines de millions d’euros

18 novembre 2025 à 13:16
Laverie numérique
Cryptomonnaies : Binance et OKX utilisées pour blanchir des centaines de millions d’euros

Les deux plateformes d’échange de cryptomonnaies Binance et OKX sont massivement utilisées pour le blanchiment d’argent. Une enquête du Consortium international des journalistes ICIJ montre que le conglomérat cambodgien Huione, accusé d’être au centre du blanchiment d’argent via les cryptomonnaies, aurait transféré au moins 545 millions d’euros en utilisant ces plateformes.

« La lessiveuse de cryptos » (en anglais, « The Coin Laundry »), c’est ainsi que le Consortium international des journalistes ICIJ a appelé son enquête montrant l’ampleur du blanchiment d’argent sale sur certaines plateformes de cryptomonnaies comme Binance et OKX.

545 millions d’euros de blanchiment d’un conglomérat cambodgien en un an

Ce consortium, qui rassemble 38 médias dont Le Monde et Radio France, a pu tracer des flux financiers provenant du conglomérat cambodgien Huione sur ces deux plateformes. Ils en concluent que cette entreprise, qui est « utilisée par des gangs criminels chinois pour blanchir les profits issus de la traite d’êtres humains et d’opérations frauduleuses à l’échelle industrielle », a transféré à Binance 408 millions de dollars (351 millions d’euros) entre juillet 2024 et juillet 2025, et 226 millions de dollars (195 millions d’euros) à OKX entre fin février 2025 et la fin juillet 2025.

Le mois dernier, le Réseau de lutte contre les crimes financiers (FinCEN) du département du Trésor américain ciblait ce même conglomérat cambodgien, l’accusant d’avoir blanchi « au moins 4 milliards de dollars de produits illicites entre août 2021 et janvier 2025 ». Le FinCEN annonçait avoir exclu Huione du système financier états-unien en parallèle de la saisie de 127 271 bitcoins (d’une valeur actuelle d’environ 15 milliards de dollars), dans le cadre de l’accusation de fraudes électroniques et de blanchiment d’argent de Chen Zhi, le fondateur et président de Prince Holding Group, un autre conglomérat cambodgien.

D’autres réseaux illégaux continuent d’utiliser ces plateformes

ICIJ a aussi découvert des transactions d’autres organisations illégales à travers le monde. Ainsi, le cartel de drogue mexicain Sinaloa a reçu plus de 700 000 dollars via des comptes de la plateforme Coinbase. Le consortium liste aussi un réseau de trafiquants chinois de fentanyl ou encore un intermédiaire russe chargé de blanchir de l’argent pour le programme d’armement nord-coréen en utilisant un compte sur la plateforme HTX.

Dans son enquête, l’ICIJ se demande si « les plateformes d’échange en font assez pour mettre fin aux flux illicites, que ce soit en gelant les fonds, en fermant les comptes ou en surveillant attentivement les transactions suspectes ». En novembre 2023, Binance et son ancien CEO, Changpeng Zhao « CZ », avaient plaidé coupable de violation des lois états-uniennes contre le blanchiment.

Binance en porte-à-faux avec ses engagements de 2023, CZ amnistié

L’entreprise s’était engagée à se plier aux législations en vigueur. Elle avait pu continuer ses activités même si le département de Justice américain relevait que l’entreprise avait volontairement favorisé ces transactions. Celui-ci notait par exemple, comme le révélait le Wall Street Journal, qu’un des employés chargé de la conformité de l’entreprise avait écrit dans le chat interne : « Nous avons besoin d’une bannière disant : « Le blanchiment d’argent sale est trop difficile ces jours-ci ? Venez chez Binance, nous avons des gâteaux pour vous » ».

Donald Trump a récemment amnistié CZ. À cette occasion, la porte-parole de la Maison-Blanche, Karoline Leavitt, a déclaré que les poursuites menées par le prédécesseur de Donald Trump « ont gravement terni la réputation des États-Unis comme leader en matière de technologie et d’innovation. La guerre du gouvernement Biden contre les cryptos est finie ».

« S’ils excluent les acteurs criminels de leur plateforme, ils perdent alors une importante source de revenus, ce qui les incite à laisser cette activité se poursuivre », explique à l’ICIJ John Griffin, enseignant-chercheur à l’université du Texas à Austin.

Cette enquête montre que, contrairement aux engagements pris en 2023 par Binance, l’entreprise et le milieu des cryptomonnaies n’ont pas fait le ménage. Si on pouvait le suspecter, comme l’exprime le CTO de l’ICIJ, Pierre Romera Zhang, « sans données, sans fact-checking, sans transparence, il n’y a ni débat public éclairé ni pression sur les plateformes, les législateurs et les autorités ».

Le score souverain européen ne convainc pas les opérateurs de cloud français

18 novembre 2025 à 11:06
Il n'est point de bonheur sans nuage
Le score souverain européen ne convainc pas les opérateurs de cloud français

Quelques jours après la publication par la Commission européenne de la grille de souveraineté du Cloud et alors que la France et l’Allemagne discutent à Berlin de leurs enjeux conjoints en la matière, des entreprises du secteur saluent l’initiative mais se montrent sceptiques, voire désabusées quant à l’efficacité de ce Cloud Sovereignty Framework.

Nécessaire mais pas suffisant, toutes les entreprises interrogées se rejoignent. Le 20 octobre, la Commission européenne publiait le Cloud Sovereignty Framework, une grille de notation destinée à l’usage des pouvoirs publics pour évaluer le niveau de souveraineté d’une offre de cloud. Nous avons souhaité interroger les entreprises françaises du secteur pour savoir comment elles ont accueilli cette annonce. Cinq d’entre elles nous ont répondu : Cyllène, Ecritel, OVHcloud et ITS Integra, qui opèrent à différents niveaux de l’hébergement, de l’infogérance et des services managés, ainsi que Wimi, éditeur d’une suite collaborative « souveraine et sécurisée ».

Toutes ont salué l’accomplissement que représente la définition claire de ce que doit être un cloud souverain par l’Union européenne. Wimi, par la voix de son Chief of Staff (COS), Timothée Demoures, insiste même sur « l’enthousiasme » dont il faut faire preuve à l’égard de cette publication qui a de son point de vue le mérite de la « simplicité, ce qui permet à chaque acteur de s’en saisir ». Du côté d’ITS Integra, Geoffroy de Lavenne, directeur général (DG), souligne tout de même que ce Framework est un « aveu d’échec de l’EUCS », cette certification de cybersécurité pour les services cloud, qui se voulait plus contraignante et donc plus ambitieuse, actuellement dans l’impasse faute de consensus entre les États membres.

« On l’est ou ou ne l’est pas »

Toutes ces entreprises se montrent également unanimes dans la critique, et rejoignent la déclaration du Cloud Infrastructure Services Providers in Europe (CISPE), « le critère d’extraterritorialité devrait être une condition sine qua non. » affirme Audrey Louail, co-présidente d’Ecritel. « On se retrouve avec des moyennes de moyennes sur un certain nombre de critères, tous très intéressants, mais pour moi, il y a certains points sur lesquels nous devons être intransigeants. En l’état, la pondération est insuffisante. »

Elle dénonce ici le système de notation. La Commission a choisi de prendre en compte huit critères (stratégique, légal et juridique, données et IA, opérationnel, chaîne d’approvisionnement, technologie, sécurité et compliance, durabilité environnementale) et applique une pondération à chacun, comme pour des coefficients.

Le framework européen prévoit huit principaux critères d’évaluation de la souveraineté

Résultat, le critère désignant la juridiction compétente, donc le fait que l’extraterritorialité du droit américain puisse potentiellement s’appliquer, au hasard, pèse peu par rapport à la combinaison des autres. Donc des entreprises très performantes sur les critères de chaîne d’approvisionnement, de sécurité ou d’environnement, pourrait atteindre un score élevé malgré le fait qu’une juridiction étrangère soit compétente sur les données, quand bien même l’infrastructure serait localisée sur le sol européen. En comparaison, une entreprise non-soumise à une juridiction étrangère mais moins performante sur les autres critères pourrait se voir moins bien notée.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Vers un Windows « agentique » : accueil glacial pour la vision de Microsoft

18 novembre 2025 à 10:00
Le sens des priorités
Vers un Windows « agentique » : accueil glacial pour la vision de Microsoft

Microsoft a présenté ce 17 novembre sa vision d’un Windows agentique. Mais si l’éditeur décrit dans les grandes largeurs la sécurité renforcée censée accompagner sa vision, le retour de bâton est particulièrement violent.

On savait que les investissements massifs de Microsoft dans OpenAI et de manière générale dans l’IA allaient aboutir à une annonce plus vaste. Le billet publié lundi soir l’a montré : le futur imaginé pour Windows est celui d’un « système d’exploitation agentique », avec des capacités « IA natives » et dans l’objectif d’une plateforme à laquelle on peut confier à peu près toutes les missions possibles et imaginables.

Cependant, Microsoft n’a pas cherché d’abord à convaincre du bien-fondé de sa vision. Sa communication est avant tout focalisée sur la sécurité. La firme veut prouver qu’elle a pris le sujet à bras le corps. Problème, le fond de l’annonce – un système agentique – a rencontré une énorme vague de scepticisme, notamment sur X.

Qu’a vraiment annoncé Microsoft ?

La vision partagée hier soir est celle d’une plateforme conçue globalement pour exécuter des missions à partir de prompts, qu’ils soient écrits ou dictés à l’oral. Microsoft veut aller plus loin que les fonctions existantes, via un espace dédié dans Windows, assorti d’une série de blindages. Il s’agit, dans les grandes lignes, de généraliser les interactions des agents avec les autres applications, afin que toutes puissent communiquer de cette manière, comme on peut déjà le voir en partie avec Copilot Vision.

La vraie nouveauté est une fonction expérimentale baptisée « agent workspace », tout juste arrivée hier soir dans la préversion 26220.7262 de Windows, dans les canaux Dev et Beta, mais pas dans l’Union européenne. Ces espaces de travail représentent les zones dans lesquelles les agents pourront faire leur travail. Ils sont isolés et confinés du reste du système, chaque agent ayant un compte dédié et séparé du compte utilisateur.


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Lancement réussi pour le satellite d’observation des océans Copernicus Sentinel-6B

18 novembre 2025 à 09:18

L’Agence spatiale européenne (ESA) s’est félicitée lundi 17 novembre du succès du lancement d’un nouveau satellite dédié à la surveillance du niveau des océans, intégré au programme Copernicus.

Baptisé Sentinel-6B, ce nouvel appareil succède à Sentinel-6 Michael Freilich, lancé en 2020, et embarque « la dernière technologie d’altimétrie radar » pour mesurer et enregistrer en continu la hauteur de la surface de la mer, dans le prolongement des programmes dédiés initiés au début des années 1990.

« Outre la cartographie de la hauteur de la surface de la mer pour comprendre les changements à long terme, Copernicus Sentinel-6 fournit également des données pour des applications « opérationnelles » pratiques. Par exemple, la mission mesure la hauteur significative des vagues et la vitesse du vent, données qui sont utilisées pour les prévisions océaniques en temps quasi réel. Concrètement, l’altimétrie par satellite fournit les mesures les plus complètes disponibles à ce jour sur l’état de la mer », décrit l’Agence spatiale européenne.

Le lancement a été réalisé lundi matin vers 6h20 (heure de Paris) au moyen d’une fusée SpaceX Falcon 9 depuis la base spatiale de Vandenberg en Californie.

Le satellite Sentinel-6B en direction de son orbite de destination – crédit NASA/SpaceX

Outre l’intérêt scientifique de la mission, l’Agence spatiale européenne souligne également sa dimension collaborative, fruit d’une coopération internationale qui implique notamment deux agences gouvernementales américaines : la NOAA (National Oceanic and Atmospheric Administration) et la NASA (National Aeronautics and Space Administration).

« Cette réussite démontre ce qu’il est possible d’accomplir lorsque des agences et des industries internationales travaillent ensemble vers un objectif commun. Sentinel-6B nous permettra de continuer à collecter les données de haute précision nécessaires pour comprendre l’évolution de notre climat, protéger nos océans et soutenir les décisions qui protègent les communautés côtières à travers le monde », se réjouit Simonetta Cheli, directrice des programmes d’observation de la Terre à l’ESA.

Cet hommage appuyé à la collaboration internationale n’a rien d’un hasard : il intervient alors que les agences américaines impliquées dans la surveillance et l’étude du climat font l’objet d’attaques répétées de l’administration Trump.

☕️ #LIDD Itiner-e : un Google Maps des voies romaines

18 novembre 2025 à 08:50

Le projet Itiner-e propose « le jeu de données numérique ouvert le plus détaillé des routes de tout l’Empire romain ». En plus des villes (avec les noms d’époque) et des voies romaines, le site permet de calculer des itinéraires à pied, à cheval ou avec une charrette à bœufs. Les données peuvent être téléchargées.

Il fallait ainsi 95 heures avec un cheval (vitesse moyenne de 6 km/h), 143 heures à pied et 286 heures avec une charrette à bœufs pour rejoindre Lugdunum et Burdigala (c’est-à-dire Lyon vers Bordeaux). Pour les trajets en mode Google Maps cliquez sur la petite icône en bas à droite de l’écran. Les autres options permettent d’afficher un fond de carte satellite, les routes, villes et frontières actuelles.

Le blog spécialisé et contributif Cartonumérique explique qu’une « équipe de recherche internationale a créé une nouvelle cartographie des routes de l’Empire romain. La carte qui en résulte comprend près de 300 000 km de routes, soit près de deux fois plus que ce que l’on trouve d’habitude sur des cartes historiques. Cet immense réseau routier témoigne de la puissance de cet empire ».

Le site « agrège 200 ans de recherche : tout ce qu’on sait sur les endroits où des routes ont été étudiées et excavées a été combiné avec des images satellites et des cartes topographiques qui montrent les traces, dans le paysage, où des chemins auraient pu se trouver », expliquait à la RTS Tom Brughman (professeur associé en archéologie au Danemark et co-directeur du projet). Il affirme que ce sont pas moins de 100 000 km supplémentaires « par rapport aux anciennes estimations ».

Il ajoute qu’un « grand nombre de lieux de vie romains ne sont pas encore connectés à notre réseau par des routes connues. Beaucoup de ces chemins pourront encore être découverts, aussi en Suisse ». Au fur et à mesure des découvertes, la carte (collaborative et évolutive) sera enrichie.

De nombreux tutos pour utiliser ce site ont été mis en ligne sur cette page.

❌