Vue lecture

Microsoft annonce son CPU Cobalt 200 et la nouvelle génération d’Azure Boost

Toujours plus bleu
Microsoft annonce son CPU Cobalt 200 et la nouvelle génération d’Azure Boost

Microsoft a développé et utilise déjà une seconde génération de processeurs maison basés sur Arm : les Cobalt 200. Elle promet une hausse des performances et de la sécurité. Le fabricant présente aussi la nouvelle génération d’Azure Boost, avec toujours plus de bande passante.

La première génération de processeur maison, Cobalt 100, a été annoncée durant la conférence Ignite 2023 de Microsoft. Cette année, c’est au tour de la seconde génération de débarquer avec le Cobalt 200 qui, selon Microsoft, est 50 % plus rapide que son prédécesseur.

Les machines virtuelles basées sur Cobalt 100 sont disponibles pour les clients depuis octobre 2024. « Les développeurs de Snowflake, Databricks, Elastic, Adobe et de notre propre Microsoft Teams profitent déjà d’Azure Cobalt en production, constatant des performances jusqu’à 45 % supérieures, ce qui se traduit par une réduction de 35 % du nombre de cœurs de calcul et de machines virtuelles nécessaires, ce qui permet de réaliser d’importantes économies », affirme Microsoft. Les exemples mis en avant sont évidemment à son avantage.

L’annonce du jour n’est pas qu’un « paper launch » affirme l’entreprise : « Nos premiers serveurs en production avec des CPU Cobalt 200 sont désormais opérationnels dans nos datacenters, avec un déploiement plus large et une disponibilité client prévue en 2026 ». Quelques détails techniques sont donnés.

Des benchmarks et 350 000 jumeaux numériques

Pour développer sa puce, Microsoft explique avoir été confrontée à un problème : « les benchmarks traditionnels ne représentent pas la diversité des charges de travail clients ». Ils ont tendance à s’intéresser davantage aux cœurs du CPU, laissant de côté « le comportement des applications cloud à grande échelle lorsqu’elles utilisent des ressources réseau et de stockage ». Microsoft a donc développé ses propres benchmarks (il y a environ 140 tests).

À l’aide de jumeaux numériques, le constructeur a fait varier le nombre de cœurs, la taille du cache, la vitesse de la mémoire, la consommation du SoC, etc. Microsoft serait ainsi arrivée à pas moins de 350 000 « candidats » pour son processeur Cobalt 200.

132 cœurs Arm CSS V3, 588 Mo de cache L2 + L3

Dans le CPU, on retrouve des cœurs Arm Neoverse Compute Subsystems V3 (CSS V3) annoncés en février 2024. Les variantes Compute Subsystems avaient été inaugurées avec le cœur N2. C’est une configuration dans laquelle Arm ne s’occupe que de la partie CPU et laisse à ses partenaires la possibilité de personnaliser les puces avec des accélérateurs maison, la gestion de la mémoire, les entrées/sorties, l’alimentation, etc.

D’un point de vue technique, « chaque SoC Cobalt 200 comprend 132 cœurs [128 pour Cobalt 100, ndlr] avec 3 Mo de cache L2 par cœur et 192 Mo de cache système L3 ». Dans la pratique, il s’agit d’une configuration avec deux chiplets, chacun disposant de 66 cœurs, de six canaux pour la mémoire et d’accélérateurs pour la cryptographie.

Ajustement des tensions et des fréquences par cœur

Microsoft précise que son contrôleur mémoire est personnalisé et que « le chiffrement est activé par défaut, avec un impact négligeable sur les performances ». La Confidential Compute Architecture (CCA) d’Arm est de la partie afin de proposer une « isolation matérielle de la mémoire de la machine virtuelle par rapport à l’hyperviseur et au système d’exploitation hôte ».

Cobalt intègre aussi un module Azure Integrated HSM (Hardware Security Module), qui « fonctionne avec Azure Key Vault pour une gestion simplifiée des clés de chiffrement ». Le tout est certifié FIPS (Federal Information Processing Standard Publication) 140 - 3 niveau 3.

Microsoft affirme avoir particulièrement soigné la consommation électrique : « L’une des innovations de nos processeurs Azure Cobalt est le Dynamic Voltage and Frequency Scaling (DVFS) par cœur ». La puce est gravée avec le procédé 3 nm de dernière génération de TSCM.

Coup de Boost sur Azure

Microsoft profitait aussi de sa conférence pour présenter une nouvelle version d’Azure Boost, un système « qui décharge les processus de virtualisation de serveur traditionnellement effectués par l’hyperviseur et le système d’exploitation hôte sur des logiciels et du matériel conçus à ces fins ».

Les performances annoncées peuvent atteindre jusqu’à 1 million d’IOPS, un débit de 20 Go/s pour le stockage et de 400 Gb/s pour le réseau. Le nouveau Azure Boost prend aussi en charge le RDMA (Remote Direct Memory Access) pour un accès direct à la mémoire.

Cette nouvelle génération sera disponible dans les prochaines VM de la série v7 avec des processeurs Intel Xeon de la génération Granite Rapids. Microsoft précise que ses futures machines virtuelles DSv7 et ESv7 pourront gérer jusqu’à 372 vCPU, tandis que les ESv7 pourront prendre en charge jusqu’à 2,8 To de mémoire.

  •  

Google rend compatible Quick Share avec AirDrop d’Apple, en commençant par les Pixel 10

For the greater good
Google rend compatible Quick Share avec AirDrop d’Apple, en commençant par les Pixel 10

La fonction Quick Share d’Android est désormais compatible avec AirDrop d’Apple, sur les Pixel 10 pour commencer. Il ne s’agit pas d’une collaboration officielle, posant la question de la réaction d’Apple.

Voilà une nouvelle que l’on n’attendait pas : la compatibilité d’Android avec la fonction AirDrop d’Apple. Celle-ci permet depuis bien longtemps l’échange simplifié de données entre appareils de la marque à la pomme. Google a proposé ensuite sa fonction équivalente Quick Share, mais les deux fonctions n’ont jamais communiqué.

Google vient donc d’annoncer que sa fonction Quick Share était désormais compatible avec AirDrop, permettant la même communication simplifiée entre les appareils Android et ceux d’Apple. Google n’évoque pour l’instant que les iPhone, mais AirDrop étant disponible sur tous les appareils d’Apple, la communication devrait également se faire.

La circulation des données peut se faire dans les deux sens, il suffit simplement que l’appareil Android soit paramétré en « Tout le monde pendant 10 min » pour le partage. La fonction est pour l’instant limitée à ce réglage, le monde « Contacts uniquement » n’étant pas pris en charge.

En revanche, seuls les récents Pixel 10 ont pour l’instant accès à la fonction. Google ajoute que la fonction « commence » avec cette gamme et qu’elle a « hâte de l’étendre à davantage d’appareils Android ».

De la rétro-ingénierie et du Rust

Les deux entreprises auraient-elles collaboré à cette ouverture ? Non, Google l’a confirmé auprès de The Verge : « Nous avons réalisé cela par notre propre mise en œuvre. Elle a été minutieusement vérifiée par nos propres équipes de confidentialité et de sécurité, et nous avons également fait appel à une société de sécurité tierce pour prendre la solution en périphérie ». Il s’agirait donc de rétro-ingénierie. Dans son billet, Google compare la manœuvre au RCS, pour rappeler qu’elle a fini par faire entendre raison à Apple sur le sujet.

Google met un accent particulier sur la sécurité. Dans un billet de blog dédié, Google indique : « Cette fonction n’utilise pas de solution de contournement. La connexion est directe et peer-to-peer, ce qui signifie que vos données ne sont jamais acheminées via un serveur, que le contenu partagé n’est jamais enregistré, et qu’aucune donnée supplémentaire n’est partagée ». Google assure que des experts indépendants ont été mandatés pour tester la sécurité de sa solution. Cette dernière a en outre été développée en Rust.

Enfin, l’entreprise précise que cette fonction n’est qu’une « première étape vers un partage multiplateforme fluide » et qu’elle « accueillera avec plaisir l’opportunité de travailler avec Apple pour activer le mode « Contacts uniquement » à l’avenir ». Le message est clair : la balle est dans le camp d’Apple.

  •  

☕️ Matter 1.5 prend en charge de nouveaux objets connectés : caméras, capteurs, interrupteurs…

Matter est un protocole pour objets connectés développé par la Connectivity Standards Alliance (regroupant des centaines d’entreprises, dont Amazon, Apple et Google), dont la première version a été mise en ligne il y a trois ans.

Matter porte aussi la promesse (plutôt l’espoir) de regrouper d’autres protocoles et de servir de pont entre tous les équipements compatibles. Le protocole avance… doucement. Au début de l’année il débarquait dans Google Home.

Le protocole vient de passer en version 1.5 avec la prise en charge des caméras pour la « diffusion vidéo et audio en direct grâce à la technologie WebRTC, permettant une communication bidirectionnelle, ainsi qu’un accès local et distant ». D’autres fonctionnalités sont prises en charge comme les flux vidéos multiples, les mouvements des caméras, les zones de détection, l’enregistrement local ou en ligne.

Les interrupteurs pour stores, rideaux, auvents, portails et portes de garage sont également supportés : « Grâce à une conception simplifiée et modulaire, les fabricants peuvent représenter différents types de mouvements (par exemple, glissement, rotation, ouverture) et configurations (par exemple, panneaux simples ou doubles, mécanismes imbriqués) en utilisant des blocs ».

Matter 1.5 prend aussi en charge les capteurs de sol pour les jardins et les plantes (humidité et température) pour automatiser, par exemple, l’arrosage.

Enfin, du côté du courant électrique, le protocole permet d’échanger des informations sur la grille tarifaire, le prix instantané et l’intensité carbone du réseau. Sur la recharge de voitures électriques. Matter permet de certifier « l’état de charge et la facturation bidirectionnelle ».

Enfin, « Matter 1.5 ajoute un support complet pour l’exploitation via le transport TCP, permettant une transmission plus efficace et fiable de grands ensembles de données ». De la documentation pour les développeurs se trouve par ici.

  •  

☕️ Amazon Store est bien une VLOP et donc soumis à des obligations

Amazon avait demandé à la Cour de Justice de l’Union européenne « l’annulation de la décision par laquelle la Commission avait désigné cette plateforme comme une « très grande plateforme en ligne » [ou VLOP, ndlr] au titre du DSA ». Le Tribunal de l’Union européenne rejette le recours.

La plateforme d’e-commerce contestait « la légalité de la disposition du règlement qui détermine les plateformes en ligne, dont les places de marché, qui doivent être désignées comme des grandes plateformes en ligne et qui soumet ces dernières à des obligations spécifiques de transparence, de coopération et d’accès aux données ».

Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents
Flock pour Next

Selon Amazon, ces dispositions enfreignent « la liberté d’entreprise, le droit de propriété, le principe d’égalité devant la loi, la liberté d’expression et d’information, ainsi que le droit au respect de la vie privée et à la protection des informations confidentielles ».

Les motifs de rejet sont exposés dans ce communiqué. Dans son arrêt, la CJUE relève que que les obligations imposées par le DSA constituent bien une forme de contrainte ou d’ingérence dans certains de ces droits, mais estime que chacune d’entre elles répond de façon proportionnée à un objectif de prévention d’un risque ou de protection des consommateurs.

Amazon peut faire appel et compte bien utiliser ce droit, selon Euractiv : « En tant que place de marché en ligne, Amazon Store ne présente aucun risque systémique de ce type ; elle se contente de vendre des marchandises et ne diffuse ni n’amplifie aucune information, opinion ou point de vue », ajoute un porte-parole.

Zalando aussi avait contesté sa qualification de très grande plateforme. Début septembre, le même Tribunal confirmait que Zalando était bien une VLOP et donc soumise aux obligations. Zalando affirme à Euractiv avoir fait appel.

  •  

La Cour des comptes pousse l’État à continuer ses investissements dans l’IA

IA des sous pour l'IA
La Cour des comptes pousse l’État à continuer ses investissements dans l’IA

Dans un rapport, la Cour des comptes analyse la stratégie nationale pour l’intelligence artificielle en place depuis 2018. Elle incite l’État français à ne pas « baisser la garde » et au contraire à amplifier sa politique concernant la recherche. Elle l’exhorte aussi à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.

Tout en reconnaissant que « la prise de risque [en matière d’investissement] est élevée, la rentabilité des investissements inégale, de même que le rapport entre la valorisation de certaines entreprises de l’IA sur le marché et les revenus générés ou espérés, faisant craindre des effets de bulle qui pourraient conduire à des ajustements d’ampleur, y compris en Europe, dans les prochains mois », la Cour des comptes incite l’État à amplifier la stratégie nationale pour l’IA (SNIA).

La juridiction administrative a rendu son rapport [PDF] mercredi 19 novembre sur cette stratégie. Celui-ci analyse les deux premières phases (2018 - 2022 et 2022 - 2025).

Pour la troisième phase (2025 - 2030), elle affirme que pour « réussir le changement d’échelle qu’exige la révolution de l’intelligence artificielle », l’État doit :

  • « renforcer le pilotage interministériel de la politique publique de l’IA, avec en particulier la constitution d’un véritable secrétariat général à l’IA rattaché au Premier ministre ;
  • mieux intégrer les enjeux de soutenabilité des finances publiques et d’efficacité de la politique de l’IA ;
  • procéder à une évaluation approfondie des résultats des précédentes phases de la stratégie nationale et s’inspirer des meilleures pratiques à l’étranger ;
  • mieux s’articuler avec l’échelon européen ;
  • mieux mobiliser les territoires ;
  • redéfinir le partage des rôles avec le secteur privé ».

Elle incite l’État à ne pas « baisser la garde » et à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.

Même si la Cour des comptes considère que cette stratégie a « remporté de premiers succès », elle estime que ses deux premières phases « présentent des angles morts dans plusieurs domaines essentiels […] notamment dans des chantiers qui demandent d’impliquer un cercle large d’acteurs et de faire le lien avec d’autres politiques publiques ».

Une première phase trop axée sur la recherche pour la Cour

Dans la première phase de cette stratégie (2018 - 2022), la Cour souligne que l’État a investi 1,3 milliard d’euros (contre 1,5 milliard programmés) en ne couvrant qu’une partie des enjeux tout en la faisant reposer « sur une gouvernance complexe et un suivi budgétaire lacunaire ».

Elle reproche à l’exécutif de ne s’être concentré, dans cette phase, que sur la partie recherche, en oubliant la formation supérieure en IA, l’ouverture des données, l’accompagnement des secteurs économiques prioritaires fortement impactés par l’IA, et l’encadrement éthique de l’IA qui étaient tout autant cité dans le rapport de la mission confiée au mathématicien Cédric Villani rendu en mars 2018.

Elle reconnait « les succès du volet « recherche en IA », appréciés avec un recul supplémentaire de deux années ». Néanmoins, elle pointe « le recours par l’État à une succession d’appels à projets ou à manifestation d’intérêt, pour des financements ponctuels avec un horizon de vie limité », ce qui « présente le risque d’accroître la fragmentation au sein de la recherche, au détriment de la cohérence d’ensemble, de la création de masses critiques et de stratégies plus structurelles permettant la coordination, la complémentarité et la responsabilisation des acteurs dans la durée ». Elle regrette aussi que le volet « formation supérieure » n’ait pas été mis en œuvre.

« Dans les autres domaines couverts par la SNIA – la défense et la sécurité, la transformation de l’action publique et la diffusion de l’intelligence artificielle dans l’économie – les avancées ont été moins nettes », déplore-t-elle.

Pas assez de dépenses pour soutenir la demande des entreprises dans la seconde phase

Pour la deuxième phase, « au total, l’État aura programmé 1,1 Md€ sur la période 2023 - 2025, soit un niveau inférieur d’un tiers à ce qui avait été initialement annoncé, et la lenteur du démarrage de la plupart des dispositifs s’est traduite par un faible niveau de consommation des crédits (35 % au 30 juin 2025) », assène la Cour.

Mais elle souligne que « les premiers résultats de cette deuxième phase commencent à se dessiner dans plusieurs directions. Bien qu’il soit encore tôt pour en apprécier pleinement les effets, les initiatives prises pour renforcer la structuration et l’excellence de la recherche et de la formation supérieure en IA produisent de premiers résultats et la place de la France sur ce volet progresse ». Elle ajoute que les « efforts sur les infrastructures de calcul se sont poursuivis ».

La Cour reproche à l’exécutif d’avoir « très peu utilisé le levier de la commande publique pour favoriser l’adoption de l’IA dans la sphère publique ». Elle vise « en particulier » la Dinum (auditée en 2024) qui a, selon elle, « privilégié les développements internes avec le risque que les solutions proposées ne soient pas toujours performantes comparativement à l’offre disponible sur le marché, notamment chez les éditeurs logiciels français ».

Elle pousse aussi l’exécutif à dépenser plus sur le sujet de l’IA. « Plusieurs domaines non moins essentiels ont été laissés de côté », estime-t-elle. « L’enjeu de la massification et de l’accompagnement de la diffusion de l’intelligence artificielle au-delà du cercle des spécialistes – entreprises, administrations publiques, étudiants, citoyens – a jusqu’ici trop peu retenu l’attention, alors qu’il était au cœur des ambitions affichées par cette phase de la SNIA et que les années 2023 - 2025 étaient critiques en la matière », précise l’institution. « Ainsi, la priorité que constitue le soutien à la demande des entreprises en solutions d’IA n’a bénéficié que de dispositifs très modestes, et l’accélération et la massification escomptées de la diffusion de l’intelligence artificielle dans l’économie n’a pas eu lieu », ajoute-t-elle encore.

  •  

☕️ Référencement et marketing : Adobe veut s’offrir Semrush pour 1,9 milliard de dollars

Adobe a formulé mercredi une offre de rachat portant sur son compatriote Semrush, également coté à la bourse de New York, pour un montant de 1,9 milliard de dollars, soit une prime de près de 80 % par rapport au cours précédent l’annonce. Cette opération de croissance externe est présentée comme le prolongement stratégique des développements déjà réalisés par Adobe en direction de l’IA à des fins marketing.

Bien connu des spécialistes du SEO (Search Engine Optimization), Semrush édite pour mémoire une suite d’outils dédiés au référencement et à la visibilité des marques sur Internet, et c’est précisément la question de la visibilité des marques au sein des outils d’intelligence artificielle générative qui semble motiver l’opération. En analogie avec le SEO, un acronyme marketing a déjà émergé pour qualifier cette problématique : GEO, pour Generative Engine Optimization.

Logos d’Adobe et de Semrush – crédit Adobe

« La visibilité des marques est en pleine mutation grâce à l’IA générative, et celles qui ne saisissent pas cette nouvelle opportunité risquent de perdre en pertinence et en chiffre d’affaires, déclare Anil Chakravarthy, président de la division Expérience numérique d’Adobe, dans un communiqué. Avec Semrush, nous offrons aux marketeurs la possibilité d’exploiter la géolocalisation comme un nouveau canal de croissance, au même titre que le SEO, pour une visibilité accrue, un engagement client renforcé et des conversions optimisées au sein de l’écosystème. »

Semrush devrait logiquement s’interfacer avec les différents outils marketing d’Adobe, qu’il s’agisse de son système de gestion de contenus numériques (AEM), ou de sa nouvelle offre d’agents conversationnels Adobe Brand Concierge.

L’acquisition a déjà fait l’objet d’une validation de la part du conseil d’administration de Semrush. Adobe indique avoir ainsi déjà recueilli l’approbation de l’équivalent de 75 % des droits de vote combinés de l’actionnariat de sa cible.

Début novembre, lors de la présentation de ses résultats financiers pour le troisième trimestre, Semrush indiquait tabler, pour l’ensemble de son exercice 2025, sur un chiffre d’affaires annuel de l’ordre de 445 millions de dollars, en croissance de 18 % sur un an, principalement grâce à l’appétit de ses clients pour l’IA générative.

  •  

☕️ Rebecca Heineman, pionnière et championne de jeux vidéo, est morte à 62 ans

Championne de jeux vidéo, cofondatrice d’Interplay, cheville ouvrière de The Bard’s Tale 3: Thief of Fate, développeuse renommée, spécialiste du portage sur Mac et avocate de la cause transgenre dans une industrie essentiellement masculine, Rebecca Heineman s’est éteinte le 17 novembre dernier.

Elle avait été diagnostiquée deux mois plus tôt d’un adénocarcinome pulmonaire avancé, et documentait non sans humour son douloureux combat contre la maladie sur son compte Bluesky. « Je n’aurais jamais cru que ce vœu se réaliserait. C’est étrange de voir des éloges funèbres avant ma mort », postait-elle le 17 novembre. Quelques heures plus tard, Scott Miller, cofondateur d’Apogee et de 3DRealm, confirmait sa mort : « Une légende de l’industrie du jeu vidéo est décédée ».

Surnommée « Burger Becky », Rebecca Ann Heineman s’est illustrée en remportant à 16 ans ce qui est considéré comme la première compétition de jeux vidéo organisée sur le sol américain : en 1980, elle s’était imposée en effet comme la grande championne d’un concours organisé par Atari autour de Space Invaders, ce qui lui avait permis de repartir chez elle, en Californie, avec le premier prix : une borne d’arcade, alors qu’elle rêvait de gagner le deuxième lot, un Atari 800.

Rebecca Ann Heineman a lancé le 10 octobre un appel aux dons sur GoFundMe pour l’aider à financer ses soins

Devenue développeuse, elle est créditée au générique de pas moins de 67 jeux d’après la base de données Moby Games, parmi lesquels bon nombre de titres cultes. Elle a participé à la création du studio Interplay en 1983, où ses travaux prépareront le terrain à des titres aussi emblématiques que Wasteland, qui donnera naissance à Fallout, ou Baldur’s Gate. Chez Interplay, elle a aussi conçu Bard’s Tale III: The Thief of Fate et Dragon Wars, et participé à des portages considérés comme particulièrement difficiles tels que ceux de Wolfenstein 3D et Battle Chess.

Côté portage, elle accède justement à une certaine notoriété dans les années 90 en s’attelant à la version 3DO de Doom, rappelle Ars Technica. Une mission de quelques semaines, réalisée sous une pression intense, comme Rebecca Heineman l’a elle-même raconté sur son GitHub. Habituée des conférences pour développeurs (c’est lors de la dernière PAX qu’elle a ressenti les premiers symptômes qui conduiront au diagnostic de son cancer), elle est unanimement saluée pour son talent et sa débrouillardise technique.

En 2025, elle avait été honorée d’un Gayming Awards, un trophée célébrant les défenseurs de la cause LGBTQ+ dans l’industrie du jeu vidéo. Rebecca Ann Heineman avait réalisé et assumé publiquement sa transition de genre en 2003 et a longtemps vécu en couple avec Jennell Jaquays, une célèbre conceptrice et illustratrice de jeux de rôle, décédée début 2024.

Début octobre, Rebecca Ann Heineman avait lancé une campagne de dons sur GoFundMe pour soutenir les frais élevés associés à son traitement. C’est aussi là qu’elle avait annoncé, le 17 novembre, sa fin imminente. « Il est temps. D’après mes médecins. Tout traitement supplémentaire est inutile. Alors, s’il vous plaît, faites un don pour que mes enfants puissent organiser des funérailles dignes de mon clavier, Pixelbreaker ! Pour que je puisse faire une entrée digne de mes retrouvailles avec mon unique amour, Jennell Jaquays ».

  •  

ChatGPT for Teachers, une version gratuite pour le corps enseignant américain

Qui suis-je ? Ou vais-je ?
ChatGPT for Teachers, une version gratuite pour le corps enseignant américain

OpenAI a montré ce 19 novembre toute son ambition dans le domaine de l’éducation. L’entreprise lance une version gratuite et spécifique de son ChatGPT pour les enseignants, avec une volonté claire de devenir incontournable.

OpenAI a annoncé hier soir dans un billet de blog la disponibilité d’une version gratuite et spécifique de ChatGPT à destination des enseignants aux États-Unis. Pourquoi ce domaine en particulier ? Parce que selon l’entreprise, sur les 800 millions d’utilisateurs que compte son chatbot, les enseignants seraient les premiers à l’avoir adopté et les plus actifs.

L’offre a donc été spécialement conçue pour le corps enseignant, affirme OpenAI. Elle est basée sur GPT-5.1 Auto pour répartir les demandes et l’ensemble des fonctions. Une mémoire adaptée aurait été mise en place, pour retenir autant de contexte que possible et simplifier le travail quotidien. La sécurité est déclarée comme conforme aux normes FERPA (Family Educational Rights and Privacy Act). L’outil peut être intégré à d’autres comme Canva, Google Drive et Microsoft 365. Envoi de fichiers, génération d’images et autres sont aussi présents.

Des fonctions spécifiques ont été ajoutées. Par exemple, la possibilité de créer des espaces de travail partagés pour créer des modèles de plans de cours. Les enseignants pourront également planifier leurs travaux sur plusieurs semaines, générer des exemples pour un devoir, gérer la conformité avec les normes ISTE (pdf), voir des exemples créés par d’autres enseignants, des contrôles administratifs pour les groupes, etc.

Cette offre a été pensée pour les 400 000 enseignants certifiés du primaire à la terminale, « dans les principaux districts aux États-Unis ». La vérification du statut se fait SheerID, qui joue le rôle d’intermédiaire de confiance auprès d’OpenAI.

Gratuit jusqu’en 2027, et après ?

« Chaque élève aujourd’hui grandit avec l’IA, et les enseignants jouent un rôle central pour les aider à apprendre à utiliser ces outils de manière responsable et efficace. Pour soutenir ce travail, les éducateurs ont besoin d’espace pour explorer l’IA par eux-mêmes. ChatGPT for Teachers est conçu pour les aider à faire exactement cela : offrir une expérience pratique et concrète qu’ils peuvent ramener dans leurs classes. Et en la rendant gratuite pour des millions d’enseignants, nous espérons faciliter une utilisation sûre et réfléchie de l’IA dans l’apprentissage par toutes sortes d’écoles »

Surtout, ce ChatGPT for Teachers est mis à disposition gratuitement jusqu’en juin 2027. Pour OpenAI, c’est évidemment un pari qui peut lui rapporter gros : en offrant un service conçu spécifiquement pour ce qu’elle-même présente comme les besoins des enseignants, l’entreprise pourrait bien s’assurer une place de choix dans leur quotidien. En juin 2027, quand la gratuité prendra fin, les personnes qui estimeront avoir gagné suffisamment de temps avec l’outil pourraient ainsi envisager l’abonnement payant.

« Après cela, nous pourrions ajuster les prix, mais notre objectif est de garder ChatGPT pour les enseignants abordable pour les enseignants. Si quelque chose change, nous préviendrons pour que les enseignants et les écoles puissent décider s’ils continuent ou non », affirme OpenAI. Et l’opportunité est bien là, si l’on en croit une étude que Gallup avait publiée en juin dernier : 32 % des enseignants utilisaient l’IA toutes les semaines, avec un gain de temps hebdomadaire moyen estimé à 5,9 heures.

Pour l’instant, on ne sait rien d’une éventuelle extension du service à d’autres marchés, mais on imagine mal OpenAI se contenter du marché américain dans sa volonté de devenir le nouvel acteur incontournable de l’éducation.

La crainte de la perte d’autonomie

Le discours de l’entreprise est entièrement tourné vers « l’autonomisation » des enseignants et veut frapper au cœur : puisque les élèves recourent déjà massivement à l’IA générative, les enseignants doivent jouer un rôle central dans l’apprentissage de ces outils, « de manière responsable et efficace ». ChatGPT for Teachers se propose donc de remplir les deux missions : acclimater les professeurs à cette technologie et leur faire gagner du temps dans la préparation des cours, qui eux-mêmes vont changer. « L’IA dans l’éducation fonctionne mieux lorsque les enseignants dirigent », assure OpenAI.

L’annonce d’OpenAI était attendue. L’IA bouscule les méthodes conventionnelles de l’enseignement et certaines entreprises avancent leurs pions. Microsoft a par exemple annoncé une version éducative de son Copilot, pensée pour les élèves et étudiants. L’assistant se transforme alors en « professeur socratique » pour aider à faire travailler les matières, les examens, etc. Différentes fonctions sont présentes pour rendre l’ensemble interactif, notamment un tableau blanc dans lequel inscrire des réponses manuscrites, des schémas et autres.

  •  

Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA

Gloubi-boulgIA
Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA

Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.

Inception Point AI se targue sur son site web d’avoir créé « le plus grand réseau de podcasts indépendants au monde ». Quiet Please (c’est son nom, « Du calme s’il vous plait » en français) a d’ores et déjà créé « plus de 4 000 émissions », diffuse « en moyenne 3 000 nouveaux épisodes par semaine », de 15 à une quarantaine de minutes chacun, et compte se lancer dans l’édition de courtes vidéos, de livres « et bien plus encore ».

Cette start-up ne compte pourtant que huit employés : 4 informaticiens et 4 producteurs, relevait le mois dernier La tech la première, le podcast de Stéphane Jourdain, rédacteur en chef numérique de France Inter. Cette hyperproductivité s’explique par le fait que ces podcasts sont tous entièrement générés par IA, sans supervision humaine.

L’entreprise produit par exemple de nombreux podcasts consacrés à l’indice de pollen dans toutes les grandes villes américaines, afin d’attirer des publicités pour des antihistaminiques. Mais également des podcasts dédiés au jardinage, aux actus people, à la méditation, à la ménopause, aux stations de ski, plages, aux assassins, aux sous-marins nucléaires, à l’économie, la démocratie, le socialisme et même le communisme (entre autres).

Le coût de revient d’un podcast ? 1 $, rentabilité dès le 20ᵉ auditeur

Pour Inception Point AI, les « influenceurs IA » constituent « la prochaine frontière à un milliard de dollars », dans la mesure où ils peuvent travailler tout le temps, sans avoir besoin de dormir, et offrent « une qualité supérieure à ~1/25000 du coût » d’un influenceur humain.

Un épisode de podcast ne leur coûterait en effet que 1 $ seulement. Ce qui leur permet de privilégier la quantité à la qualité, d’autant qu’il suffit de 20 auditeurs pour qu’un épisode soit rentable. Et tant pis si les yeux de certaines de ces influenceuses synthétiques sont quelque peu bâclés.

Captures d’écran du compte de @vvsteeleip, influenceuse IA

D’après The Wrap (« le seul média indépendant dédié à l’industrie hollywoodienne »), Quiet Please aurait d’ores et déjà publié plus de 175 000 épisodes sur des plateformes comme Spotify ou Apple, enregistré 12 millions de téléchargements d’épisodes depuis sa création, et compterait 400 000 abonnés.

« La richesse se trouve dans les niches », explique à The Wrap Jeanine Wright, co-fondatrice et CEO de la start-up et ancienne directrice des opérations de Wondery, la division podcast d’Amazon. « Mes amis dans l’industrie du podcasting me demandent : « As-tu une émission qui figure dans le top 10 ? Comment se classent tes émissions ? » Nous ne voyons pas les choses sous cet angle », précise-t-elle :

« Au lieu de se concentrer uniquement sur la création des prochains Kelce Brothers, Crime Junkie ou Joe Rogan, ces émissions à grand succès, vous pourriez vous adresser à des publics de niche et à des micro-communautés. C’est un modèle économique totalement différent. »

Selon Riverside, plus de 584 millions de personnes ont écouté des podcasts en 2025, et ce chiffre devrait atteindre 619 millions d’ici 2026. D’après Edison Research, le temps passé à écouter des podcasts a augmenté de 355 % au cours des dix dernières années. 34 % des Américains écoutent en moyenne 8,3 épisodes de podcast par semaine, et 83 % y consacrent plus de 9 heures par semaine. Le marché pourrait atteindre une valeur de 17,59 milliards de dollars d’ici 2030. Même Netflix se lance dans le podcasting, en concluant un partenariat avec Spotify et The Ringer pour des podcasts vidéo dans le cadre de sa stratégie 2026, souligne The Wrap.

Une salle de rédaction, mais sans journalistes humains

Inception Point, qui se présente comme la « version audio de Reddit ou Wikipédia », a créé 120 « influenceurs IA », associés à des niches et contenus hyper-spécialisés. La société évite soigneusement les sujets controversés qui pourraient poser problème, précise The Wrap, « de sorte qu’aucune révision humaine n’est nécessaire pour chaque épisode », d’autant qu’il est matériellement impossible aux 8 employés de la start-up de pouvoir les écouter avant qu’ils ne soient mis en ligne :

« Inception Point AI fonctionne presque comme une salle de rédaction, mais sans journalistes humains. Les modèles d’IA scannent Internet et proposent à l’équipe des listes d’idées intéressantes, et les employés voient ce qui leur convient. Avec sa petite équipe de huit personnes, il faut une journée pour passer d’une idée à un épisode complet. Une fois le sujet choisi, un membre de l’équipe l’associe à une personnalité et la machine peut commencer à générer l’épisode, ce qui prend environ une heure. »

Sur son profil LinkedIn, la start-up, créée en 2023, avance que « Dans un avenir proche, la moitié de la population mondiale sera constituée d’IA ». « Les « personnes » générées par l’IA devraient-elles avoir des droits humains ? » s’interrogeait Jeanine Wright, qui se définit elle-même comme une « maximaliste de l’IA », dans AI Proof, un podcast destiné aux parents et aux éducateurs qui entend aider les enfants à se préparer à « un avenir imprégné d’intelligence artificielle ».

« Je pense que très rapidement, nous arriverons à un stade où l’IA sera le moyen par défaut de créer du contenu, non seulement dans le domaine audio, mais aussi à la télévision, au cinéma, dans les publicités, dans l’imagerie et dans tous les autres domaines », explique Jeanine Wright à The Wrap. « Et alors, nous indiquerons quand les contenus ne sont pas créés à l’aide de l’IA, plutôt que de préciser qu’ils ont été créés à l’aide de l’IA. Mais pour l’instant, nous sommes parfaitement heureux d’ouvrir la voie. »

  •  

☕️ La justice étend son enquête sur X après des propos négationnistes générés par Grok

Depuis cet été, Grok a généré à de multiples reprises des messages gravement problématiques, de l’éloge d’Hitler à des propos sur un pseudo-génocide en Afrique du Sud en passant par des réponses antisémites ou la remise en question du nombre de juifs tués par la Shoah. Il est aussi devenu plus globalement l’un des superdiffuseurs de désinformation.

Mais, alors que xA aI annoncé la sortie de Grok 4.1 (avec un « lancement silencieux, du 1er au 14 novembre 2025 »), son IA a généré le même jour un nouveau message révisionniste affirmant notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus, avec des systèmes d’aération adaptés à cet usage plutôt que pour des exécutions massives ».

Ce mercredi 19 novembre, la Ligue des droits de l’homme a annoncé porter plainte à ce sujet et le député Renaissance Éric Bothorel a expliqué avoir fait un signalement « sur la base de l’article 40 du code de procédure pénale auprès de Madame La Procureure » suivi par les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé.

La #LDH porte plainte contre la publication de #Grok, l’intelligence artificielle du réseau social X, pour contestation de crimes contre l’humanité.

[image or embed]

— LDH France (@ldh.fr) 19 novembre 2025 à 14:35

Le même jour, le parquet de Paris a réagi, expliquant à l’AFP avoir versé ces « propos négationnistes (…) à l’enquête en cours diligentée par la section de lutte contre la cybercriminalité ». Le fonctionnement de l’IA Grok « sera analysé dans ce cadre ». X est visée depuis juillet par une enquête du parquet pour ingérence étrangère.

Le message généré par Grok a depuis été supprimé et l’IA d’Elon Musk publie aussi des messages en sens inverse.

  •  

Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

Pouet
Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

Dix ans après le lancement du projet, Eugen Rochko cède les rênes à un trio déjà très impliqué dans le développement de Mastodon et du fédivers. La petite équipe qui pilote le projet confirme avoir engagé les travaux nécessaires à la création d’une association à but non lucratif de droit belge. Celle-ci doit faire perdurer la volonté historique de son fondateur : créer une alternative aux réseaux sociaux détenus par des milliardaires.

Eugen Rochko, fondateur et CEO de Mastodon, a révélé mardi 18 novembre qu’il quittait ses fonctions à la tête du projet. Le développeur allemand, qui compte parmi les principaux artisans de la mouvance du fédivers, ne se désengage cependant pas du projet.

Eugen Rochko cède les rênes

« Le fédivers est une île au sein d’un paysage capitaliste dystopique de plus en plus infernal. Et selon moi, Mastodon est notre meilleure chance de partager cette vision d’un avenir meilleur avec le grand public. C’est pourquoi je reste impliqué, même si c’est sous la forme d’un rôle plus consultatif et moins public », explique-t-il dans un billet de blog.

Si la passion est toujours vive, pourquoi cette mise en retrait ? Le texte d’Eugen Rochko laisse entendre que le développeur n’est pas nécessairement à l’aise avec la dimension publique du rôle de CEO d’une structure telle que Mastodon, qui impose d’aller défendre une vision alternative à celle des Meta, X et autres réseaux sociaux centralisés, détenus par des sociétés privées.

Il présente également sa décision comme une forme de garantie supplémentaire apportée au projet. « Les exemples d’égos de fondateurs sabotant des communautés florissantes sont trop nombreux, et même si j’aimerais me considérer comme une exception, je comprends pourquoi on préférerait des garde-fous plus efficaces », écrit-il.

Outre sa mise en retrait, il annonce le transfert de la marque et des autres éléments qui pourraient relever de sa propriété intellectuelle à la structure de droit allemand qui chapeaute aujourd’hui le projet d’un point de vue administratif, Mastodon gGmbH. Ces actifs sont valorisés sous la forme d’une compensation fixée à 1 million d’euros, qui rétribue également le temps et les efforts du développeur au cours des dix dernières années.

« Nous lui sommes profondément reconnaissants pour ses contributions passées et nous attendons avec intérêt ses contributions futures », salue le trio chargé de prendre le relais.

Un triumvirat à la tête d’une structure renflouée

Mastodon annonce en effet que la place de CEO laissée vacante est reprise par Felix Hlatky comme directeur exécutif, Renaud Chaput toujours sous la casquette de directeur technique et Hannah Aubry en tant que directrice de la communauté. Tous déjà impliqués de façon opérationnelle dans la gestion de Mastodon, ils sont associés à un collège étendu, au sein duquel figure donc Eugen Rochko, et appellent toutes les bonnes volontés à se manifester pour renforcer la dimension communautaire de cette gouvernance.

L’équipe souligne par ailleurs disposer de moyens renforcés pour soutenir le développement de Mastodon. Outre le lancement récent de son offre de services payants à destination des gestionnaires d’instance, elle se réjouit par ailleurs du succès de sa récente campagne de dons, qui a notamment permis de recueillir 2,2 millions d’euros de la part de Jeff Atwood (fondateur de Stack Overflow), ainsi que des contributions de quelques personnalités du milieu comme Biz Stone (cofondateur de Twitter) ou Craig Newmark (fondateur du site craigslist). Elle salue par ailleurs les dons de particuliers, tout en précisant que toutes ces contributions individuelles sont exclusivement mises au service des opérations de Mastodon, qui représentent 337 000 euros de dépenses sur douze mois (de septembre 2024 à 2025).

Transfert en cours vers une association à but non lucratif de droit belge

Mastodon explique par ailleurs toujours plancher sur le transfert de ses activités vers une nouvelle structure. Annoncée en début d’année, cette évolution fait suite à la perte du statut d’entreprise à but non lucratif en Allemagne, du fait d’une non-reconnaissance de l’objet de la société comme étant d’intérêt général. Mastodon, qui fait appel à une structure basée aux États-Unis pour assurer l’intérim, confirme l’hypothèse envisagée en début d’année par Renaud Chaput dans les colonnes de Next : la transformation en une association internationale à but non lucratif de droit belge (AISBL).

« L’organisme américain à but non lucratif 501(c)(3) continue de jouer un rôle d’intermédiaire stratégique et de centre de collecte de fonds. Cet organisme détiendra la marque et d’autres actifs à titre de solution transitoire en attendant la mise en place de l’AISBL. », précise à ce niveau Mastodon.

  •  

☕️ Yann LeCun confirme son départ de Meta pour créer sa propre startup IA

Après douze ans chez Meta, Yann LeCun tirera sa révérence en fin d’année. Le Français, prix Turing et professeur d’informatique à l’université de New York, annonce qu’il prépare la création d’une nouvelle startup, au sein de laquelle il poursuivra ses recherches autour de l’Advanced Machine Intelligence. « L’objectif de cette start-up est de provoquer la prochaine grande révolution dans le domaine de l’IA : des systèmes qui comprennent le monde physique, possèdent une mémoire persistante, peuvent raisonner et planifier des séquences d’actions complexes », décrit l’intéressé dans un post LinkedIn publié mercredi soir.

Yann LeCun, considéré comme l’une des personnalités scientifiques les plus en vue dans le domaine de l’IA, a créé en 2013 et dirigé depuis le laboratoire de recherche fondamentale de Meta en matière d’IA, baptisé FAIR (pour Fundamental AI Research). Il était également depuis sept ans responsable des activités scientifiques IA de Meta (Chief AI Scientist).

L’annonce de son départ, éventée le 11 novembre dernier par le Financial Times, intervient alors que Meta vient de procéder à plusieurs mouvements de réorganisation au sein de ses équipes IA suite à la prise de contrôle de Scale AI (un spécialiste de l’annotation de données), réalisée cet été en échange de 14,3 milliards de dollars.

Alexandr Wang, l’ancien dirigeant de Scale AI, est devenu en août Chief AI Officer et a lancé une restructuration des activités associées en quatre pôles. FAIR reste l’un des quatre pôles en question, mais c’est une autre équipe qui est officiellement chargée de courir après l’objectif de la superintelligence personnelle, réclamée par Mark Zuckerberg. Fin octobre, la division FAIR a connu une réduction significative de voilure, avec 600 postes supprimés.

De quoi étayer les rumeurs qui évoquaient déjà l’hypothèse d’un départ prochain de Yann LeCun. Ce dernier semble cependant enclin à conserver des liens avec Meta. Dans son billet d’annonce, il remercie Mark Zuckerberg et trois autres membres de la direction de Meta, pour leur soutien continu à son laboratoire et à la recherche autour de l’AMI. « Grâce à leur intérêt et à leur soutien constants, Meta sera partenaire de la nouvelle société », indique-t-il.

Aucune indication n’est donnée à ce stade sur les objectifs commerciaux, les capitaux ou l’équipe que pourrait réunir Yann LeCun.

  •  

Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

Cumulonimbus
Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

La Commission a annoncé avoir ouvert plusieurs enquêtes sur le marché du cloud en Europe pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud et ainsi être soumises à des règles plus strictes du DMA.

Alors qu’Emmanuel Macron et le chancelier allemand Friedrich Merz organisaient un sommet sur la souveraineté numérique européenne à Berlin, la Commission européenne a annoncé l’ouverture d’enquêtes sur le marché du cloud computing en Europe. Elle veut notamment vérifier que le DMA est bien appliqué sur ce marché et envisage de modifier le statut d’AWS et d’Azure en leur attribuant l’étiquette de « contrôleurs d’accès » (ou gatekeepers), ce qui leur ajouterait des obligations légales permettant de simplifier la concurrence pour les autres acteurs.

« Soyons clairs, l’Europe ne veut pas être le client des grands entrepreneurs ou des grandes solutions proposées, que ce soit par les États-Unis ou par la Chine. Nous voulons clairement concevoir nos propres solutions », a déclaré Emmanuel Macron à Berlin, ajoutant qu’il s’agit « simplement d’un refus d’être un vassal ». Le message envoyé en parallèle par la Commission concernant le cloud se veut dans le même sens.

Lobbying des deux côtés de l’atlantique

Il correspond à ce qu’avaient demandé plusieurs lobbys européens du milieu vendredi dernier. Dans une « déclaration commune », le Cigref et ses homologues néerlandais, belges et allemands appelaient « la Commission européenne et les autorités nationales à faire preuve d’une vigilance accrue et à mettre en œuvre rigoureusement la loi sur les marchés numériques (DMA) », en ajoutant que « les grands fournisseurs mondiaux de technologies doivent être désignés comme gardiens lorsque leur position sur le marché leur permet d’imposer des conditions commerciales déloyales, de limiter les choix industriels de leurs clients et de restreindre la libre concurrence ».

De son côté, le lobby états-unien Business Software Alliance, dont font partie AWS et Microsoft, implorait lundi l’Europe de « laisser la porte ouverte ». « À l’heure où la souveraineté est devenue l’un des thèmes politiques les plus controversés de l’UE », affirmait BSA, le lobby proposait des alternatives « aux mesures de localisation restrictives et aux stratégies « exclusivement européennes » ».

La Commission semble donc pencher dans le sens des lobbys européens en ouvrant, comme elle l’indique dans un communiqué, deux enquêtes de marché pour évaluer si « Amazon et Microsoft devraient être désignés comme contrôleurs d’accès pour leurs services de cloud computing, Amazon Web Services et Microsoft Azure, au titre du DMA, c’est-à-dire qu’ils agissent comme des passerelles importantes entre les entreprises et les consommateurs, même s’ils ne remplissent pas les critères du DMA en matière de taille, de nombre d’utilisateurs et de position sur le marché ». Elle y ajoute une troisième enquête pour estimer « si le DMA peut lutter efficacement contre les pratiques susceptibles de limiter la compétitivité et l’équité dans le secteur du cloud computing dans l’UE ».

Des obligations nouvelles comme une interopérabilité plus importante

La Commission explique que « les analyses des marchés du cloud menées ces dernières années semblent indiquer que les services de cloud computing Microsoft Azure et Amazon Web Services occupent des positions très fortes par rapport aux entreprises et aux consommateurs ». Elle ajoute qu’elle évaluera « si certaines caractéristiques du secteur du cloud computing sont susceptibles de renforcer encore la position de Microsoft Azure et d’Amazon Web Services ».

Comme nous l’indiquions dans notre article détaillé lors de l’entrée en application du DMA, les obligations que devront respecter AWS et Azure en cas de désignation seront multiples. Notamment, le texte prévoit une obligation d’interopérabilité, « avec les mêmes caractéristiques matérielles et logicielles », ainsi que la portabilité des données. Ils ne pourraient non plus inscrire d’office l’utilisateur d’un service à un autre fourni par le même contrôleur d’accès, ni utiliser les données fournies par les entreprises qui utilisent le service de plateforme pour favoriser les propres services du contrôleur d’accès.

La Commission ajoute d’ailleurs comme exemple de sujets que les enquêtes devront aborder « les obstacles à l’interopérabilité entre le cloud computing, l’accès limité ou conditionné des entreprises utilisatrices aux données, les services de vente liée et de groupage et les clauses contractuelles potentiellement déséquilibrées ».

« Les services d’informatique en nuage sont essentiels pour la compétitivité et la résilience de l’Europe. Nous voulons que ce secteur stratégique se développe à des conditions équitables, ouvertes et concurrentielles », affirme Teresa Ribera, vice-présidente exécutive chargée d’une transition propre, juste et compétitive. « C’est pourquoi nous ouvrons aujourd’hui des enquêtes pour déterminer si les principaux services de cloud computing d’Amazon et de Microsoft, Amazon Web Services et Microsoft Azure, devraient être soumis aux obligations du règlement sur les marchés numériques (DMA) ». Elle ajoute que la Commission pourrait aussi faire évoluer ce texte pour « que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques » dans ce secteur.

Alors que Microsoft a déclaré à Reuters être prête à contribuer au travail d’enquête de la Commission, AWS affirmait que « désigner les fournisseurs de services cloud comme gatekeepers ne vaut pas la peine de prendre le risque d’étouffer l’innovation ou d’augmenter les coûts pour les entreprises européennes ».

  •  

Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

Petits investissements entre amis
Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

Anthropic, Microsoft et NVIDIA ont annoncé ce 18 novembre un nouvel accord tripartite d’investissements croisés, avec différents engagements.

Les investissements circulaires dans le monde de l’intelligence artificielle générative continuent de plus belle, avec comme acteur permanent NVIDIA et ses GPU dont la tech ne se passe décidément plus. Les deux nouveaux partenaires sont cette fois Anthropic et Microsoft, avec des engagements sur l’utilisation de services, la fourniture de capacités de calcul et ainsi de suite.

Milliards de dollars et gigawatts

L’accord, officialisé le 18 novembre, débloque de nombreuses possibilités pour Anthropic et Microsoft. Il débute par un investissement de 15 milliards de dollars dans Anthropic, NVIDIA injectant 10 milliards et Microsoft les 5 milliards restants.

En contrepartie, Anthropic s’engage à acheter des services cloud à Microsoft (via Azure) à hauteur de 30 milliards d’euros. Sans surprise, l’accord vise à fournir les capacités de calcul nécessaires au développement des prochains modèles Claude d’Anthropic. La startup indique d’ailleurs qu’elle accèdera ainsi à « une capacité de calcul supplémentaire jusqu’à un gigawatt ». On ne sait pas grand-chose de plus, sinon que cette capacité passera par des systèmes Grace Blackwell et Vera Rubin, comme chez pratiquement tous les concurrents.

Dans un billet, Anthropic indique également avoir établi « pour la première fois » un partenariat technologique avec NVIDIA. Les deux entreprises vont collaborer « sur la conception et l’ingénierie, dans le but d’optimiser les modèles Anthropic pour les meilleures performances, efficacité et TCO [coût total de possession, ndlr] possibles, et d’optimiser les futures architectures NVIDIA pour les charges de travail Anthropic ».

Même le PDG de NVIDIA, Jensen Huang, semble extatique dans la vidéo de l’annonce : « C’est un rêve devenu réalité pour nous. Vous savez, nous admirons le travail d’Anthropic et Dario [Amodei, CEO d’Anthropic, ndlr] depuis longtemps, et c’est la première fois que nous allons nous associer profondément à Anthropic pour accélérer Claude ».

Les modèles Claude débarquent en force chez Microsoft

Les liens entre Anthropic et Microsoft se renforcent aussi nettement. Les modèles Claude Sonnet 4.5, Sonnet 4.1 et Haiku 4.5 déboulent dans presque tous les produits Microsoft, et pas uniquement à destination des développeurs. On les retrouve ainsi dans Microsoft Foundry et dans toutes les déclinaisons de la gamme Copilot, par exemple GitHub et Microsoft 365. Pour la clientèle, cela signifie donc la possibilité d’utiliser les modèles Claude plutôt que GPT.

En dépit de cette annonce importante, Anthropic précise en fin de billet qu’Amazon reste son « principal fournisseur cloud et partenaire de formation ».

Si les investissements circulaires sont nombreux depuis plusieurs semaines, avec toujours NVIDIA au centre de la toile (même si AMD commence à se manifester un peu plus), on observe désormais une volonté de réduire la dépendance à OpenAI et une renégociation des exclusivités, comme dans le cas d’OpenAI avec Microsoft. L’accord avec Anthropic était attendu, car il s’agissait d’une conséquence évidente à l’indépendance d’OpenAI. Une approche multi-modèles qui assure de ne pas mettre tous ses œufs dans le même panier, même si les milliards de dollars investis concernent toujours la même petite poignée de sociétés.

Pour OpenAI, cela signifie également qu’Anthropic est confirmé dans sa position de concurrent direct, même si le lancement de Gemini 3 Pro pourrait rebattre les cartes. Avec 800 millions d’utilisateurs, ChatGPT reste cependant en tête. En attendant, les modèles Claude sont maintenant disponibles chez les trois grands fournisseurs de solutions cloud : AWS, Microsoft Azure et Google Cloud Platform.

  •  

Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

Roi du jour
Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

Google a finalement dégainé sa nouvelle famille de LLM, dont le représentant star est Gemini 3 Pro. L’entreprise ne manque pas d’arguments pour propulser son modèle sous les projecteurs. Présenté comme un anti-ChatGPT, Gemini 3 Pro est déjà disponible (presque) partout.

La guerre entre les LLM repart de plus belle avec la nouvelle incarnation de Gemini chez Google. Cette troisième mouture, comme on peut s’y attendre, prend la tête dans tous les benchmarks, avec parfois des marges significatives, en particulier face à GPT-5.1.

Google présente ainsi Gemini 3 Pro comme « une nouvelle étape pour l’intelligence artificielle » et « un autre grand pas vers l’AGI », avec des résultats plus visuels, plus directs et beaucoup moins flatteurs. « Ses réponses sont intelligentes, concises et directes, troquant clichés et flatteries contre une véritable intuition — vous disant ce que vous avez besoin d’entendre, pas seulement ce que vous voulez entendre », déclare Google dans son billet d’annonce.

Google prend la tête du peloton

Gemini 3 Pro affiche des performances d’autant plus intéressantes qu’il se retrouve premier sur nombre de tests face à GPT-5.1 et Claude Sonnet 4.5, et bien sûr face à Gemini 2.5 Pro, largement dépassé par son petit frère.

Google met particulièrement en avant certains résultats car l’écart avec les autres est majeur. Sur Humanity’s Last Exam, qui teste le « raisonnement académique », Gemini 3 Pro affiche un score de 37,5 % sans outils, et de 45,8 % avec la recherche ou l’exécution de code. Des scores très supérieurs à ceux de GPT-5.1 (26,5 %) et surtout de Claude Sonnet 4.5 (13,7 %). Sur ARC-AGI-2, Gemini 3 Pro grimpe à 31,1 %, loin devant GPT-5.1 (17,6 %) et Claude Sonnet 4.5 (13,6 %). Le nouveau LLM affiche également un score de 1 501 points sur LMArena.

Crédits : Google

La tarification de Gemini 3 Pro est dans la moyenne, avec 2 dollars par million de jetons en entrée et 12 dollars par million de jetons en sortie, mais uniquement pour les requêtes ne dépassant pas 200 000 jetons via l’API Gemini dans Google AI Studio et Vertex AI. Pour les contextes dépassant 200 000 tokens, la tarification passe à 4 dollars en entrée et 18 dollars en sortie par million de jetons.

Google marque également sa différence avec une disponibilité immédiate. Tous les produits intégrant Gemini sont passés hier soir de la version 2.5 Pro à la 3 Pro. Seule exception, les résumés IA dans les résultats de recherche, qui ne seront générés que pour les requêtes « les plus complexes ». Pour le reste, que ce soit dans l’application ou ailleurs, c’est bien le dernier LLM qui est présent, en deux versions.

Deux variantes et des capacités réservées aux comptes payants

Comme chez presque tous les concurrents, Gemini 3 Pro est en effet proposé en version « Rapide » et « Raisonnement ». On s’en doute, le premier donne des résultats plus vite, tandis que le second prend davantage le temps de la « réflexion », augmentant la précision au détriment de la rapidité. Dans le tableau des performances donné par Google, c’est le modèle Thinking qui affiche bien sûr les meilleurs résultats, puisque le modèle contrôle ses réponses au fur et à mesure, dans une démarche devenue typique de raisonnement.

Le modèle Thinking dispose en outre d’une fonction dite de « raisonnement auto-correctif » : il planifie, critique et corrige ses propres réponses avant de les afficher. Selon Google, cette méthode réduit considérablement les hallucinations sur les tâches complexes comme les mathématiques, le code et la logique. L’entreprise vante également sa « multimodalité native fusionnée », ses modèles traitant le texte, l’audio et la vidéo de la même manière, ce qui garantit selon Google une très faible latence dans les conversations vocales notamment.

Crédits : Google

Les deux versions du modèle sont disponibles partout, y compris pour les comptes gratuits. La différence se jouera – comme toujours – sur le nombre de requêtes, le compte gratuit étant rapidement épuisé en Raisonnement, tandis que les formules payantes ont des paliers plus élevés.

En mode raisonnement, les abonnés payants disposent aussi de plusieurs nouveaux modes expérimentaux d’affichage des résultats. Par exemple, le Visual Layout affiche les résultats sous forme de magazine incluant de nombreuses images, que l’on peut faire défiler. Autre possibilité, la Dynamic View, qui utilise les capacités du modèle en développement pour créer des interfaces personnalisées, par exemple une application web pour explorer la vie et l’œuvre d’un(e) artiste.

Google ajoute que Gemini 3 Pro est le premier représentant de la nouvelle famille. Des versions plus réduites arriveront après, mais l’entreprise ne donne aucun calendrier. Ajoutons que Gemini 3 Pro, comme la version 2.5 avant lui, est disponible sous forme de préversion. Là encore, pas d’information sur l’arrivée de la version finale. Dans le cas de Gemini 2.5, il s’était écoulé plusieurs mois.

Google veut frapper fort chez les développeurs

Si Gemini 3 Pro se présente avant tout comme un ChatGPT, notamment avec un ton présenté comme très neutre, Google veut clairement faire tomber Claude de son trône de LLM star chez les développeurs.

Sundar Pichai a ainsi indiqué que le nouveau modèle représentait une nouvelle étape majeure dans le développement agentique. Et pour marquer le coup, la firme lance Antigravity, sa propre solution de développement assisté par IA (vibe coding). Le nouvel outil rassemble sous un même toit une fenêtre de type chatbot, une interface en ligne de commande (bash) et une zone navigateur qui affiche les opérations en cours et l’impact des modifications.

Comme d’autres solutions de type Warp ou Cursor 2.0, Antigravity est clairement un IDE (Integrated Development Environment, que Microsoft s’est amusé récemment à renommer Intelligent Development Environment pour son Visual Studio 2026). Google le présente comme un « centre de contrôle » permettant de surveiller les agents en train de travailler. Toutes les activités sont retransmises aux développeurs par des « Artefacts », des sous-tâches servant à renseigner sur ce qui est fait et devant faciliter la vérification.

Antigravity fonctionne par défaut avec Gemini 3 Pro, mais Google veut rendre son produit « agnostique ». Il prend ainsi en charge Claude Sonnet 4.5 et les agents GPT-OSS. L’entreprise affirme cependant que Gemini 3 Pro est aujourd’hui le meilleur modèle disponible pour le vibe coding.

Le nouveau IDE est disponible pour Windows, macOS et Linux.

  •  

Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

sources ?
Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

Plus de 70 chercheurs et chercheuses européens ont signé une lettre ouverte adressée à la présidente de la Commission européenne pour lui demander de revenir sur ses propos prédisant que l’IA serait capable d’égaler le raisonnement humain l’an prochain. Ils lui reprochent de ne s’appuyer que sur des déclarations de marketing prononcées par des CEO d’entreprises d’IA.

« Nous, experts en intelligence artificielle et ses conséquences sociales, sommes profondément préoccupés par votre déclaration non scientifique et inexacte selon laquelle l’IA se rapproche du raisonnement humain », expliquent plusieurs dizaines de chercheuses et chercheurs à la présidente de la Commission européenne, Ursula von der Leyen, dans une lettre ouverte [PDF].

Ils réagissent aux propos que la dirigeante a tenus en mai dernier lors de la Conférence annuelle sur le budget de l’UE 2025. En effet, Ursula von der Leyen affirmait, entre autres que, « quand le budget actuel a été négocié, nous pensions que l’IA ne se rapprocherait du raisonnement humain que vers 2050. Aujourd’hui, nous nous attendons à ce que cela se produise déjà l’année prochaine ».

Pas de sources précises de la Commission

Le chercheur Kris Shrishak, qui travaille au sein de l’ONG irlandaise Irish Council for Civil Liberties, avait questionné début juillet la Commission à propos de documents sources sur lesquelles se basait sa présidente pour affirmer une telle chose.

Les services d’Ursula von der Leyen lui ont répondu [PDF] en octobre « que la Commission ne détient aucun document qui correspondrait à la description donnée dans votre demande », tout en affirmant que cette déclaration s’appuyait « sur les connaissances professionnelles des services de la Commission et sur l’analyse documentaire de la littérature scientifique ».

Mais en référence, ils citaient trois responsables d’entreprises d’IA : Dario Amodei (CEO d’Anthropic), Jensen Huang (CEO de NVIDIA), Sam Altman (CEO d’OpenAI). Les services de la Commission ajoutaient aussi le billet de blog du chercheur franco-marocain Yoshua Bengio publié en octobre 2024.

« Affirmations marketing motivées par l’appât du gain »

Pour les chercheurs, « il s’agit là d’affirmations marketing motivées par l’appât du gain et l’idéologie plutôt que par des preuves empiriques et formelles. En bref, les déclarations de ces CEO du secteur technologique concernant la « superintelligence » et l’ « AGI » sont manifestement liées à leurs impératifs financiers et non à une science rigoureuse ».

Selon eux, une telle reprise par la présidente de la Commission saperait « la crédibilité de l’Europe en tant que source fiable et digne de confiance de connaissances scientifiques. Cela est particulièrement vrai dans le contexte actuel d’une importante bulle spéculative alimentée par un engouement injustifié pour l’IA ».

Kris Shrishak a enfoncé le clou dans un article publié sur Tech avec la chercheuse Abeba Birhane, en affirmant que « ces spéculations ne sont pas que des mots ». Ainsi, ils expliquent que « le plan « Continent IA » de la Commission intègre ces spéculations idéologiques dans ses politiques. Dans ce plan, la Commission affirme que « la prochaine génération de modèles d’IA de pointe devrait permettre une avancée considérable en matière de capacités, vers l’intelligence artificielle générale » ». Et ils assènent que « la Commission européenne a accepté sans réserve l’utilité de l’IA, en particulier de l’IA générative ».

  •  

OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

Charbons ardents
OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

OpCore, la coentreprise réunissant le Groupe iliad et des fonds gérés par InfraVia Capital Partners, devrait pouvoir exploiter l’un des sites industriels d’EDF pour développer un datacenter représentant une puissance électrique de plusieurs centaines de MW. Le site retenu est l’ancienne centrale charbon EDF de Montereau-Vallée-de-la-Seine.

EDF et OpCore ont annoncé lundi leur entrée en négociations préalable à l’implantation d’un datacenter de grande capacité sur l’un des sites industriels proposés clés en main par l’énergéticien. C’est l’ancienne centrale charbon dite de Montereau en Seine-et-Marne qui a été retenue pour ce qui s’annonce comme un complexe de grande envergure. Le site se situe en réalité à cheval sur les communes de Vernou-La-Celle-sur-Seine et La Grande Paroisse.

Les deux partenaires évoquent une infrastructure équivalente à « plusieurs centaines de mégawatts » de puissance électrique, avec une enveloppe globale dont le montant se situerait, pour OpCore, aux alentours de 4 milliards d’euros.

OpCore (anciennement Scaleway Datacenter) est pour mémoire depuis le printemps une coentreprise entre le groupe iliad (maison mère de l’opérateur Free) et le fonds d’infrastructure français InfraVia.

Jusqu’à 700 MW sur 20 hectares

Dans leur communiqué d’annonce conjoint, diffusé le jour d’un événement dédié à l’investissement en France organisé par l’Élysée (Choose France, mais dans une édition destinée aux acteurs français), les deux partenaires restent volontairement évasifs sur les chiffres. La mèche avait cependant été vendue fin juillet par James Chéron, le maire de Montereau-Fault-Yonne, qui précisait alors que le projet correspondait à une puissance électrique maximale de 700 MW, et à une surface au sol d’environ 20 hectares.

Présenté comme « l’un des centres de calcul les plus importants d’Europe », le projet « constituera un atout majeur pour soutenir l’émergence d’une filière française et européenne d’excellence dans l’intelligence artificielle, et renforcera la souveraineté numérique du continent », vantent les deux partenaires. La finalité précise et les modalités de commercialisation des ressources informatiques mises en œuvre ne sont pas évoquées à ce stade, ce qui n’empêche pas EDF et OpCore d’affirmer que ce datacenter « permettra de créer plusieurs centaines d’emplois locaux, directs et indirects ».

« L’investissement se compte en milliards d’euros et notre vallée de la Seine peut être fière de la mise en œuvre de cette formidable ambition, qui participera à la constitution et au renforcement d’un cluster avec notamment le centre de recherche des Renardières et le Campus Énergie Durable », se réjouissait quant à lui le maire de Montereau.

Un projet vertueux ?

L’annonce par voie de communiqué a été doublée d’une conférence de presse organisée sur le site, pendant laquelle les porteurs de projet ont défendu son caractère vertueux. D’après Jean-Louis Thiériot, député de Seine-et-Marne, la construction du datacenter n’engendrerait aucune artificialisation des sols, puisque les bâtiments seraient construits sur l’emprise de l’ancienne centrale à charbon.

Les porteurs de projet auraient par ailleurs évoqué un refroidissement en circuit fermé, sans prélèvements d’eau extérieure, une réutilisation de la chaleur fatale via des usages locaux, et une utilisation d’électricité décarbonée. « C’est maintenant aux communautés de communes, en charge de l’activité économique, de faire croître un écosystème favorable avec les entreprises du secteur », veut croire le député. Les activités économiques les plus proches du site sont pour l’instant un fournisseur de granulats et un site de stockage de grains.

L’ancienne centrale thermique, retenue pour le datacenter, est à proximité immédiate de la Seine et voisine du poste électrique du Chesnoy – capture d’écran Next, carte OpenStreetMap

La mise en service de ce datacenter serait programmée à partir de 2027 avec, sans doute, un déploiement par tranches. Outre le soutien d’EDF, le site bénéficie en effet du dispositif de raccordement fast track, voulu par le Gouvernement et approuvé en mai dernier par la Commission de régulation de l’énergie (CRE), qui permet « de demander un raccordement accéléré et sans limitation à la capacité du réseau ».

Le site de Montereau, qui accueille aujourd’hui deux turbines à combustion alimentées par du gaz, est raccordé « au réseau électrique national au travers du poste du Chesnoy (400 kV/225 kV/63 kV) », indique Wikipédia.

Le datacenter d’OpCore sera ainsi situé à une trentaine de kilomètres d’un autre projet très médiatisé et doté d’un budget dix fois plus important, le fameux Campus IA dont la concertation publique vient de s’achever autour de Fouju, toujours en Seine-et-Marne.

  •  

☕️ [MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

[MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

Mise à jour 18 novembre, 15h53 : « Une correction a été mise en œuvre et nous pensons que l’incident est désormais résolu », explique Cloudflare dans un message publié à 15h42 heure de Paris. « Nous continuons à surveiller les erreurs afin de nous assurer que tous les services fonctionnent à nouveau normalement », ajoute l’entreprise. L’incident aura duré environ 3 h.


Brief originel publié le 18 novembre à 14h19 :

Cloudflare est en carafe et, par cascade, de nombreux sites qui reposent sur ses services sont difficilement, voire pas du tout, accessibles. Ainsi les utilisateurs de X, Spotify, Canva, Downdetector.fr ou encore OpenAI peuvent rencontrer des difficultés à accéder à ces sites internet.

Downdetector, qui sert habituellement à vérifier si un site est hors ligne chez les autres, illustre ironiquement le phénomène – capture d’écran Next

« Le réseau mondial Cloudflare rencontre des problèmes » a annoncé Cloudflare sur son site d’information des pannes à 12h48, heure de Paris. Depuis l’entreprise a ajouté régulièrement des messages lapidaires affirmant qu’elle continue de creuser pour connaître la cause du problème.

Sur les sites concernés, le message d’erreur affiché évoque « challenges », l’appellation qui regroupe les services dédiés au contrôle de la légitimité de la requête de l’internaute, dont la case à cocher qui fait office de Captcha chez Cloudflare.

À 14h09 heure de Paris, l’entreprise a expliqué avoir identifié une modalité de résolution. « Nous avons apporté des modifications qui ont permis à Cloudflare Access et WARP de fonctionner à nouveau normalement. Les niveaux d’erreur pour les utilisateurs d’Access et de WARP sont revenus aux taux enregistrés avant l’incident », a-t-elle indiqué ensuite.

  •  

Apple perd l’un de ses designers stars, Tim Cook partirait dès 2026

So long
Apple perd l’un de ses designers stars, Tim Cook partirait dès 2026

En quelques jours, du chamboulement est apparu chez Apple. L’entreprise vient de perdre l’une de ses étoiles montantes du design et des sources affirment que Tim Cook pourrait laisser la direction de l’entreprise dès l’année prochaine.

Abidur Chowdhury, l’un des designers fétiches d’Apple, vient de quitter l’entreprise. Apple lui doit notamment en bonne partie le design du récent iPhone Air. Comme le rappelle notamment Bloomberg, Chowdhury avait été choisi pour faire la présentation de l’appareil durant la conférence de septembre.

Le designer était arrivé chez Apple en 2019 et faisait partie d’un lot de personnes embauchées au moment où Jony Ive s’en allait. Selon Bloomberg, le départ de Chowdhury n’a rien à voir avec les ventes décevantes de l’iPhone Air, dont le design a globalement été salué. Le designer serait simplement parti pour une jeune pousse de l’intelligence artificielle, Bloomberg citant des sources « familières ». Son départ aurait créé des remous en interne car il était considéré comme une étoile montante.

Tim Cook sur le départ ?

Selon d’autres sources, Apple s’apprêterait à vivre des changements plus importants. Le très sérieux Financial Times a indiqué pendant le week-end que Tim Cook pourrait quitter l’entreprise dès l’année prochaine. Le conseil d’administration et tous les cadres de la direction prépareraient activement le passage de relai. Aucune annonce n’aurait lieu avant la présentation des prochains résultats trimestriels, prévue pour fin janvier.

Tim Cook est actuellement le patron ayant tenu les rênes le plus longtemps chez Apple. Approchant des 15 ans d’exercice, il a durablement imprimé sa marque dans l’entreprise, en jouant la continuité avec Steve Jobs, dont il était un proche. Les résultats d’Apple sous sa houlette ayant affiché une croissance continue, le Financial Times parle d’une décision personnelle, pas d’un CEO poussé vers la porte de sortie.

Chez MacG, on estime que l’article du Financial Times pourrait être le résultat d’une fuite savamment orchestrée pour sonder la réaction du marché. Nos confrères font remarquer plusieurs points, dont une publication de l’article un vendredi soir après clôture de Wall Street, pour que l’information se diffuse et se tasse durant le week-end. Ils relèvent également que l’avenir proche de Tim Cook pourrait être celui de président du conseil d’administration, prenant alors la place d’Arthur D. Levinson, qui vient de fêter ses 75 ans, âge maximal autorisé pour ce poste.

  •  

☕️ Le ministère des Armées victime de 5 à 10 incidents cyber graves par an

« Nous comptons un peu plus de 4 900 cybercombattants, avec un objectif de 5 500 d’ici 2030 », explique à Libération Emmanuel Naëgelen (LinkedIn), ancien chef des opérations du ComCyber de 2018 à 2020, puis directeur adjoint et n°2 de l’ANSSI et, depuis août, nouveau commandant de la cyberdéfense (COMCYBER) de l’état-major des armées.

Il succède à Aymeric Bonnemaison qui, après avoir œuvré dans plusieurs unités de guerre électronique, était devenu adjoint du directeur technique de la DGSE, et a été nommé cet été à la tête de la Direction du renseignement et de la sécurité de la Défense (DRSD), le service de contre-espionnage militaire.

Si les unités du ComCyber ne rassemblent qu’ « environ 500 personnes », elles bénéficient du soutien de 20 autres unités opérationnelles chargées de « combattre dans le cyberespace et renforcer la cyberdéfense des armées françaises », précise le COMCYBER. Ces dernières sont réunies au sein de la Communauté cyber des armées (CCA), comme nous le relevions à l’occasion de la création, en août, du Commissariat au Numérique de Défense (CND), le « 1ᵉʳ intranet militaire européen », composé de 6 745 hommes et femmes (dont 55 % militaires et 45 % civils).

Interrogé sur le nombre de cyberattaques visant les armées françaises, le général de division aérienne Naëgelen avance que le nombre d’incidents graves (à savoir le fait qu’un attaquant a « réussi à pénétrer nos systèmes et à en extraire de l’information ») « se compte sur les doigts d’une à deux mains, et nous sommes plus près de 5 que de 10 », par an.

« Si les IA génératives facilitent clairement le travail de nos adversaires », notamment pour « générer des mails trompeurs extrêmement crédibles », précise-t-il, « nous n’avons pas encore observé des attaques informatiques complexes qui seraient pilotées par un moteur d’intelligence artificielle ».

Rappelant qu’« un char, un avion, un bateau embarquent de l’informatique », il résume ce que le cyber représente en termes d’armements : « Du point de vue du ComCyber, un bateau, c’est un data center qui flotte ! »

  •