Le Sommet sur la souveraineté numérique européenne, qui s’est tenu à Berlin le 18 novembre, a été le théâtre de nombreuses annonces. La France et l’Allemagne semblent enfin s’aligner sur un lot de mesures et d’engagements, avec un changement marqué outre-Rhin pour une préférence européenne. Le Sommet a fait de la souveraineté numérique un axe majeur de développement, au moins sur le papier.
Elle était attendue : la rencontre franco-allemande à Berlin du 18 novembre a montré un moteur européen semblant de nouveau en phase. Car la France et l’Allemagne ont beau être voisines, elles ont chacune des conceptions très différentes sur le numérique, particulièrement sur la souveraineté.
Un fossé qui s’était notamment illustré dans la conception de la directive EUCS, qui devait grader les solutions cloud en matière de sécurité. Le niveau le plus élevé, High+ (basé sur SecNumCloud 3.2) avait disparu, sous pression notamment de l’Allemagne, pour supprimer les prérequis de protection contre l’extraterritorialité des lois étrangères. L’Allemagne est depuis longtemps un allié proche des États-Unis, avec qui elle a de nombreux accords commerciaux. L’European Sovereign Cloud d’Amazon, présenté en juin, va ainsi s’implanter chez nos voisins.
La France cependant, avec des offres comme celles de Bleu et S3ns, ou encore les contrats multiples décrochés par Microsoft dans le domaine de l’éducation, n’est pas nécessairement mieux placée. La stratégie nationale en matière de souveraineté a récemment été épinglée dans un rapport très direct de la Cour des comptes, faisant la liste de tous les errements français dans ce domaine et pointant un manque flagrant de cohésion.
Dans un contexte tendu entre guerre en Ukraine qui s’éternise, ondes de choc d’une Maison-Blanche reprise par Donald Trump et tensions croissantes avec la Chine, le Sommet était attendu.
Simplification, cohérence et souveraineté
Le sommet a réuni « plus de 900 décideurs, industriels, investisseurs, chercheurs et représentants de la société civile provenant des 27 États membres de l’Union européenne (UE) et des institutions européennes », a indiqué l’Élysée.
Il reste 79% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Dans un rapport, la Cour des comptes analyse la stratégie nationale pour l’intelligence artificielle en place depuis 2018. Elle incite l’État français à ne pas « baisser la garde » et au contraire à amplifier sa politique concernant la recherche. Elle l’exhorte aussi à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.
Tout en reconnaissant que « la prise de risque [en matière d’investissement] est élevée, la rentabilité des investissements inégale, de même que le rapport entre la valorisation de certaines entreprises de l’IA sur le marché et les revenus générés ou espérés, faisant craindre des effets de bulle qui pourraient conduire à des ajustements d’ampleur, y compris en Europe, dans les prochains mois », la Cour des comptes incite l’État à amplifier la stratégie nationale pour l’IA (SNIA).
La juridiction administrative a rendu son rapport [PDF] mercredi 19 novembre sur cette stratégie. Celui-ci analyse les deux premières phases (2018 - 2022 et 2022 - 2025).
Pour la troisième phase (2025 - 2030), elle affirme que pour « réussir le changement d’échelle qu’exige la révolution de l’intelligence artificielle », l’État doit :
« renforcer le pilotage interministériel de la politique publique de l’IA, avec en particulier la constitution d’un véritable secrétariat général à l’IA rattaché au Premier ministre ;
mieux intégrer les enjeux de soutenabilité des finances publiques et d’efficacité de la politique de l’IA ;
procéder à une évaluation approfondie des résultats des précédentes phases de la stratégie nationale et s’inspirer des meilleures pratiques à l’étranger ;
mieux s’articuler avec l’échelon européen ;
mieux mobiliser les territoires ;
redéfinir le partage des rôles avec le secteur privé ».
Elle incite l’État à ne pas « baisser la garde » et à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.
Même si la Cour des comptes considère que cette stratégie a « remporté de premiers succès », elle estime que ses deux premières phases « présentent des angles morts dans plusieurs domaines essentiels […] notamment dans des chantiers qui demandent d’impliquer un cercle large d’acteurs et de faire le lien avec d’autres politiques publiques ».
Une première phase trop axée sur la recherche pour la Cour
Dans la première phase de cette stratégie (2018 - 2022), la Cour souligne que l’État a investi 1,3 milliard d’euros (contre 1,5 milliard programmés) en ne couvrant qu’une partie des enjeux tout en la faisant reposer « sur une gouvernance complexe et un suivi budgétaire lacunaire ».
Elle reproche à l’exécutif de ne s’être concentré, dans cette phase, que sur la partie recherche, en oubliant la formation supérieure en IA, l’ouverture des données, l’accompagnement des secteurs économiques prioritaires fortement impactés par l’IA, et l’encadrement éthique de l’IA qui étaient tout autant cité dans le rapport de la mission confiée au mathématicien Cédric Villani rendu en mars 2018.
Elle reconnait « les succès du volet « recherche en IA », appréciés avec un recul supplémentaire de deux années ». Néanmoins, elle pointe « le recours par l’État à une succession d’appels à projets ou à manifestation d’intérêt, pour des financements ponctuels avec un horizon de vie limité », ce qui « présente le risque d’accroître la fragmentation au sein de la recherche, au détriment de la cohérence d’ensemble, de la création de masses critiques et de stratégies plus structurelles permettant la coordination, la complémentarité et la responsabilisation des acteurs dans la durée ». Elle regrette aussi que le volet « formation supérieure » n’ait pas été mis en œuvre.
« Dans les autres domaines couverts par la SNIA – la défense et la sécurité, la transformation de l’action publique et la diffusion de l’intelligence artificielle dans l’économie – les avancées ont été moins nettes », déplore-t-elle.
Pas assez de dépenses pour soutenir la demande des entreprises dans la seconde phase
Pour la deuxième phase, « au total, l’État aura programmé 1,1 Md€ sur la période 2023 - 2025, soit un niveau inférieur d’un tiers à ce qui avait été initialement annoncé, et la lenteur du démarrage de la plupart des dispositifs s’est traduite par un faible niveau de consommation des crédits (35 % au 30 juin 2025) », assène la Cour.
Mais elle souligne que « les premiers résultats de cette deuxième phase commencent à se dessiner dans plusieurs directions. Bien qu’il soit encore tôt pour en apprécier pleinement les effets, les initiatives prises pour renforcer la structuration et l’excellence de la recherche et de la formation supérieure en IA produisent de premiers résultats et la place de la France sur ce volet progresse ». Elle ajoute que les « efforts sur les infrastructures de calcul se sont poursuivis ».
La Cour reproche à l’exécutif d’avoir « très peu utilisé le levier de la commande publique pour favoriser l’adoption de l’IA dans la sphère publique ». Elle vise « en particulier » la Dinum (auditée en 2024) qui a, selon elle, « privilégié les développements internes avec le risque que les solutions proposées ne soient pas toujours performantes comparativement à l’offre disponible sur le marché, notamment chez les éditeurs logiciels français ».
Elle pousse aussi l’exécutif à dépenser plus sur le sujet de l’IA. « Plusieurs domaines non moins essentiels ont été laissés de côté », estime-t-elle. « L’enjeu de la massification et de l’accompagnement de la diffusion de l’intelligence artificielle au-delà du cercle des spécialistes – entreprises, administrations publiques, étudiants, citoyens – a jusqu’ici trop peu retenu l’attention, alors qu’il était au cœur des ambitions affichées par cette phase de la SNIA et que les années 2023 - 2025 étaient critiques en la matière », précise l’institution. « Ainsi, la priorité que constitue le soutien à la demande des entreprises en solutions d’IA n’a bénéficié que de dispositifs très modestes, et l’accélération et la massification escomptées de la diffusion de l’intelligence artificielle dans l’économie n’a pas eu lieu », ajoute-t-elle encore.
Adobe a formulé mercredi une offre de rachat portant sur son compatriote Semrush, également coté à la bourse de New York, pour un montant de 1,9 milliard de dollars, soit une prime de près de 80 % par rapport au cours précédent l’annonce. Cette opération de croissance externe est présentée comme le prolongement stratégique des développements déjà réalisés par Adobe en direction de l’IA à des fins marketing.
Bien connu des spécialistes du SEO (Search Engine Optimization), Semrush édite pour mémoire une suite d’outils dédiés au référencement et à la visibilité des marques sur Internet, et c’est précisément la question de la visibilité des marques au sein des outils d’intelligence artificielle générative qui semble motiver l’opération. En analogie avec le SEO, un acronyme marketing a déjà émergé pour qualifier cette problématique : GEO, pour Generative Engine Optimization.
Logos d’Adobe et de Semrush – crédit Adobe
« La visibilité des marques est en pleine mutation grâce à l’IA générative, et celles qui ne saisissent pas cette nouvelle opportunité risquent de perdre en pertinence et en chiffre d’affaires, déclare Anil Chakravarthy, président de la division Expérience numérique d’Adobe, dans un communiqué. Avec Semrush, nous offrons aux marketeurs la possibilité d’exploiter la géolocalisation comme un nouveau canal de croissance, au même titre que le SEO, pour une visibilité accrue, un engagement client renforcé et des conversions optimisées au sein de l’écosystème. »
Semrush devrait logiquement s’interfacer avec les différents outils marketing d’Adobe, qu’il s’agisse de son système de gestion de contenus numériques (AEM), ou de sa nouvelle offre d’agents conversationnels Adobe Brand Concierge.
L’acquisition a déjà fait l’objet d’une validation de la part du conseil d’administration de Semrush. Adobe indique avoir ainsi déjà recueilli l’approbation de l’équivalent de 75 % des droits de vote combinés de l’actionnariat de sa cible.
Début novembre, lors de la présentation de ses résultats financiers pour le troisième trimestre, Semrush indiquait tabler, pour l’ensemble de son exercice 2025, sur un chiffre d’affaires annuel de l’ordre de 445 millions de dollars, en croissance de 18 % sur un an, principalement grâce à l’appétit de ses clients pour l’IA générative.
Championne de jeux vidéo, cofondatrice d’Interplay, cheville ouvrière de The Bard’s Tale 3: Thief of Fate, développeuse renommée, spécialiste du portage sur Mac et avocate de la cause transgenre dans une industrie essentiellement masculine, Rebecca Heineman s’est éteinte le 17 novembre dernier.
Elle avait été diagnostiquée deux mois plus tôt d’un adénocarcinome pulmonaire avancé, et documentait non sans humour son douloureux combat contre la maladie sur son compte Bluesky. « Je n’aurais jamais cru que ce vœu se réaliserait. C’est étrange de voir des éloges funèbres avant ma mort », postait-elle le 17 novembre. Quelques heures plus tard, Scott Miller, cofondateur d’Apogee et de 3DRealm, confirmait sa mort : « Une légende de l’industrie du jeu vidéo est décédée ».
Surnommée « Burger Becky », Rebecca Ann Heineman s’est illustrée en remportant à 16 ans ce qui est considéré comme la première compétition de jeux vidéo organisée sur le sol américain : en 1980, elle s’était imposée en effet comme la grande championne d’un concours organisé par Atari autour de Space Invaders, ce qui lui avait permis de repartir chez elle, en Californie, avec le premier prix : une borne d’arcade, alors qu’elle rêvait de gagner le deuxième lot, un Atari 800.
Rebecca Ann Heineman a lancé le 10 octobre un appel aux dons sur GoFundMe pour l’aider à financer ses soins
Devenue développeuse, elle est créditée au générique de pas moins de 67 jeux d’après la base de données Moby Games, parmi lesquels bon nombre de titres cultes. Elle a participé à la création du studio Interplay en 1983, où ses travaux prépareront le terrain à des titres aussi emblématiques que Wasteland, qui donnera naissance à Fallout, ou Baldur’s Gate. Chez Interplay, elle a aussi conçu Bard’s Tale III: The Thief of Fate et Dragon Wars, et participé à des portages considérés comme particulièrement difficiles tels que ceux de Wolfenstein 3D et Battle Chess.
Côté portage, elle accède justement à une certaine notoriété dans les années 90 en s’attelant à la version 3DO de Doom, rappelle Ars Technica. Une mission de quelques semaines, réalisée sous une pression intense, comme Rebecca Heineman l’a elle-même raconté sur son GitHub. Habituée des conférences pour développeurs (c’est lors de la dernière PAX qu’elle a ressenti les premiers symptômes qui conduiront au diagnostic de son cancer), elle est unanimement saluée pour son talent et sa débrouillardise technique.
En 2025, elle avait été honorée d’un Gayming Awards, un trophée célébrant les défenseurs de la cause LGBTQ+ dans l’industrie du jeu vidéo. Rebecca Ann Heineman avait réalisé et assumé publiquement sa transition de genre en 2003 et a longtemps vécu en couple avec Jennell Jaquays, une célèbre conceptrice et illustratrice de jeux de rôle, décédée début 2024.
Début octobre, Rebecca Ann Heineman avait lancé une campagne de dons sur GoFundMe pour soutenir les frais élevés associés à son traitement. C’est aussi là qu’elle avait annoncé, le 17 novembre, sa fin imminente. « Il est temps. D’après mes médecins. Tout traitement supplémentaire est inutile. Alors, s’il vous plaît, faites un don pour que mes enfants puissent organiser des funérailles dignes de mon clavier, Pixelbreaker ! Pour que je puisse faire une entrée digne de mes retrouvailles avec mon unique amour, Jennell Jaquays ».
OpenAI a montré ce 19 novembre toute son ambition dans le domaine de l’éducation. L’entreprise lance une version gratuite et spécifique de son ChatGPT pour les enseignants, avec une volonté claire de devenir incontournable.
OpenAI a annoncé hier soir dans un billet de blog la disponibilité d’une version gratuite et spécifique de ChatGPT à destination des enseignants aux États-Unis. Pourquoi ce domaine en particulier ? Parce que selon l’entreprise, sur les 800 millions d’utilisateurs que compte son chatbot, les enseignants seraient les premiers à l’avoir adopté et les plus actifs.
L’offre a donc été spécialement conçue pour le corps enseignant, affirme OpenAI. Elle est basée sur GPT-5.1 Auto pour répartir les demandes et l’ensemble des fonctions. Une mémoire adaptée aurait été mise en place, pour retenir autant de contexte que possible et simplifier le travail quotidien. La sécurité est déclarée comme conforme aux normes FERPA (Family Educational Rights and Privacy Act). L’outil peut être intégré à d’autres comme Canva, Google Drive et Microsoft 365. Envoi de fichiers, génération d’images et autres sont aussi présents.
Des fonctions spécifiques ont été ajoutées. Par exemple, la possibilité de créer des espaces de travail partagés pour créer des modèles de plans de cours. Les enseignants pourront également planifier leurs travaux sur plusieurs semaines, générer des exemples pour un devoir, gérer la conformité avec les normes ISTE (pdf), voir des exemples créés par d’autres enseignants, des contrôles administratifs pour les groupes, etc.
Cette offre a été pensée pour les 400 000 enseignants certifiés du primaire à la terminale, « dans les principaux districts aux États-Unis ». La vérification du statut se fait SheerID, qui joue le rôle d’intermédiaire de confiance auprès d’OpenAI.
Gratuit jusqu’en 2027, et après ?
« Chaque élève aujourd’hui grandit avec l’IA, et les enseignants jouent un rôle central pour les aider à apprendre à utiliser ces outils de manière responsable et efficace. Pour soutenir ce travail, les éducateurs ont besoin d’espace pour explorer l’IA par eux-mêmes. ChatGPT for Teachers est conçu pour les aider à faire exactement cela : offrir une expérience pratique et concrète qu’ils peuvent ramener dans leurs classes. Et en la rendant gratuite pour des millions d’enseignants, nous espérons faciliter une utilisation sûre et réfléchie de l’IA dans l’apprentissage par toutes sortes d’écoles »
Surtout, ce ChatGPT for Teachers est mis à disposition gratuitement jusqu’en juin 2027. Pour OpenAI, c’est évidemment un pari qui peut lui rapporter gros : en offrant un service conçu spécifiquement pour ce qu’elle-même présente comme les besoins des enseignants, l’entreprise pourrait bien s’assurer une place de choix dans leur quotidien. En juin 2027, quand la gratuité prendra fin, les personnes qui estimeront avoir gagné suffisamment de temps avec l’outil pourraient ainsi envisager l’abonnement payant.
« Après cela, nous pourrions ajuster les prix, mais notre objectif est de garder ChatGPT pour les enseignants abordable pour les enseignants. Si quelque chose change, nous préviendrons pour que les enseignants et les écoles puissent décider s’ils continuent ou non », affirme OpenAI. Et l’opportunité est bien là, si l’on en croit une étude que Gallup avait publiée en juin dernier : 32 % des enseignants utilisaient l’IA toutes les semaines, avec un gain de temps hebdomadaire moyen estimé à 5,9 heures.
Pour l’instant, on ne sait rien d’une éventuelle extension du service à d’autres marchés, mais on imagine mal OpenAI se contenter du marché américain dans sa volonté de devenir le nouvel acteur incontournable de l’éducation.
La crainte de la perte d’autonomie
Le discours de l’entreprise est entièrement tourné vers « l’autonomisation » des enseignants et veut frapper au cœur : puisque les élèves recourent déjà massivement à l’IA générative, les enseignants doivent jouer un rôle central dans l’apprentissage de ces outils, « de manière responsable et efficace ». ChatGPT for Teachers se propose donc de remplir les deux missions : acclimater les professeurs à cette technologie et leur faire gagner du temps dans la préparation des cours, qui eux-mêmes vont changer. « L’IA dans l’éducation fonctionne mieux lorsque les enseignants dirigent », assure OpenAI.
L’annonce d’OpenAI était attendue. L’IA bouscule les méthodes conventionnelles de l’enseignement et certaines entreprises avancent leurs pions. Microsoft a par exemple annoncé une version éducative de son Copilot, pensée pour les élèves et étudiants. L’assistant se transforme alors en « professeur socratique » pour aider à faire travailler les matières, les examens, etc. Différentes fonctions sont présentes pour rendre l’ensemble interactif, notamment un tableau blanc dans lequel inscrire des réponses manuscrites, des schémas et autres.
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
Inception Point AI se targue sur son site web d’avoir créé « le plus grand réseau de podcasts indépendants au monde ». Quiet Please (c’est son nom, « Du calme s’il vous plait » en français) a d’ores et déjà créé « plus de 4 000 émissions », diffuse « en moyenne 3 000 nouveaux épisodes par semaine », de 15 à une quarantaine de minutes chacun, et compte se lancer dans l’édition de courtes vidéos, de livres « et bien plus encore ».
Cette start-up ne compte pourtant que huit employés : 4 informaticiens et 4 producteurs, relevait le mois dernier La tech la première, le podcast de Stéphane Jourdain, rédacteur en chef numérique de France Inter. Cette hyperproductivité s’explique par le fait que ces podcasts sont tous entièrement générés par IA, sans supervision humaine.
L’entreprise produit par exemple de nombreux podcasts consacrés à l’indice de pollen dans toutes les grandes villes américaines, afin d’attirer des publicités pour des antihistaminiques. Mais également des podcasts dédiés au jardinage, aux actus people, à la méditation, à la ménopause, aux stations de ski, plages, aux assassins, aux sous-marins nucléaires, à l’économie, la démocratie, le socialisme et même le communisme (entre autres).
Le coût de revient d’un podcast ? 1 $, rentabilité dès le 20ᵉ auditeur
Pour Inception Point AI, les « influenceurs IA » constituent « la prochaine frontière à un milliard de dollars », dans la mesure où ils peuvent travailler tout le temps, sans avoir besoin de dormir, et offrent « une qualité supérieure à ~1/25000 du coût » d’un influenceur humain.
Un épisode de podcast ne leur coûterait en effet que 1 $ seulement. Ce qui leur permet de privilégier la quantité à la qualité, d’autant qu’il suffit de 20 auditeurs pour qu’un épisode soit rentable. Et tant pis si les yeux de certaines de ces influenceuses synthétiques sont quelque peu bâclés.
Captures d’écran du compte de @vvsteeleip, influenceuse IA
D’après The Wrap (« le seul média indépendant dédié à l’industrie hollywoodienne »), Quiet Please aurait d’ores et déjà publié plus de 175 000 épisodes sur des plateformes comme Spotify ou Apple, enregistré 12 millions de téléchargements d’épisodes depuis sa création, et compterait 400 000 abonnés.
« La richesse se trouve dans les niches », explique à The Wrap Jeanine Wright, co-fondatrice et CEO de la start-up et ancienne directrice des opérations de Wondery, la division podcast d’Amazon. « Mes amis dans l’industrie du podcasting me demandent : « As-tu une émission qui figure dans le top 10 ? Comment se classent tes émissions ? » Nous ne voyons pas les choses sous cet angle », précise-t-elle :
« Au lieu de se concentrer uniquement sur la création des prochains Kelce Brothers, Crime Junkie ou Joe Rogan, ces émissions à grand succès, vous pourriez vous adresser à des publics de niche et à des micro-communautés. C’est un modèle économique totalement différent. »
Selon Riverside, plus de 584 millions de personnes ont écouté des podcasts en 2025, et ce chiffre devrait atteindre 619 millions d’ici 2026. D’après Edison Research, le temps passé à écouter des podcasts a augmenté de 355 % au cours des dix dernières années. 34 % des Américains écoutent en moyenne 8,3 épisodes de podcast par semaine, et 83 % y consacrent plus de 9 heures par semaine. Le marché pourrait atteindre une valeur de 17,59 milliards de dollars d’ici 2030. Même Netflix se lance dans le podcasting, en concluant un partenariat avec Spotify et The Ringer pour des podcasts vidéo dans le cadre de sa stratégie 2026, souligne The Wrap.
Une salle de rédaction, mais sans journalistes humains
Inception Point, qui se présente comme la « version audio de Reddit ou Wikipédia », a créé 120 « influenceurs IA », associés à des niches et contenus hyper-spécialisés. La société évite soigneusement les sujets controversés qui pourraient poser problème, précise The Wrap, « de sorte qu’aucune révision humaine n’est nécessaire pour chaque épisode », d’autant qu’il est matériellement impossible aux 8 employés de la start-up de pouvoir les écouter avant qu’ils ne soient mis en ligne :
« Inception Point AI fonctionne presque comme une salle de rédaction, mais sans journalistes humains. Les modèles d’IA scannent Internet et proposent à l’équipe des listes d’idées intéressantes, et les employés voient ce qui leur convient. Avec sa petite équipe de huit personnes, il faut une journée pour passer d’une idée à un épisode complet. Une fois le sujet choisi, un membre de l’équipe l’associe à une personnalité et la machine peut commencer à générer l’épisode, ce qui prend environ une heure. »
Sur son profil LinkedIn, la start-up, créée en 2023, avance que « Dans un avenir proche, la moitié de la population mondiale sera constituée d’IA ». « Les « personnes » générées par l’IA devraient-elles avoir des droits humains ? » s’interrogeait Jeanine Wright, qui se définit elle-même comme une « maximaliste de l’IA », dans AI Proof, un podcast destiné aux parents et aux éducateurs qui entend aider les enfants à se préparer à « un avenir imprégné d’intelligence artificielle ».
« Je pense que très rapidement, nous arriverons à un stade où l’IA sera le moyen par défaut de créer du contenu, non seulement dans le domaine audio, mais aussi à la télévision, au cinéma, dans les publicités, dans l’imagerie et dans tous les autres domaines », explique Jeanine Wright à The Wrap. « Et alors, nous indiquerons quand les contenus ne sont pas créés à l’aide de l’IA, plutôt que de préciser qu’ils ont été créés à l’aide de l’IA. Mais pour l’instant, nous sommes parfaitement heureux d’ouvrir la voie. »
En amont du Summit, nous avons rencontré Octave Klaba et Yaniv Fdida, respectivement PDG et CPTO d’OVHcloud. Ils nous ont détaillé les annonces sur l’IA, les agents, la sécurité, le stockage S3 dont les performances font un bond en avant, le déploiement de fibre, etc. OVHcloud tire tous azimuts et explique au passage ses choix sur l’intelligence artificielle : inférence, inférence et inférence.
OVHcloud tient aujourd’hui sa grand-messe annuelle : le Summit édition 2025. Les deux principaux thèmes du jour sont dans l’air du temps : « répondre aux nouveaux défis de l’IA et du quantique ». Dans les faits, les annonces tournent en très grande majorité autour de l’intelligence artificielle, et plus particulièrement sur l’inférence et les agents IA.
La question du retour d’Octave Klaba et de ses ambitions pour OVHcloud pour les cinq ans à venir a déjà été abordée dans une précédente actualité. Commençons par un tour d’horizon des nombreuses nouveautés dans les différentes gammes de produits, avant de passer sur le cœur des annonces avec des nouveautés sur les infrastructures pour l’intelligence artificielle.
Zimbra Pro, WordPress managé avec VoD, Ryzen X3D pour Games…
Yaniv Fdida fait un tour d’horizon des nouveautés du jour. Il y a tout d’abord Zimbra Pro avec Active Sync et du stockage supplémentaire (50 Go) pour proposer une « vraie alternative à Exchange » ainsi qu’un outil de migration pour « basculer vos workflows comme vous voulez, de manière réversible ». Une bêta de Zimbra Pro était proposée depuis quelques mois. Arrive également une version managée de WordPress et une offre de VoD pour la vidéo. De manière générale, sur le Web Cloud, l’investissement continue sur les outils collaboratifs.
Il reste 95% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Depuis cet été, Grok a généré à de multiples reprises des messages gravement problématiques, de l’éloge d’Hitler à des propos sur un pseudo-génocide en Afrique du Sud en passant par des réponses antisémites ou la remise en question du nombre de juifs tués par la Shoah. Il est aussi devenu plus globalement l’un des superdiffuseurs de désinformation.
Mais, alors que xA aI annoncé la sortie de Grok 4.1 (avec un « lancement silencieux, du 1er au 14 novembre 2025 »), son IA a généré le même jour un nouveau message révisionniste affirmant notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus, avec des systèmes d’aération adaptés à cet usage plutôt que pour des exécutions massives ».
Ce mercredi 19 novembre, la Ligue des droits de l’homme a annoncé porter plainte à ce sujet et le député Renaissance Éric Bothorel a expliqué avoir fait un signalement « sur la base de l’article 40 du code de procédure pénale auprès de Madame La Procureure » suivi par les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé.
La #LDH porte plainte contre la publication de #Grok, l’intelligence artificielle du réseau social X, pour contestation de crimes contre l’humanité.
Le même jour, le parquet de Paris a réagi, expliquant à l’AFP avoir versé ces « propos négationnistes (…) à l’enquête en cours diligentée par la section de lutte contre la cybercriminalité ». Le fonctionnement de l’IA Grok « sera analysé dans ce cadre ». X est visée depuis juillet par une enquête du parquet pour ingérence étrangère.
Le message généré par Grok a depuis été supprimé et l’IA d’Elon Musk publie aussi des messages en sens inverse.
Dix ans après le lancement du projet, Eugen Rochko cède les rênes à un trio déjà très impliqué dans le développement de Mastodon et du fédivers. La petite équipe qui pilote le projet confirme avoir engagé les travaux nécessaires à la création d’une association à but non lucratif de droit belge. Celle-ci doit faire perdurer la volonté historique de son fondateur : créer une alternative aux réseaux sociaux détenus par des milliardaires.
Eugen Rochko, fondateur et CEO de Mastodon, a révélé mardi 18 novembre qu’il quittait ses fonctions à la tête du projet. Le développeur allemand, qui compte parmi les principaux artisans de la mouvance du fédivers, ne se désengage cependant pas du projet.
Eugen Rochko cède les rênes
« Le fédivers est une île au sein d’un paysage capitaliste dystopique de plus en plus infernal. Et selon moi, Mastodon est notre meilleure chance de partager cette vision d’un avenir meilleur avec le grand public. C’est pourquoi je reste impliqué, même si c’est sous la forme d’un rôle plus consultatif et moins public », explique-t-il dans un billet de blog.
Si la passion est toujours vive, pourquoi cette mise en retrait ? Le texte d’Eugen Rochko laisse entendre que le développeur n’est pas nécessairement à l’aise avec la dimension publique du rôle de CEO d’une structure telle que Mastodon, qui impose d’aller défendre une vision alternative à celle des Meta, X et autres réseaux sociaux centralisés, détenus par des sociétés privées.
Il présente également sa décision comme une forme de garantie supplémentaire apportée au projet. « Les exemples d’égos de fondateurs sabotant des communautés florissantes sont trop nombreux, et même si j’aimerais me considérer comme une exception, je comprends pourquoi on préférerait des garde-fous plus efficaces », écrit-il.
Outre sa mise en retrait, il annonce le transfert de la marque et des autres éléments qui pourraient relever de sa propriété intellectuelle à la structure de droit allemand qui chapeaute aujourd’hui le projet d’un point de vue administratif, Mastodon gGmbH. Ces actifs sont valorisés sous la forme d’une compensation fixée à 1 million d’euros, qui rétribue également le temps et les efforts du développeur au cours des dix dernières années.
« Nous lui sommes profondément reconnaissants pour ses contributions passées et nous attendons avec intérêt ses contributions futures », salue le trio chargé de prendre le relais.
Un triumvirat à la tête d’une structure renflouée
Mastodon annonce en effet que la place de CEO laissée vacante est reprise par Felix Hlatky comme directeur exécutif, Renaud Chaput toujours sous la casquette de directeur technique et Hannah Aubry en tant que directrice de la communauté. Tous déjà impliqués de façon opérationnelle dans la gestion de Mastodon, ils sont associés à un collège étendu, au sein duquel figure donc Eugen Rochko, et appellent toutes les bonnes volontés à se manifester pour renforcer la dimension communautaire de cette gouvernance.
L’équipe souligne par ailleurs disposer de moyens renforcés pour soutenir le développement de Mastodon. Outre le lancement récent de son offre de services payants à destination des gestionnaires d’instance, elle se réjouit par ailleurs du succès de sa récente campagne de dons, qui a notamment permis de recueillir 2,2 millions d’euros de la part de Jeff Atwood (fondateur de Stack Overflow), ainsi que des contributions de quelques personnalités du milieu comme Biz Stone (cofondateur de Twitter) ou Craig Newmark (fondateur du site craigslist). Elle salue par ailleurs les dons de particuliers, tout en précisant que toutes ces contributions individuelles sont exclusivement mises au service des opérations de Mastodon, qui représentent 337 000 euros de dépenses sur douze mois (de septembre 2024 à 2025).
Transfert en cours vers une association à but non lucratif de droit belge
Mastodon explique par ailleurs toujours plancher sur le transfert de ses activités vers une nouvelle structure. Annoncée en début d’année, cette évolution fait suite à la perte du statut d’entreprise à but non lucratif en Allemagne, du fait d’une non-reconnaissance de l’objet de la société comme étant d’intérêt général. Mastodon, qui fait appel à une structure basée aux États-Unis pour assurer l’intérim, confirme l’hypothèse envisagée en début d’année par Renaud Chaput dans les colonnes de Next : la transformation en une association internationale à but non lucratif de droit belge (AISBL).
« L’organisme américain à but non lucratif 501(c)(3) continue de jouer un rôle d’intermédiaire stratégique et de centre de collecte de fonds. Cet organisme détiendra la marque et d’autres actifs à titre de solution transitoire en attendant la mise en place de l’AISBL. », précise à ce niveau Mastodon.
Après douze ans chez Meta, Yann LeCun tirera sa révérence en fin d’année. Le Français, prix Turing et professeur d’informatique à l’université de New York, annonce qu’il prépare la création d’une nouvelle startup, au sein de laquelle il poursuivra ses recherches autour de l’Advanced Machine Intelligence. « L’objectif de cette start-up est de provoquer la prochaine grande révolution dans le domaine de l’IA : des systèmes qui comprennent le monde physique, possèdent une mémoire persistante, peuvent raisonner et planifier des séquences d’actions complexes », décrit l’intéressé dans un post LinkedIn publié mercredi soir.
Yann LeCun, considéré comme l’une des personnalités scientifiques les plus en vue dans le domaine de l’IA, a créé en 2013 et dirigé depuis le laboratoire de recherche fondamentale de Meta en matière d’IA, baptisé FAIR (pour Fundamental AI Research). Il était également depuis sept ans responsable des activités scientifiques IA de Meta (Chief AI Scientist).
L’annonce de son départ, éventée le 11 novembre dernier par le Financial Times, intervient alors que Meta vient de procéder à plusieurs mouvements de réorganisation au sein de ses équipes IA suite à la prise de contrôle de Scale AI (un spécialiste de l’annotation de données), réalisée cet été en échange de 14,3 milliards de dollars.
Alexandr Wang, l’ancien dirigeant de Scale AI, est devenu en août Chief AI Officer et a lancé une restructuration des activités associées en quatre pôles. FAIR reste l’un des quatre pôles en question, mais c’est une autre équipe qui est officiellement chargée de courir après l’objectif de la superintelligence personnelle, réclamée par Mark Zuckerberg. Fin octobre, la division FAIR a connu une réduction significative de voilure, avec 600 postes supprimés.
De quoi étayer les rumeurs qui évoquaient déjà l’hypothèse d’un départ prochain de Yann LeCun. Ce dernier semble cependant enclin à conserver des liens avec Meta. Dans son billet d’annonce, il remercie Mark Zuckerberg et trois autres membres de la direction de Meta, pour leur soutien continu à son laboratoire et à la recherche autour de l’AMI. « Grâce à leur intérêt et à leur soutien constants, Meta sera partenaire de la nouvelle société », indique-t-il.
Aucune indication n’est donnée à ce stade sur les objectifs commerciaux, les capitaux ou l’équipe que pourrait réunir Yann LeCun.
La Commission européenne publie ce 19 novembre un paquet législatif « digital omnibus » déjà largement critiqué. Next fait le point.
Fin janvier 2025, la Commission européenne présentait sa « boussole pour la compétitivité ». Inspirée du rapport de l’économiste italien et ex-président de la Banque centrale européenne (BCE) Mario Draghi sur la compétitivité européenne, la feuille de route prévoyait d’emblée de provoquer un « choc de simplification » administrative pour les entreprises européennes. But affiché : « réduire de 25 % les charges administratives, et de 35 % celles pesant sur les petites et moyennes entreprises » d’ici 2029, sans préciser la manière de calculer cet allégement.
Ce 19 novembre, la Commission publie donc son paquet législatif « digital omnibus », dédié au numérique. Concrètement, elle publie un jeu de propositions dédié à amender des textes déjà en vigueur, dont le Règlement général sur la protection des données (RGPD), la directive e-Privacy (pour simplifier l’utilisation des bandeaux de consentement aux cookies), celle sur la sécurité des réseaux et des systèmes d’information (NIS 2) ou encore le règlement sur la résilience opérationnelle numérique (DORA). Celui-ci s’accompagne d’une proposition d’« omnibus numérique sur le règlement sur l’intelligence artificielle », dédié à l’implémentation encore en cours du règlement sur l’intelligence artificielle (RIA ou AI Act) – le texte est entré en vigueur en août 2024, mais certaines de ses dispositions ne doivent devenir applicables qu’à partir de 2026 voire 2027.
Mais les propositions se font dans un contexte électrique. Le 13 novembre, une alliance inédite de la droite et de l’extrême-droite au Parlement européen a voté la réduction de plusieurs autres mesures (réunies au sein du paquet législatif « Omnibus I »), plus directement liées au Pacte vert (Green deal) européen, mais susceptibles de concerner aussi divers acteurs numériques. Le contenu du digital omnibus, lui, a fuité depuis une dizaine de jours, suscitant les critiques de multiples défenseurs des droits numériques ainsi que des groupes politiques de gauche et du centre.
Attaque « accélérée » du RGPD
Au cœur de leurs préoccupations : l’« attaque accélérée », comme la qualifie l’association noyb, portée contre des éléments essentiels du RGPD, à commencer par la définition des données à caractère personnel.
« Nous sommes aussi inquiets du processus législatif adopté que de son contenu », déclare la spécialiste de la protection des données auprès de la European Digital Rights (EDRi) Itxaso Domínguez. Aux côtés de 126 organisations de la société civile, l’EDRi publiait la semaine passée une lettre ouverte appelant la Commission à « protéger des libertés numériques durement gagnées ».
Il reste 72% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La Commission a annoncé avoir ouvert plusieurs enquêtes sur le marché du cloud en Europe pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud et ainsi être soumises à des règles plus strictes du DMA.
Alors qu’Emmanuel Macron et le chancelier allemand Friedrich Merz organisaient un sommet sur la souveraineté numérique européenne à Berlin, la Commission européenne a annoncé l’ouverture d’enquêtes sur le marché du cloud computing en Europe. Elle veut notamment vérifier que le DMA est bien appliqué sur ce marché et envisage de modifier le statut d’AWS et d’Azure en leur attribuant l’étiquette de « contrôleurs d’accès » (ou gatekeepers), ce qui leur ajouterait des obligations légales permettant de simplifier la concurrence pour les autres acteurs.
« Soyons clairs, l’Europe ne veut pas être le client des grands entrepreneurs ou des grandes solutions proposées, que ce soit par les États-Unis ou par la Chine. Nous voulons clairement concevoir nos propres solutions », a déclaré Emmanuel Macron à Berlin, ajoutant qu’il s’agit « simplement d’un refus d’être un vassal ». Le message envoyé en parallèle par la Commission concernant le cloud se veut dans le même sens.
Lobbying des deux côtés de l’atlantique
Il correspond à ce qu’avaient demandé plusieurs lobbys européens du milieu vendredi dernier. Dans une « déclaration commune », le Cigref et ses homologues néerlandais, belges et allemands appelaient « la Commission européenne et les autorités nationales à faire preuve d’une vigilance accrue et à mettre en œuvre rigoureusement la loi sur les marchés numériques (DMA) », en ajoutant que « les grands fournisseurs mondiaux de technologies doivent être désignés comme gardiens lorsque leur position sur le marché leur permet d’imposer des conditions commerciales déloyales, de limiter les choix industriels de leurs clients et de restreindre la libre concurrence ».
De son côté, le lobby états-unien Business Software Alliance, dont font partie AWS et Microsoft, implorait lundi l’Europe de « laisser la porte ouverte ». « À l’heure où la souveraineté est devenue l’un des thèmes politiques les plus controversés de l’UE », affirmait BSA, le lobby proposait des alternatives « aux mesures de localisation restrictives et aux stratégies « exclusivement européennes » ».
La Commission semble donc pencher dans le sens des lobbys européens en ouvrant, comme elle l’indique dans un communiqué, deux enquêtes de marché pour évaluer si « Amazon et Microsoft devraient être désignés comme contrôleurs d’accès pour leurs services de cloud computing, Amazon Web Services et Microsoft Azure, au titre du DMA, c’est-à-dire qu’ils agissent comme des passerelles importantes entre les entreprises et les consommateurs, même s’ils ne remplissent pas les critères du DMA en matière de taille, de nombre d’utilisateurs et de position sur le marché ». Elle y ajoute une troisième enquête pour estimer « si le DMA peut lutter efficacement contre les pratiques susceptibles de limiter la compétitivité et l’équité dans le secteur du cloud computing dans l’UE ».
Des obligations nouvelles comme une interopérabilité plus importante
La Commission explique que « les analyses des marchés du cloud menées ces dernières années semblent indiquer que les services de cloud computing Microsoft Azure et Amazon Web Services occupent des positions très fortes par rapport aux entreprises et aux consommateurs ». Elle ajoute qu’elle évaluera « si certaines caractéristiques du secteur du cloud computing sont susceptibles de renforcer encore la position de Microsoft Azure et d’Amazon Web Services ».
Comme nous l’indiquions dans notre article détaillé lors de l’entrée en application du DMA, les obligations que devront respecter AWS et Azure en cas de désignation seront multiples. Notamment, le texte prévoit une obligation d’interopérabilité, « avec les mêmes caractéristiques matérielles et logicielles », ainsi que la portabilité des données. Ils ne pourraient non plus inscrire d’office l’utilisateur d’un service à un autre fourni par le même contrôleur d’accès, ni utiliser les données fournies par les entreprises qui utilisent le service de plateforme pour favoriser les propres services du contrôleur d’accès.
La Commission ajoute d’ailleurs comme exemple de sujets que les enquêtes devront aborder « les obstacles à l’interopérabilité entre le cloud computing, l’accès limité ou conditionné des entreprises utilisatrices aux données, les services de vente liée et de groupage et les clauses contractuelles potentiellement déséquilibrées ».
« Les services d’informatique en nuage sont essentiels pour la compétitivité et la résilience de l’Europe. Nous voulons que ce secteur stratégique se développe à des conditions équitables, ouvertes et concurrentielles », affirme Teresa Ribera, vice-présidente exécutive chargée d’une transition propre, juste et compétitive. « C’est pourquoi nous ouvrons aujourd’hui des enquêtes pour déterminer si les principaux services de cloud computing d’Amazon et de Microsoft, Amazon Web Services et Microsoft Azure, devraient être soumis aux obligations du règlement sur les marchés numériques (DMA) ». Elle ajoute que la Commission pourrait aussi faire évoluer ce texte pour « que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques » dans ce secteur.
Alors que Microsoft a déclaré à Reuters être prête à contribuer au travail d’enquête de la Commission, AWS affirmait que « désigner les fournisseurs de services cloud comme gatekeepers ne vaut pas la peine de prendre le risque d’étouffer l’innovation ou d’augmenter les coûts pour les entreprises européennes ».
Le 18 novembre, la panne de Cloudflare a plongé une partie du web dans le noir. Comme on pouvait s’y attendre, l’entreprise a publié un billet explicatif détaillé sur les raisons ayant conduit à cette coupure d’environ trois heures. Les raisons sont complexes et non liées à une attaque ou autre incident de sécurité.
ChatGPT, X, Facebook, Spotify, Canva, Feedly, Marmiton, Doctissimo et autres sites ont été inaccessibles pendant environ trois heures le 18 novembre. Le dénominateur commun ? Ils sont tous protégés par Cloudflare, qui commercialise des services permettant de résister aux attaques distribuées par déni de service (DDoS), entre autres services.
Les solutions vendues par Cloudflare sont devenues omniprésentes, au point que l’entreprise américaine revendique aujourd’hui la gestion de 20 % du trafic web mondial. Un chiffre colossal, qui fait de l’acteur un maillon devenu essentiel du web, avec les conséquences allant de pair en cas de panne. Dans la veine du récent incident chez Amazon Web Services, la panne de Cloudflare a eu des répercussions mondiales et un post mortem détaillé était attendu pour expliquer ce qui avait bien pu provoquer une telle coupure.
D’un petit rien…
La disparition soudaine de Cloudflare aurait pu faire craindre une infrastructure finalement vaincue par une énorme attaque concertée. Il n’en est rien : tout a commencé par une modification apportée aux permissions de l’un des systèmes de base de données (ClickHouse). Elle visait à améliorer la sécurité des requêtes distribuées en rendant explicites les accès aux tables sous-jacentes dans la base de données.
Il reste 77% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Octave reprend encore les rênes d’OVHcloud et compte bien rester PDG pendant au moins cinq ans pour dérouler le nouveau plan stratégique. Il veut arriver à une croissance durable à deux chiffres et revient aussi sur le départ de Benjamin Revcolevschi.
Demain, OVHcloud tiendra sa grand-messe annuelle : son Summit. La semaine dernière, nous étions quelques journalistes chez OVHcloud pour parler de nombreux sujets, dont la vision stratégique de l’entreprise.
Un fondateur, une famille et des valeurs… pas une dictature
Il faut dire qu’un changement important a été annoncé il y a tout juste un mois : Octave Klaba reprend le poste de directeur général (et reste président du Conseil) à la place de Benjamin Revcolevschi. Ce dernier n’est donc resté qu’un an à la tête d’OVHcloud.
Une décision soudaine de la famille Klaba, qui est pour rappel très largement majoritaire puisqu’elle détient 81,3 % du capital et 82 % des droits de vote, ce qui facilite grandement des décisions sur le changement de la gouvernance… et inspire aussi Flock. À ce sujet, Octave Klaba tient à rappeler qu’il n’est pas le seul maitre à bord : « j’ai un board, j’ai des comités ». Il détaille son propos : « C’est une boîte où il y a un fondateur, une famille, des valeurs, une mission, une vision. Donc, oui, vous n’êtes pas dans une boîte de dépossédés ; mais non, ça ne veut pas dire que c’est de la dictature ».
2025 : des résultats « corrects, sans plus »
Il reste 74% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.
Ce lundi 3 novembre, à 6h46, le journaliste Sylvain Ernault, cofondateur du site d’investigation breton Splann, racontait sur BlueSky avoir été surpris de découvrir qu’un site hébergé par Ouest-France.fr, sain-et-naturel.ouest-france.fr, déclenchait le message d’alerte de l’extension que Next a développée afin d’alerter ses utilisateurs lorsqu’ils consultent un site dont les articles « semblent avoir été (en tout ou partie) générés par IA » (GenAI). Nous en avons identifié, à ce jour, plus de 8 500 (rien qu’en français).
Dans son thread, il s’étonnait en outre de découvrir que certains des articles de ce site, à la ligne éditoriale un peu fourre-tout (il y est tout autant question de nature et d’écologie que de psychologie ou de « bien-être », avec une section dédiée à des tests de personnalité ou de QI, défis, énigmes et casse-têtes logiques), figurent dans la rubrique Environnement d’Ouest-France, comme s’il s’agissait d’articles signés par l’un de ses journalistes, ce qui n’est pas le cas.
Il émettait également l’hypothèse que ce recours à l’IA pourrait artificiellement gonfler les statistiques de trafic du groupe de presse. Ce dernier figure en effet en tête du classement des sites grand public et des groupes web de l’Alliance pour les chiffres de la presse et des médias (ACPM), en termes de visites totales.
Sain et Naturel avait par ailleurs ajouté une discrète mention en bas de ses articles, indiquant que « Ce texte a pu être partiellement rédigé avec l’aide d’une IA », ce qui n’était pas non plus le cas jusque-là. Cette mention, constatée par nos soins et attestée par la mémoire de Google, n’est toutefois plus affichée le 19 novembre, date de publication de cet article.
Capture d’écran Google, datée du 19 novembre 2025
« Fasciné par toutes les méthodes d’investigation, vérifiables et reproductibles »
Le responsable du site, Cyril Renault, se présente comme « fasciné par toutes les méthodes d’investigation, vérifiables et reproductibles ayant pour but de produire des connaissances ». Ses articles, publiés dans les rubriques Nature et Écologie de Sain et Naturel, font d’autant plus bonne figure qu’il s’agit de traductions en français de publications anglo-saxonnes de vulgarisation scientifique.
Ses rubriques Psychologie et Bien-être sont quant à elles truffées d’articles « feel good », non sourcés pour ceux que nous avons consultés, mais eux aussi illustrés d’images générées par IA.
Illustration GenAI publiée sur sain-et-naturel.ouest-france.fr
La majeure partie des membres de la petite dizaine des auteurs de Sain et naturel n’y ont plus rien publié depuis des années. Mais plusieurs d’entre eux ont, a contrario, brusquement recommencé à y signer des articles après l’apparition des premières IA génératives, fin 2022.
Il reste 73% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La fuite évitée du carnet d'adresse du monde entier
Des chercheurs en sécurité autrichiens ont identifié et pu exploiter une faille de sécurité dans WhatsApp leur permettant de récupérer des informations personnelles liées à 3,5 milliards de numéros via l’API XMPP de l’application. Informée de la possibilité d’une faille en septembre 2024, l’entreprise a mis plus d’un an à leur répondre et à y remédier.
Quand on ajoute un contact dans WhatsApp, on se rend compte rapidement que l’application permet, avec juste le numéro de téléphone, de connaitre le nom de la personne liée ainsi que sa photo de profil. Jusque là, rien de nouveau même si ça pose des questions de confidentialité des données. Mais Gabriel K. Gegenhuber, chercheur en sécurité à l’université de Vienne, et ses collègues se sont aperçus qu’il était possible d’automatiser massivement cette récupération d’information jusqu’à obtenir une base de données de plus de 3,5 milliards de profils avec au moins le nom associé au numéro.
56,7 % de ces comptes avaient des photos de profils associées et les chercheurs ont donc pu les récupérer. De la même façon, ils ont pu connaître le « statut » de 29,3 % des utilisateurs qui l’avaient rempli et savoir que 9 % étaient des profils « business ». Leur accès leur a permis de constater que 8,8 % des profils WhatsApp utilisaient le mode « compagnon » qui permet d’utiliser l’application sur plusieurs appareils. Enfin, les chercheurs soulignent qu’ils ont pu récupérer des informations d’utilisateurs situés en Birmanie, en Chine et en Corée du Nord, « où WhatsApp est officiellement interdit et où les utilisateurs s’exposent à de lourdes sanctions s’ils l’utilisent ».
WhatsApp a échappé à la « plus grande fuite de données de l’histoire »
Dans leur article (mis en ligne sur GitHub et accepté à la conférence scientifique Network and Distributed System Security, ou NDSS, qui se déroulera en février 2026), les chercheurs affichent d’emblée qu’avec ces 3,5 milliards de comptes actifs concernés, leur découverte aurait été « la plus grande fuite de données de l’histoire, si elle n’avait pas été collectée dans le cadre d’une étude menée de manière responsable ».
Il reste 81% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Anthropic, Microsoft et NVIDIA ont annoncé ce 18 novembre un nouvel accord tripartite d’investissements croisés, avec différents engagements.
Les investissements circulaires dans le monde de l’intelligence artificielle générative continuent de plus belle, avec comme acteur permanent NVIDIA et ses GPU dont la tech ne se passe décidément plus. Les deux nouveaux partenaires sont cette fois Anthropic et Microsoft, avec des engagements sur l’utilisation de services, la fourniture de capacités de calcul et ainsi de suite.
L’accord, officialisé le 18 novembre, débloque de nombreuses possibilités pour Anthropic et Microsoft. Il débute par un investissement de 15 milliards de dollars dans Anthropic, NVIDIA injectant 10 milliards et Microsoft les 5 milliards restants.
En contrepartie, Anthropic s’engage à acheter des services cloud à Microsoft (via Azure) à hauteur de 30 milliards d’euros. Sans surprise, l’accord vise à fournir les capacités de calcul nécessaires au développement des prochains modèles Claude d’Anthropic. La startup indique d’ailleurs qu’elle accèdera ainsi à « une capacité de calcul supplémentaire jusqu’à un gigawatt ». On ne sait pas grand-chose de plus, sinon que cette capacité passera par des systèmes Grace Blackwell et Vera Rubin, comme chez pratiquement tous les concurrents.
Dans un billet, Anthropic indique également avoir établi « pour la première fois » un partenariat technologique avec NVIDIA. Les deux entreprises vont collaborer « sur la conception et l’ingénierie, dans le but d’optimiser les modèles Anthropic pour les meilleures performances, efficacité et TCO [coût total de possession, ndlr] possibles, et d’optimiser les futures architectures NVIDIA pour les charges de travail Anthropic ».
Même le PDG de NVIDIA, Jensen Huang, semble extatique dans la vidéo de l’annonce : « C’est un rêve devenu réalité pour nous. Vous savez, nous admirons le travail d’Anthropic et Dario [Amodei, CEO d’Anthropic, ndlr] depuis longtemps, et c’est la première fois que nous allons nous associer profondément à Anthropic pour accélérer Claude ».
Les modèles Claude débarquent en force chez Microsoft
Les liens entre Anthropic et Microsoft se renforcent aussi nettement. Les modèles Claude Sonnet 4.5, Sonnet 4.1 et Haiku 4.5 déboulent dans presque tous les produits Microsoft, et pas uniquement à destination des développeurs. On les retrouve ainsi dans Microsoft Foundry et dans toutes les déclinaisons de la gamme Copilot, par exemple GitHub et Microsoft 365. Pour la clientèle, cela signifie donc la possibilité d’utiliser les modèles Claude plutôt que GPT.
En dépit de cette annonce importante, Anthropic précise en fin de billet qu’Amazon reste son « principal fournisseur cloud et partenaire de formation ».
Si les investissements circulaires sont nombreux depuis plusieurs semaines, avec toujours NVIDIA au centre de la toile (même si AMD commence à se manifester un peu plus), on observe désormais une volonté de réduire la dépendance à OpenAI et une renégociation des exclusivités, comme dans le cas d’OpenAI avec Microsoft. L’accord avec Anthropic était attendu, car il s’agissait d’une conséquence évidente à l’indépendance d’OpenAI. Une approche multi-modèles qui assure de ne pas mettre tous ses œufs dans le même panier, même si les milliards de dollars investis concernent toujours la même petite poignée de sociétés.
Pour OpenAI, cela signifie également qu’Anthropic est confirmé dans sa position de concurrent direct, même si le lancement de Gemini 3 Pro pourrait rebattre les cartes. Avec 800 millions d’utilisateurs, ChatGPT reste cependant en tête. En attendant, les modèles Claude sont maintenant disponibles chez les trois grands fournisseurs de solutions cloud : AWS, Microsoft Azure et Google Cloud Platform.
Orange prépare un Livebox Store afin de proposer à ses clients des API maison, mais aussi pour permettre à des partenaires d’en publier. Une démonstration avec EDF R&D est présentée pour suivre en direct sa consommation électrique.
Pendant trois jours, Orange organise ses OpenTech 2025, l’occasion pour les équipes du fournisseur d’accès à Internet de présenter ses nouveautés. Nous étions cette année encore sur place. Une des démonstrations tournait sur Prpl OS : un Store d’API pour la Livebox.
Prpl OS se fait encore et toujours attendre
Prpl est un système d’exploitation pour les box Internet développé par une fondation regroupant des opérateurs du monde entier. On y retrouve notamment Orange, Verizon, AT&T, Vodafone ainsi que d’autres entreprises comme Qualcomm et AWS. Cela fait plus d’un an qu’Orange parle de Prpl, avec déjà des démonstrations lors du salon de l’année dernière.
Il reste 89% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Google a finalement dégainé sa nouvelle famille de LLM, dont le représentant star est Gemini 3 Pro. L’entreprise ne manque pas d’arguments pour propulser son modèle sous les projecteurs. Présenté comme un anti-ChatGPT, Gemini 3 Pro est déjà disponible (presque) partout.
La guerre entre les LLM repart de plus belle avec la nouvelle incarnation de Gemini chez Google. Cette troisième mouture, comme on peut s’y attendre, prend la tête dans tous les benchmarks, avec parfois des marges significatives, en particulier face à GPT-5.1.
Google présente ainsi Gemini 3 Pro comme « une nouvelle étape pour l’intelligence artificielle » et « un autre grand pas vers l’AGI », avec des résultats plus visuels, plus directs et beaucoup moins flatteurs. « Ses réponses sont intelligentes, concises et directes, troquant clichés et flatteries contre une véritable intuition — vous disant ce que vous avez besoin d’entendre, pas seulement ce que vous voulez entendre », déclare Google dans son billet d’annonce.
Google prend la tête du peloton
Gemini 3 Pro affiche des performances d’autant plus intéressantes qu’il se retrouve premier sur nombre de tests face à GPT-5.1 et Claude Sonnet 4.5, et bien sûr face à Gemini 2.5 Pro, largement dépassé par son petit frère.
Google met particulièrement en avant certains résultats car l’écart avec les autres est majeur. Sur Humanity’s Last Exam, qui teste le « raisonnement académique », Gemini 3 Pro affiche un score de 37,5 % sans outils, et de 45,8 % avec la recherche ou l’exécution de code. Des scores très supérieurs à ceux de GPT-5.1 (26,5 %) et surtout de Claude Sonnet 4.5 (13,7 %). Sur ARC-AGI-2, Gemini 3 Pro grimpe à 31,1 %, loin devant GPT-5.1 (17,6 %) et Claude Sonnet 4.5 (13,6 %). Le nouveau LLM affiche également un score de 1 501 points sur LMArena.
La tarification de Gemini 3 Pro est dans la moyenne, avec 2 dollars par million de jetons en entrée et 12 dollars par million de jetons en sortie, mais uniquement pour les requêtes ne dépassant pas 200 000 jetons via l’API Gemini dans Google AI Studio et Vertex AI. Pour les contextes dépassant 200 000 tokens, la tarification passe à 4 dollars en entrée et 18 dollars en sortie par million de jetons.
Google marque également sa différence avec une disponibilité immédiate. Tous les produits intégrant Gemini sont passés hier soir de la version 2.5 Pro à la 3 Pro. Seule exception, les résumés IA dans les résultats de recherche, qui ne seront générés que pour les requêtes « les plus complexes ». Pour le reste, que ce soit dans l’application ou ailleurs, c’est bien le dernier LLM qui est présent, en deux versions.
Deux variantes et des capacités réservées aux comptes payants
Comme chez presque tous les concurrents, Gemini 3 Pro est en effet proposé en version « Rapide » et « Raisonnement ». On s’en doute, le premier donne des résultats plus vite, tandis que le second prend davantage le temps de la « réflexion », augmentant la précision au détriment de la rapidité. Dans le tableau des performances donné par Google, c’est le modèle Thinking qui affiche bien sûr les meilleurs résultats, puisque le modèle contrôle ses réponses au fur et à mesure, dans une démarche devenue typique de raisonnement.
Le modèle Thinking dispose en outre d’une fonction dite de « raisonnement auto-correctif » : il planifie, critique et corrige ses propres réponses avant de les afficher. Selon Google, cette méthode réduit considérablement les hallucinations sur les tâches complexes comme les mathématiques, le code et la logique. L’entreprise vante également sa « multimodalité native fusionnée », ses modèles traitant le texte, l’audio et la vidéo de la même manière, ce qui garantit selon Google une très faible latence dans les conversations vocales notamment.
Crédits : Google
Les deux versions du modèle sont disponibles partout, y compris pour les comptes gratuits. La différence se jouera – comme toujours – sur le nombre de requêtes, le compte gratuit étant rapidement épuisé en Raisonnement, tandis que les formules payantes ont des paliers plus élevés.
En mode raisonnement, les abonnés payants disposent aussi de plusieurs nouveaux modes expérimentaux d’affichage des résultats. Par exemple, le Visual Layout affiche les résultats sous forme de magazine incluant de nombreuses images, que l’on peut faire défiler. Autre possibilité, la Dynamic View, qui utilise les capacités du modèle en développement pour créer des interfaces personnalisées, par exemple une application web pour explorer la vie et l’œuvre d’un(e) artiste.
Google ajoute que Gemini 3 Pro est le premier représentant de la nouvelle famille. Des versions plus réduites arriveront après, mais l’entreprise ne donne aucun calendrier. Ajoutons que Gemini 3 Pro, comme la version 2.5 avant lui, est disponible sous forme de préversion. Là encore, pas d’information sur l’arrivée de la version finale. Dans le cas de Gemini 2.5, il s’était écoulé plusieurs mois.
Google veut frapper fort chez les développeurs
Si Gemini 3 Pro se présente avant tout comme un ChatGPT, notamment avec un ton présenté comme très neutre, Google veut clairement faire tomber Claude de son trône de LLM star chez les développeurs.
Sundar Pichai a ainsi indiqué que le nouveau modèle représentait une nouvelle étape majeure dans le développement agentique. Et pour marquer le coup, la firme lance Antigravity, sa propre solution de développement assisté par IA (vibe coding). Le nouvel outil rassemble sous un même toit une fenêtre de type chatbot, une interface en ligne de commande (bash) et une zone navigateur qui affiche les opérations en cours et l’impact des modifications.
Comme d’autres solutions de type Warp ou Cursor 2.0, Antigravity est clairement un IDE (Integrated Development Environment, que Microsoft s’est amusé récemment à renommer Intelligent Development Environment pour son Visual Studio 2026). Google le présente comme un « centre de contrôle » permettant de surveiller les agents en train de travailler. Toutes les activités sont retransmises aux développeurs par des « Artefacts », des sous-tâches servant à renseigner sur ce qui est fait et devant faciliter la vérification.
Antigravity fonctionne par défaut avec Gemini 3 Pro, mais Google veut rendre son produit « agnostique ». Il prend ainsi en charge Claude Sonnet 4.5 et les agents GPT-OSS. L’entreprise affirme cependant que Gemini 3 Pro est aujourd’hui le meilleur modèle disponible pour le vibe coding.
Le nouveau IDE est disponible pour Windows, macOS et Linux.
Plus de 70 chercheurs et chercheuses européens ont signé une lettre ouverte adressée à la présidente de la Commission européenne pour lui demander de revenir sur ses propos prédisant que l’IA serait capable d’égaler le raisonnement humain l’an prochain. Ils lui reprochent de ne s’appuyer que sur des déclarations de marketing prononcées par des CEO d’entreprises d’IA.
« Nous, experts en intelligence artificielle et ses conséquences sociales, sommes profondément préoccupés par votre déclaration non scientifique et inexacte selon laquelle l’IA se rapproche du raisonnement humain », expliquent plusieurs dizaines de chercheuses et chercheurs à la présidente de la Commission européenne, Ursula von der Leyen, dans une lettre ouverte [PDF].
Ils réagissent aux propos que la dirigeante a tenus en mai dernier lors de la Conférence annuelle sur le budget de l’UE 2025. En effet, Ursula von der Leyen affirmait, entre autres que, « quand le budget actuel a été négocié, nous pensions que l’IA ne se rapprocherait du raisonnement humain que vers 2050. Aujourd’hui, nous nous attendons à ce que cela se produise déjà l’année prochaine ».
Pas de sources précises de la Commission
Le chercheur Kris Shrishak, qui travaille au sein de l’ONG irlandaise Irish Council for Civil Liberties, avait questionné début juillet la Commission à propos de documents sources sur lesquelles se basait sa présidente pour affirmer une telle chose.
Les services d’Ursula von der Leyen lui ont répondu [PDF] en octobre « que la Commission ne détient aucun document qui correspondrait à la description donnée dans votre demande », tout en affirmant que cette déclaration s’appuyait « sur les connaissances professionnelles des services de la Commission et sur l’analyse documentaire de la littérature scientifique ».
Mais en référence, ils citaient trois responsables d’entreprises d’IA : Dario Amodei (CEO d’Anthropic), Jensen Huang (CEO de NVIDIA), Sam Altman (CEO d’OpenAI). Les services de la Commission ajoutaient aussi le billet de blog du chercheur franco-marocain Yoshua Bengio publié en octobre 2024.
« Affirmations marketing motivées par l’appât du gain »
Pour les chercheurs, « il s’agit là d’affirmations marketing motivées par l’appât du gain et l’idéologie plutôt que par des preuves empiriques et formelles. En bref, les déclarations de ces CEO du secteur technologique concernant la « superintelligence » et l’ « AGI » sont manifestement liées à leurs impératifs financiers et non à une science rigoureuse ».
Selon eux, une telle reprise par la présidente de la Commission saperait « la crédibilité de l’Europe en tant que source fiable et digne de confiance de connaissances scientifiques. Cela est particulièrement vrai dans le contexte actuel d’une importante bulle spéculative alimentée par un engouement injustifié pour l’IA ».
Kris Shrishak a enfoncé le clou dans un article publié sur Tech avec la chercheuse Abeba Birhane, en affirmant que « ces spéculations ne sont pas que des mots ». Ainsi, ils expliquent que « le plan « Continent IA » de la Commission intègre ces spéculations idéologiques dans ses politiques. Dans ce plan, la Commission affirme que « la prochaine génération de modèles d’IA de pointe devrait permettre une avancée considérable en matière de capacités, vers l’intelligence artificielle générale » ». Et ils assènent que « la Commission européenne a accepté sans réserve l’utilité de l’IA, en particulier de l’IA générative ».