Vue lecture

☕️ La « Defense Tech » explose, et Boston Dynamics a vendu 2 000 unités de son robot Spot

Cinq ans après son lancement commercial, environ 2 000 unités de Spot, le robot de Boston Dynamics, sont actuellement en service dans le monde entier, rapporte Bloomberg.

Si la plupart des clients de l’entreprise sont encore des clients industriels, notamment des fabricants et fournisseurs de services publics, l’intérêt des forces de l’ordre a fortement augmenté au cours des deux dernières années, et il serait notamment utilisé par le ministère néerlandais de la Défense, la police nationale italienne et par plus de 60 équipes de déminage et d’interventions spéciales aux États-Unis et au Canada.

De la taille d’un berger allemand, Spot pèse 34 kilos et est utilisé par les forces de l’ordre pour gérer les situations de confrontation armée, les prises d’otages et les incidents impliquant des matières dangereuses, autant de situations où l’intervention d’un être humain ou d’un chien réel pourrait mettre leur vie en danger.

Le robot, dont le prix de départ est d’environ 100 000 dollars, peut fonctionner de manière autonome dans de nombreux cas (vérifications de maintenance, détection de fuites de gaz, inspection d’équipements défectueux), mais dépend toujours d’opérateurs humains pour la prise de décision, rappelle Bloomberg :

« À l’aide d’une tablette qui ressemble à une manette de jeu vidéo, l’opérateur guide la machine tout en surveillant les images vidéo en direct transmises par son système de caméras embarquées. Des capteurs supplémentaires intégrés assurent la navigation et la cartographie. Dans les situations à haut risque, les agents peuvent également visionner les images en direct sur des écrans plus grands situés à proximité. »

Spot peut également se rendre là où beaucoup d’autres drones ne peuvent pas aller, notamment à l’intérieur de bâtiments, et l’autonomie de sa batterie lui permet d’opérer pendant environ une heure et demie, contre 20 à 30 minutes pour les drones, relève Bloomberg.

L’ICE, le service américain de contrôle de l’immigration et des douanes, a de son côté récemment dépensé environ 78 000 dollars pour acquérir un robot du fabricant canadien Icor Technology Inc. capable d’effectuer des tâches similaires à celles de Spot, et doté de bombes fumigènes.

Bloomberg relève par ailleurs que, d’après les données de Pitchbook, les investissements en capital-risque dans les start-ups spécialisées dans les technologies de défense (« Defense Tech ») ont atteint 28,4 milliards de dollars, ouvrant la voie à un nouveau record annuel, en hausse de 200 % en glissement annuel :

« Alors que les marchés du capital-risque dans leur ensemble se refroidissent, les technologies de défense sont en pleine effervescence, attirant des capitaux records, des valorisations en hausse et une acceptation croissante par le grand public. »

Les grands gagnants seraient les start-ups qui développent des systèmes autonomes tels que des véhicules terrestres sans pilote, des plateformes informatiques avancées et des technologies antidrones.

  •  

Ubisoft rassure et se prépare à finaliser sa réorganisation avec Tencent

Mr. Wolff
Ubisoft rassure et se prépare à finaliser sa réorganisation avec Tencent

Ubisoft a finalement publié vendredi les résultats financiers de son premier semestre, avec huit jours de retard. L’éditeur français fait état de net bookings en hausse et confirme ses objectifs annuels. Il confirme par ailleurs la mise en œuvre imminente de l’accord avec Tencent, qui va conduire au transfert de trois des licences phare du groupe vers une filiale dédiée.

Prise de contrôle par Tencent, OPA hostile ou simple erreur comptable ? Les rumeurs vont bon train depuis qu’Ubisoft a soudainement annoncé, le 13 novembre dernier, le report de la publication de ses résultats financiers pour le premier semestre 2025 et la suspension de la cotation de son action en bourse. C’est finalement l’explication la moins romanesque qui s’impose. Vendredi matin, Ubisoft a en effet invoqué un différend comptable pour justifier ce délai de la publication.

D’après les explications données par Yves Guillemot, PDG du groupe, dans une conférence aux investisseurs, les nouveaux auditeurs nommés par Ubisoft en juillet dernier auraient décelé un problème dans la façon dont l’éditeur a comptabilisé les revenus issus de certains partenariats commerciaux. Il aurait donc fallu retraiter l’ensemble des chiffres du premier semestre, qui se révèlent par ailleurs supérieurs aux prévisions.

Des ventes supérieures aux attentes

Ubisoft a en effet fait état (PDF) d’un volume de net bookings (l’indicateur qui tient lieu de chiffre d’affaires hors éléments différés dans l’industrie du jeu vidéo) de 772,4 millions d’euros sur le semestre, en hausse de 20,3 % sur un an. La performance est particulièrement marquée sur le deuxième trimestre au cours duquel l’éditeur enregistre 490,8 millions d’euros, contre 450 initialement prévus.

« La surperformance a été portée par des partenariats plus importants qu’anticipés et soutenue par un back-catalogue robuste, tous deux illustrant la force des marques du Groupe », avance Ubisoft, qui profite de l’occasion pour confirmer ses objectifs annuels, et rappeler ses sorties encore à venir sur la deuxième moitié de son exercice, dont la prochaine extension d’Avatar Frontiers of Pandora, le remake de Prince of Persia : the sands of time ou de nouvelles déclinaisons mobiles de The Division et Rainbow Six. Ubisoft se réjouit par ailleurs de l’accueil critique positif réservé à Anno 117 : Pax Romana, en dépit d’une petite controverse liée à des visuels intempestifs générés par IA.

L’accueil des marchés s’est révélé positif : l’action Ubisoft a ouvert en hausse de plus de 8 % vendredi matin.

Mise en œuvre imminente de l’accord avec Tencent

Confronté au poids de la dette et après plusieurs exercices inférieurs aux attentes, Ubisoft doit cependant encore mener l’important chantier de restructuration annoncé en début d’année. Outre un plan continu de réduction des coûts, qui « progresse conformément au plan », ce dernier prévoit pour mémoire une réorganisation de grande ampleur, avec le transfert d’au moins trois des licences phares du groupe (Assassin’s Creed, Far Cry, et Tom Clancy’s Rainbow Six) à Vantage Studio, une filiale qui comptera Tencent comme actionnaire minoritaire, en échange d’un apport d’argent frais à hauteur de 1,16 milliard d’euros.

« La finalisation de notre transaction stratégique avec Tencent est désormais imminente, toutes les conditions suspensives ayant été satisfaites », a déclaré vendredi matin Yves Guillemot, selon qui Vantage Studio disposera d’une équipe de direction dédiée, avec la mission de développer aussi loin que possible les trois licences concernées sur tous les écrans.

Ubisoft va mener en parallèle une réorganisation des équipes qui restent sous son contrôle direct, selon un modèle dit de « Creative Houses ». « Nous aurons finalisé la conception de cette nouvelle organisation d’ici la fin de l’année autour d’entités autonomes, efficaces, focalisées et responsables, chacune dotée de sa propre direction, de sa vision créative et de sa feuille de route stratégique », décrit encore le PDG, selon qui les détails complets de ce nouveau mode de fonctionnement seront dévoilés en janvier.

Les efforts de réduction de coût engagés par le groupe se ressentent déjà au niveau des effectifs globaux, qui « s’élevaient à 17 097 fin septembre 2025, soit une baisse d’environ 1 500 employés sur les 12 derniers mois et d’environ 700 depuis la fin mars 2025 ». En octobre, un programme de départs volontaires ciblé ainsi qu’une proposition de projet de restructuration ont été mis en place dans les studios du Nord de l’Europe, indique par ailleurs l’éditeur.

L’IA générative aussi importante que la 3D en son temps

Yves Guillemot a également évoqué vendredi la tendance, sans doute difficile à éviter, de l’IA générative, sur laquelle Ubisoft affiche des ambitions depuis début 2023. « C’est un tournant aussi important pour l’industrie du jeu vidéo que le passage à la 3D », estime le PDG. Il a rajouté que le groupe aurait des choses à montrer en la matière d’ici la fin de l’année, notamment autour de « Neo NPC », le moteur d’IA générative qui doit permettre de donner naissance à des PNJ (les personnages non joueurs, c’est-à-dire gérés par le jeu, traduits par non playable characters en anglais, d’où le NPC) capables de dialoguer de façon nettement plus avancée en langage naturel.

  •  

Microsoft annonce son CPU Cobalt 200 et la nouvelle génération d’Azure Boost

Toujours plus bleu
Microsoft annonce son CPU Cobalt 200 et la nouvelle génération d’Azure Boost

Microsoft a développé et utilise déjà une seconde génération de processeurs maison basés sur Arm : les Cobalt 200. Elle promet une hausse des performances et de la sécurité. Le fabricant présente aussi la nouvelle génération d’Azure Boost, avec toujours plus de bande passante.

La première génération de processeur maison, Cobalt 100, a été annoncée durant la conférence Ignite 2023 de Microsoft. Cette année, c’est au tour de la seconde génération de débarquer avec le Cobalt 200 qui, selon Microsoft, est 50 % plus rapide que son prédécesseur.

Les machines virtuelles basées sur Cobalt 100 sont disponibles pour les clients depuis octobre 2024. « Les développeurs de Snowflake, Databricks, Elastic, Adobe et de notre propre Microsoft Teams profitent déjà d’Azure Cobalt en production, constatant des performances jusqu’à 45 % supérieures, ce qui se traduit par une réduction de 35 % du nombre de cœurs de calcul et de machines virtuelles nécessaires, ce qui permet de réaliser d’importantes économies », affirme Microsoft. Les exemples mis en avant sont évidemment à son avantage.

L’annonce du jour n’est pas qu’un « paper launch » affirme l’entreprise : « Nos premiers serveurs en production avec des CPU Cobalt 200 sont désormais opérationnels dans nos datacenters, avec un déploiement plus large et une disponibilité client prévue en 2026 ». Quelques détails techniques sont donnés.

Des benchmarks et 350 000 jumeaux numériques

Pour développer sa puce, Microsoft explique avoir été confrontée à un problème : « les benchmarks traditionnels ne représentent pas la diversité des charges de travail clients ». Ils ont tendance à s’intéresser davantage aux cœurs du CPU, laissant de côté « le comportement des applications cloud à grande échelle lorsqu’elles utilisent des ressources réseau et de stockage ». Microsoft a donc développé ses propres benchmarks (il y a environ 140 tests).

À l’aide de jumeaux numériques, le constructeur a fait varier le nombre de cœurs, la taille du cache, la vitesse de la mémoire, la consommation du SoC, etc. Microsoft serait ainsi arrivée à pas moins de 350 000 « candidats » pour son processeur Cobalt 200.

132 cœurs Arm CSS V3, 588 Mo de cache L2 + L3

Dans le CPU, on retrouve des cœurs Arm Neoverse Compute Subsystems V3 (CSS V3) annoncés en février 2024. Les variantes Compute Subsystems avaient été inaugurées avec le cœur N2. C’est une configuration dans laquelle Arm ne s’occupe que de la partie CPU et laisse à ses partenaires la possibilité de personnaliser les puces avec des accélérateurs maison, la gestion de la mémoire, les entrées/sorties, l’alimentation, etc.

D’un point de vue technique, « chaque SoC Cobalt 200 comprend 132 cœurs [128 pour Cobalt 100, ndlr] avec 3 Mo de cache L2 par cœur et 192 Mo de cache système L3 ». Dans la pratique, il s’agit d’une configuration avec deux chiplets, chacun disposant de 66 cœurs, de six canaux pour la mémoire et d’accélérateurs pour la cryptographie.

Ajustement des tensions et des fréquences par cœur

Microsoft précise que son contrôleur mémoire est personnalisé et que « le chiffrement est activé par défaut, avec un impact négligeable sur les performances ». La Confidential Compute Architecture (CCA) d’Arm est de la partie afin de proposer une « isolation matérielle de la mémoire de la machine virtuelle par rapport à l’hyperviseur et au système d’exploitation hôte ».

Cobalt intègre aussi un module Azure Integrated HSM (Hardware Security Module), qui « fonctionne avec Azure Key Vault pour une gestion simplifiée des clés de chiffrement ». Le tout est certifié FIPS (Federal Information Processing Standard Publication) 140 - 3 niveau 3.

Microsoft affirme avoir particulièrement soigné la consommation électrique : « L’une des innovations de nos processeurs Azure Cobalt est le Dynamic Voltage and Frequency Scaling (DVFS) par cœur ». La puce est gravée avec le procédé 3 nm de dernière génération de TSCM.

Coup de Boost sur Azure

Microsoft profitait aussi de sa conférence pour présenter une nouvelle version d’Azure Boost, un système « qui décharge les processus de virtualisation de serveur traditionnellement effectués par l’hyperviseur et le système d’exploitation hôte sur des logiciels et du matériel conçus à ces fins ».

Les performances annoncées peuvent atteindre jusqu’à 1 million d’IOPS, un débit de 20 Go/s pour le stockage et de 400 Gb/s pour le réseau. Le nouveau Azure Boost prend aussi en charge le RDMA (Remote Direct Memory Access) pour un accès direct à la mémoire.

Cette nouvelle génération sera disponible dans les prochaines VM de la série v7 avec des processeurs Intel Xeon de la génération Granite Rapids. Microsoft précise que ses futures machines virtuelles DSv7 et ESv7 pourront gérer jusqu’à 372 vCPU, tandis que les ESv7 pourront prendre en charge jusqu’à 2,8 To de mémoire.

  •  

Google rend compatible Quick Share avec AirDrop d’Apple, en commençant par les Pixel 10

For the greater good
Google rend compatible Quick Share avec AirDrop d’Apple, en commençant par les Pixel 10

La fonction Quick Share d’Android est désormais compatible avec AirDrop d’Apple, sur les Pixel 10 pour commencer. Il ne s’agit pas d’une collaboration officielle, posant la question de la réaction d’Apple.

Voilà une nouvelle que l’on n’attendait pas : la compatibilité d’Android avec la fonction AirDrop d’Apple. Celle-ci permet depuis bien longtemps l’échange simplifié de données entre appareils de la marque à la pomme. Google a proposé ensuite sa fonction équivalente Quick Share, mais les deux fonctions n’ont jamais communiqué.

Google vient donc d’annoncer que sa fonction Quick Share était désormais compatible avec AirDrop, permettant la même communication simplifiée entre les appareils Android et ceux d’Apple. Google n’évoque pour l’instant que les iPhone, mais AirDrop étant disponible sur tous les appareils d’Apple, la communication devrait également se faire.

La circulation des données peut se faire dans les deux sens, il suffit simplement que l’appareil Android soit paramétré en « Tout le monde pendant 10 min » pour le partage. La fonction est pour l’instant limitée à ce réglage, le mode « Contacts uniquement » n’étant pas pris en charge.

En revanche, seuls les récents Pixel 10 ont pour l’instant accès à la fonction. Google ajoute que la fonction « commence » avec cette gamme et qu’elle a « hâte de l’étendre à davantage d’appareils Android ».

De la rétro-ingénierie et du Rust

Les deux entreprises auraient-elles collaboré à cette ouverture ? Non, Google l’a confirmé auprès de The Verge : « Nous avons réalisé cela par notre propre mise en œuvre. Elle a été minutieusement vérifiée par nos propres équipes de confidentialité et de sécurité, et nous avons également fait appel à une société de sécurité tierce pour prendre la solution en périphérie ». Il s’agirait donc de rétro-ingénierie. Dans son billet, Google compare la manœuvre au RCS, pour rappeler qu’elle a fini par faire entendre raison à Apple sur le sujet.

Google met un accent particulier sur la sécurité. Dans un billet de blog dédié, Google indique : « Cette fonction n’utilise pas de solution de contournement. La connexion est directe et peer-to-peer, ce qui signifie que vos données ne sont jamais acheminées via un serveur, que le contenu partagé n’est jamais enregistré, et qu’aucune donnée supplémentaire n’est partagée ». Google assure que des experts indépendants ont été mandatés pour tester la sécurité de sa solution. Cette dernière a en outre été développée en Rust.

Enfin, l’entreprise précise que cette fonction n’est qu’une « première étape vers un partage multiplateforme fluide » et qu’elle « accueillera avec plaisir l’opportunité de travailler avec Apple pour activer le mode « Contacts uniquement » à l’avenir ». Le message est clair : la balle est dans le camp d’Apple.

  •  

☕️ Matter 1.5 prend en charge de nouveaux objets connectés : caméras, capteurs, interrupteurs…

Matter est un protocole pour objets connectés développé par la Connectivity Standards Alliance (regroupant des centaines d’entreprises, dont Amazon, Apple et Google), dont la première version a été mise en ligne il y a trois ans.

Matter porte aussi la promesse (plutôt l’espoir) de regrouper d’autres protocoles et de servir de pont entre tous les équipements compatibles. Le protocole avance… doucement. Au début de l’année il débarquait dans Google Home.

Le protocole vient de passer en version 1.5 avec la prise en charge des caméras pour la « diffusion vidéo et audio en direct grâce à la technologie WebRTC, permettant une communication bidirectionnelle, ainsi qu’un accès local et distant ». D’autres fonctionnalités sont prises en charge comme les flux vidéos multiples, les mouvements des caméras, les zones de détection, l’enregistrement local ou en ligne.

Les interrupteurs pour stores, rideaux, auvents, portails et portes de garage sont également supportés : « Grâce à une conception simplifiée et modulaire, les fabricants peuvent représenter différents types de mouvements (par exemple, glissement, rotation, ouverture) et configurations (par exemple, panneaux simples ou doubles, mécanismes imbriqués) en utilisant des blocs ».

Matter 1.5 prend aussi en charge les capteurs de sol pour les jardins et les plantes (humidité et température) pour automatiser, par exemple, l’arrosage.

Enfin, du côté du courant électrique, le protocole permet d’échanger des informations sur la grille tarifaire, le prix instantané et l’intensité carbone du réseau. Sur la recharge de voitures électriques. Matter permet de certifier « l’état de charge et la facturation bidirectionnelle ».

Enfin, « Matter 1.5 ajoute un support complet pour l’exploitation via le transport TCP, permettant une transmission plus efficace et fiable de grands ensembles de données ». De la documentation pour les développeurs se trouve par ici.

  •  

☕️ Amazon Store est bien une VLOP et donc soumis à des obligations

Amazon avait demandé à la Cour de Justice de l’Union européenne « l’annulation de la décision par laquelle la Commission avait désigné cette plateforme comme une « très grande plateforme en ligne » [ou VLOP, ndlr] au titre du DSA ». Le Tribunal de l’Union européenne rejette le recours.

La plateforme d’e-commerce contestait « la légalité de la disposition du règlement qui détermine les plateformes en ligne, dont les places de marché, qui doivent être désignées comme des grandes plateformes en ligne et qui soumet ces dernières à des obligations spécifiques de transparence, de coopération et d’accès aux données ».

Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents
Flock pour Next

Selon Amazon, ces dispositions enfreignent « la liberté d’entreprise, le droit de propriété, le principe d’égalité devant la loi, la liberté d’expression et d’information, ainsi que le droit au respect de la vie privée et à la protection des informations confidentielles ».

Les motifs de rejet sont exposés dans ce communiqué. Dans son arrêt, la CJUE relève que que les obligations imposées par le DSA constituent bien une forme de contrainte ou d’ingérence dans certains de ces droits, mais estime que chacune d’entre elles répond de façon proportionnée à un objectif de prévention d’un risque ou de protection des consommateurs.

Amazon peut faire appel et compte bien utiliser ce droit, selon Euractiv : « En tant que place de marché en ligne, Amazon Store ne présente aucun risque systémique de ce type ; elle se contente de vendre des marchandises et ne diffuse ni n’amplifie aucune information, opinion ou point de vue », ajoute un porte-parole.

Zalando aussi avait contesté sa qualification de très grande plateforme. Début septembre, le même Tribunal confirmait que Zalando était bien une VLOP et donc soumise aux obligations. Zalando affirme à Euractiv avoir fait appel.

  •  

Souveraineté numérique : la France et l’Allemagne présentent un front commun

Les écrits restent
Souveraineté numérique : la France et l’Allemagne présentent un front commun

Le Sommet sur la souveraineté numérique européenne, qui s’est tenu à Berlin le 18 novembre, a été le théâtre de nombreuses annonces. La France et l’Allemagne semblent enfin s’aligner sur un lot de mesures et d’engagements, avec un changement marqué outre-Rhin pour une préférence européenne. Le Sommet a fait de la souveraineté numérique un axe majeur de développement, au moins sur le papier.

Elle était attendue : la rencontre franco-allemande à Berlin du 18 novembre a montré un moteur européen semblant de nouveau en phase. Car la France et l’Allemagne ont beau être voisines, elles ont chacune des conceptions très différentes sur le numérique, particulièrement sur la souveraineté.

Un fossé qui s’était notamment illustré dans la conception de la directive EUCS, qui devait grader les solutions cloud en matière de sécurité. Le niveau le plus élevé, High+ (basé sur SecNumCloud 3.2) avait disparu, sous pression notamment de l’Allemagne, pour supprimer les prérequis de protection contre l’extraterritorialité des lois étrangères. L’Allemagne est depuis longtemps un allié proche des États-Unis, avec qui elle a de nombreux accords commerciaux. L’European Sovereign Cloud d’Amazon, présenté en juin, va ainsi s’implanter chez nos voisins.

La France cependant, avec des offres comme celles de Bleu et S3ns, ou encore les contrats multiples décrochés par Microsoft dans le domaine de l’éducation, n’est pas nécessairement mieux placée. La stratégie nationale en matière de souveraineté a récemment été épinglée dans un rapport très direct de la Cour des comptes, faisant la liste de tous les errements français dans ce domaine et pointant un manque flagrant de cohésion.

Dans un contexte tendu entre guerre en Ukraine qui s’éternise, ondes de choc d’une Maison-Blanche reprise par Donald Trump et tensions croissantes avec la Chine, le Sommet était attendu.

Simplification, cohérence et souveraineté

Le sommet a réuni « plus de 900 décideurs, industriels, investisseurs, chercheurs et représentants de la société civile provenant des 27 États membres de l’Union européenne (UE) et des institutions européennes », a indiqué l’Élysée.


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

La Cour des comptes pousse l’État à continuer ses investissements dans l’IA

IA des sous pour l'IA
La Cour des comptes pousse l’État à continuer ses investissements dans l’IA

Dans un rapport, la Cour des comptes analyse la stratégie nationale pour l’intelligence artificielle en place depuis 2018. Elle incite l’État français à ne pas « baisser la garde » et au contraire à amplifier sa politique concernant la recherche. Elle l’exhorte aussi à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.

Tout en reconnaissant que « la prise de risque [en matière d’investissement] est élevée, la rentabilité des investissements inégale, de même que le rapport entre la valorisation de certaines entreprises de l’IA sur le marché et les revenus générés ou espérés, faisant craindre des effets de bulle qui pourraient conduire à des ajustements d’ampleur, y compris en Europe, dans les prochains mois », la Cour des comptes incite l’État à amplifier la stratégie nationale pour l’IA (SNIA).

La juridiction administrative a rendu son rapport [PDF] mercredi 19 novembre sur cette stratégie. Celui-ci analyse les deux premières phases (2018 - 2022 et 2022 - 2025).

Pour la troisième phase (2025 - 2030), elle affirme que pour « réussir le changement d’échelle qu’exige la révolution de l’intelligence artificielle », l’État doit :

  • « renforcer le pilotage interministériel de la politique publique de l’IA, avec en particulier la constitution d’un véritable secrétariat général à l’IA rattaché au Premier ministre ;
  • mieux intégrer les enjeux de soutenabilité des finances publiques et d’efficacité de la politique de l’IA ;
  • procéder à une évaluation approfondie des résultats des précédentes phases de la stratégie nationale et s’inspirer des meilleures pratiques à l’étranger ;
  • mieux s’articuler avec l’échelon européen ;
  • mieux mobiliser les territoires ;
  • redéfinir le partage des rôles avec le secteur privé ».

Elle incite l’État à ne pas « baisser la garde » et à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.

Même si la Cour des comptes considère que cette stratégie a « remporté de premiers succès », elle estime que ses deux premières phases « présentent des angles morts dans plusieurs domaines essentiels […] notamment dans des chantiers qui demandent d’impliquer un cercle large d’acteurs et de faire le lien avec d’autres politiques publiques ».

Une première phase trop axée sur la recherche pour la Cour

Dans la première phase de cette stratégie (2018 - 2022), la Cour souligne que l’État a investi 1,3 milliard d’euros (contre 1,5 milliard programmés) en ne couvrant qu’une partie des enjeux tout en la faisant reposer « sur une gouvernance complexe et un suivi budgétaire lacunaire ».

Elle reproche à l’exécutif de ne s’être concentré, dans cette phase, que sur la partie recherche, en oubliant la formation supérieure en IA, l’ouverture des données, l’accompagnement des secteurs économiques prioritaires fortement impactés par l’IA, et l’encadrement éthique de l’IA qui étaient tout autant cité dans le rapport de la mission confiée au mathématicien Cédric Villani rendu en mars 2018.

Elle reconnait « les succès du volet « recherche en IA », appréciés avec un recul supplémentaire de deux années ». Néanmoins, elle pointe « le recours par l’État à une succession d’appels à projets ou à manifestation d’intérêt, pour des financements ponctuels avec un horizon de vie limité », ce qui « présente le risque d’accroître la fragmentation au sein de la recherche, au détriment de la cohérence d’ensemble, de la création de masses critiques et de stratégies plus structurelles permettant la coordination, la complémentarité et la responsabilisation des acteurs dans la durée ». Elle regrette aussi que le volet « formation supérieure » n’ait pas été mis en œuvre.

« Dans les autres domaines couverts par la SNIA – la défense et la sécurité, la transformation de l’action publique et la diffusion de l’intelligence artificielle dans l’économie – les avancées ont été moins nettes », déplore-t-elle.

Pas assez de dépenses pour soutenir la demande des entreprises dans la seconde phase

Pour la deuxième phase, « au total, l’État aura programmé 1,1 Md€ sur la période 2023 - 2025, soit un niveau inférieur d’un tiers à ce qui avait été initialement annoncé, et la lenteur du démarrage de la plupart des dispositifs s’est traduite par un faible niveau de consommation des crédits (35 % au 30 juin 2025) », assène la Cour.

Mais elle souligne que « les premiers résultats de cette deuxième phase commencent à se dessiner dans plusieurs directions. Bien qu’il soit encore tôt pour en apprécier pleinement les effets, les initiatives prises pour renforcer la structuration et l’excellence de la recherche et de la formation supérieure en IA produisent de premiers résultats et la place de la France sur ce volet progresse ». Elle ajoute que les « efforts sur les infrastructures de calcul se sont poursuivis ».

La Cour reproche à l’exécutif d’avoir « très peu utilisé le levier de la commande publique pour favoriser l’adoption de l’IA dans la sphère publique ». Elle vise « en particulier » la Dinum (auditée en 2024) qui a, selon elle, « privilégié les développements internes avec le risque que les solutions proposées ne soient pas toujours performantes comparativement à l’offre disponible sur le marché, notamment chez les éditeurs logiciels français ».

Elle pousse aussi l’exécutif à dépenser plus sur le sujet de l’IA. « Plusieurs domaines non moins essentiels ont été laissés de côté », estime-t-elle. « L’enjeu de la massification et de l’accompagnement de la diffusion de l’intelligence artificielle au-delà du cercle des spécialistes – entreprises, administrations publiques, étudiants, citoyens – a jusqu’ici trop peu retenu l’attention, alors qu’il était au cœur des ambitions affichées par cette phase de la SNIA et que les années 2023 - 2025 étaient critiques en la matière », précise l’institution. « Ainsi, la priorité que constitue le soutien à la demande des entreprises en solutions d’IA n’a bénéficié que de dispositifs très modestes, et l’accélération et la massification escomptées de la diffusion de l’intelligence artificielle dans l’économie n’a pas eu lieu », ajoute-t-elle encore.

  •  

☕️ Référencement et marketing : Adobe veut s’offrir Semrush pour 1,9 milliard de dollars

Adobe a formulé mercredi une offre de rachat portant sur son compatriote Semrush, également coté à la bourse de New York, pour un montant de 1,9 milliard de dollars, soit une prime de près de 80 % par rapport au cours précédent l’annonce. Cette opération de croissance externe est présentée comme le prolongement stratégique des développements déjà réalisés par Adobe en direction de l’IA à des fins marketing.

Bien connu des spécialistes du SEO (Search Engine Optimization), Semrush édite pour mémoire une suite d’outils dédiés au référencement et à la visibilité des marques sur Internet, et c’est précisément la question de la visibilité des marques au sein des outils d’intelligence artificielle générative qui semble motiver l’opération. En analogie avec le SEO, un acronyme marketing a déjà émergé pour qualifier cette problématique : GEO, pour Generative Engine Optimization.

Logos d’Adobe et de Semrush – crédit Adobe

« La visibilité des marques est en pleine mutation grâce à l’IA générative, et celles qui ne saisissent pas cette nouvelle opportunité risquent de perdre en pertinence et en chiffre d’affaires, déclare Anil Chakravarthy, président de la division Expérience numérique d’Adobe, dans un communiqué. Avec Semrush, nous offrons aux marketeurs la possibilité d’exploiter la géolocalisation comme un nouveau canal de croissance, au même titre que le SEO, pour une visibilité accrue, un engagement client renforcé et des conversions optimisées au sein de l’écosystème. »

Semrush devrait logiquement s’interfacer avec les différents outils marketing d’Adobe, qu’il s’agisse de son système de gestion de contenus numériques (AEM), ou de sa nouvelle offre d’agents conversationnels Adobe Brand Concierge.

L’acquisition a déjà fait l’objet d’une validation de la part du conseil d’administration de Semrush. Adobe indique avoir ainsi déjà recueilli l’approbation de l’équivalent de 75 % des droits de vote combinés de l’actionnariat de sa cible.

Début novembre, lors de la présentation de ses résultats financiers pour le troisième trimestre, Semrush indiquait tabler, pour l’ensemble de son exercice 2025, sur un chiffre d’affaires annuel de l’ordre de 445 millions de dollars, en croissance de 18 % sur un an, principalement grâce à l’appétit de ses clients pour l’IA générative.

  •  

☕️ Rebecca Heineman, pionnière et championne de jeux vidéo, est morte à 62 ans

Championne de jeux vidéo, cofondatrice d’Interplay, cheville ouvrière de The Bard’s Tale 3: Thief of Fate, développeuse renommée, spécialiste du portage sur Mac et avocate de la cause transgenre dans une industrie essentiellement masculine, Rebecca Heineman s’est éteinte le 17 novembre dernier.

Elle avait été diagnostiquée deux mois plus tôt d’un adénocarcinome pulmonaire avancé, et documentait non sans humour son douloureux combat contre la maladie sur son compte Bluesky. « Je n’aurais jamais cru que ce vœu se réaliserait. C’est étrange de voir des éloges funèbres avant ma mort », postait-elle le 17 novembre. Quelques heures plus tard, Scott Miller, cofondateur d’Apogee et de 3DRealm, confirmait sa mort : « Une légende de l’industrie du jeu vidéo est décédée ».

Surnommée « Burger Becky », Rebecca Ann Heineman s’est illustrée en remportant à 16 ans ce qui est considéré comme la première compétition de jeux vidéo organisée sur le sol américain : en 1980, elle s’était imposée en effet comme la grande championne d’un concours organisé par Atari autour de Space Invaders, ce qui lui avait permis de repartir chez elle, en Californie, avec le premier prix : une borne d’arcade, alors qu’elle rêvait de gagner le deuxième lot, un Atari 800.

Rebecca Ann Heineman a lancé le 10 octobre un appel aux dons sur GoFundMe pour l’aider à financer ses soins

Devenue développeuse, elle est créditée au générique de pas moins de 67 jeux d’après la base de données Moby Games, parmi lesquels bon nombre de titres cultes. Elle a participé à la création du studio Interplay en 1983, où ses travaux prépareront le terrain à des titres aussi emblématiques que Wasteland, qui donnera naissance à Fallout, ou Baldur’s Gate. Chez Interplay, elle a aussi conçu Bard’s Tale III: The Thief of Fate et Dragon Wars, et participé à des portages considérés comme particulièrement difficiles tels que ceux de Wolfenstein 3D et Battle Chess.

Côté portage, elle accède justement à une certaine notoriété dans les années 90 en s’attelant à la version 3DO de Doom, rappelle Ars Technica. Une mission de quelques semaines, réalisée sous une pression intense, comme Rebecca Heineman l’a elle-même raconté sur son GitHub. Habituée des conférences pour développeurs (c’est lors de la dernière PAX qu’elle a ressenti les premiers symptômes qui conduiront au diagnostic de son cancer), elle est unanimement saluée pour son talent et sa débrouillardise technique.

En 2025, elle avait été honorée d’un Gayming Awards, un trophée célébrant les défenseurs de la cause LGBTQ+ dans l’industrie du jeu vidéo. Rebecca Ann Heineman avait réalisé et assumé publiquement sa transition de genre en 2003 et a longtemps vécu en couple avec Jennell Jaquays, une célèbre conceptrice et illustratrice de jeux de rôle, décédée début 2024.

Début octobre, Rebecca Ann Heineman avait lancé une campagne de dons sur GoFundMe pour soutenir les frais élevés associés à son traitement. C’est aussi là qu’elle avait annoncé, le 17 novembre, sa fin imminente. « Il est temps. D’après mes médecins. Tout traitement supplémentaire est inutile. Alors, s’il vous plaît, faites un don pour que mes enfants puissent organiser des funérailles dignes de mon clavier, Pixelbreaker ! Pour que je puisse faire une entrée digne de mes retrouvailles avec mon unique amour, Jennell Jaquays ».

  •  

ChatGPT for Teachers, une version gratuite pour le corps enseignant américain

Qui suis-je ? Ou vais-je ?
ChatGPT for Teachers, une version gratuite pour le corps enseignant américain

OpenAI a montré ce 19 novembre toute son ambition dans le domaine de l’éducation. L’entreprise lance une version gratuite et spécifique de son ChatGPT pour les enseignants, avec une volonté claire de devenir incontournable.

OpenAI a annoncé hier soir dans un billet de blog la disponibilité d’une version gratuite et spécifique de ChatGPT à destination des enseignants aux États-Unis. Pourquoi ce domaine en particulier ? Parce que selon l’entreprise, sur les 800 millions d’utilisateurs que compte son chatbot, les enseignants seraient les premiers à l’avoir adopté et les plus actifs.

L’offre a donc été spécialement conçue pour le corps enseignant, affirme OpenAI. Elle est basée sur GPT-5.1 Auto pour répartir les demandes et l’ensemble des fonctions. Une mémoire adaptée aurait été mise en place, pour retenir autant de contexte que possible et simplifier le travail quotidien. La sécurité est déclarée comme conforme aux normes FERPA (Family Educational Rights and Privacy Act). L’outil peut être intégré à d’autres comme Canva, Google Drive et Microsoft 365. Envoi de fichiers, génération d’images et autres sont aussi présents.

Des fonctions spécifiques ont été ajoutées. Par exemple, la possibilité de créer des espaces de travail partagés pour créer des modèles de plans de cours. Les enseignants pourront également planifier leurs travaux sur plusieurs semaines, générer des exemples pour un devoir, gérer la conformité avec les normes ISTE (pdf), voir des exemples créés par d’autres enseignants, des contrôles administratifs pour les groupes, etc.

Cette offre a été pensée pour les 400 000 enseignants certifiés du primaire à la terminale, « dans les principaux districts aux États-Unis ». La vérification du statut se fait SheerID, qui joue le rôle d’intermédiaire de confiance auprès d’OpenAI.

Gratuit jusqu’en 2027, et après ?

« Chaque élève aujourd’hui grandit avec l’IA, et les enseignants jouent un rôle central pour les aider à apprendre à utiliser ces outils de manière responsable et efficace. Pour soutenir ce travail, les éducateurs ont besoin d’espace pour explorer l’IA par eux-mêmes. ChatGPT for Teachers est conçu pour les aider à faire exactement cela : offrir une expérience pratique et concrète qu’ils peuvent ramener dans leurs classes. Et en la rendant gratuite pour des millions d’enseignants, nous espérons faciliter une utilisation sûre et réfléchie de l’IA dans l’apprentissage par toutes sortes d’écoles »

Surtout, ce ChatGPT for Teachers est mis à disposition gratuitement jusqu’en juin 2027. Pour OpenAI, c’est évidemment un pari qui peut lui rapporter gros : en offrant un service conçu spécifiquement pour ce qu’elle-même présente comme les besoins des enseignants, l’entreprise pourrait bien s’assurer une place de choix dans leur quotidien. En juin 2027, quand la gratuité prendra fin, les personnes qui estimeront avoir gagné suffisamment de temps avec l’outil pourraient ainsi envisager l’abonnement payant.

« Après cela, nous pourrions ajuster les prix, mais notre objectif est de garder ChatGPT pour les enseignants abordable pour les enseignants. Si quelque chose change, nous préviendrons pour que les enseignants et les écoles puissent décider s’ils continuent ou non », affirme OpenAI. Et l’opportunité est bien là, si l’on en croit une étude que Gallup avait publiée en juin dernier : 32 % des enseignants utilisaient l’IA toutes les semaines, avec un gain de temps hebdomadaire moyen estimé à 5,9 heures.

Pour l’instant, on ne sait rien d’une éventuelle extension du service à d’autres marchés, mais on imagine mal OpenAI se contenter du marché américain dans sa volonté de devenir le nouvel acteur incontournable de l’éducation.

La crainte de la perte d’autonomie

Le discours de l’entreprise est entièrement tourné vers « l’autonomisation » des enseignants et veut frapper au cœur : puisque les élèves recourent déjà massivement à l’IA générative, les enseignants doivent jouer un rôle central dans l’apprentissage de ces outils, « de manière responsable et efficace ». ChatGPT for Teachers se propose donc de remplir les deux missions : acclimater les professeurs à cette technologie et leur faire gagner du temps dans la préparation des cours, qui eux-mêmes vont changer. « L’IA dans l’éducation fonctionne mieux lorsque les enseignants dirigent », assure OpenAI.

L’annonce d’OpenAI était attendue. L’IA bouscule les méthodes conventionnelles de l’enseignement et certaines entreprises avancent leurs pions. Microsoft a par exemple annoncé une version éducative de son Copilot, pensée pour les élèves et étudiants. L’assistant se transforme alors en « professeur socratique » pour aider à faire travailler les matières, les examens, etc. Différentes fonctions sont présentes pour rendre l’ensemble interactif, notamment un tableau blanc dans lequel inscrire des réponses manuscrites, des schémas et autres.

  •  

Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA

Gloubi-boulgIA
Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA

Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.

Inception Point AI se targue sur son site web d’avoir créé « le plus grand réseau de podcasts indépendants au monde ». Quiet Please (c’est son nom, « Du calme s’il vous plait » en français) a d’ores et déjà créé « plus de 4 000 émissions », diffuse « en moyenne 3 000 nouveaux épisodes par semaine », de 15 à une quarantaine de minutes chacun, et compte se lancer dans l’édition de courtes vidéos, de livres « et bien plus encore ».

Cette start-up ne compte pourtant que huit employés : 4 informaticiens et 4 producteurs, relevait le mois dernier La tech la première, le podcast de Stéphane Jourdain, rédacteur en chef numérique de France Inter. Cette hyperproductivité s’explique par le fait que ces podcasts sont tous entièrement générés par IA, sans supervision humaine.

L’entreprise produit par exemple de nombreux podcasts consacrés à l’indice de pollen dans toutes les grandes villes américaines, afin d’attirer des publicités pour des antihistaminiques. Mais également des podcasts dédiés au jardinage, aux actus people, à la méditation, à la ménopause, aux stations de ski, plages, aux assassins, aux sous-marins nucléaires, à l’économie, la démocratie, le socialisme et même le communisme (entre autres).

Le coût de revient d’un podcast ? 1 $, rentabilité dès le 20ᵉ auditeur

Pour Inception Point AI, les « influenceurs IA » constituent « la prochaine frontière à un milliard de dollars », dans la mesure où ils peuvent travailler tout le temps, sans avoir besoin de dormir, et offrent « une qualité supérieure à ~1/25000 du coût » d’un influenceur humain.

Un épisode de podcast ne leur coûterait en effet que 1 $ seulement. Ce qui leur permet de privilégier la quantité à la qualité, d’autant qu’il suffit de 20 auditeurs pour qu’un épisode soit rentable. Et tant pis si les yeux de certaines de ces influenceuses synthétiques sont quelque peu bâclés.

Captures d’écran du compte de @vvsteeleip, influenceuse IA

D’après The Wrap (« le seul média indépendant dédié à l’industrie hollywoodienne »), Quiet Please aurait d’ores et déjà publié plus de 175 000 épisodes sur des plateformes comme Spotify ou Apple, enregistré 12 millions de téléchargements d’épisodes depuis sa création, et compterait 400 000 abonnés.

« La richesse se trouve dans les niches », explique à The Wrap Jeanine Wright, co-fondatrice et CEO de la start-up et ancienne directrice des opérations de Wondery, la division podcast d’Amazon. « Mes amis dans l’industrie du podcasting me demandent : « As-tu une émission qui figure dans le top 10 ? Comment se classent tes émissions ? » Nous ne voyons pas les choses sous cet angle », précise-t-elle :

« Au lieu de se concentrer uniquement sur la création des prochains Kelce Brothers, Crime Junkie ou Joe Rogan, ces émissions à grand succès, vous pourriez vous adresser à des publics de niche et à des micro-communautés. C’est un modèle économique totalement différent. »

Selon Riverside, plus de 584 millions de personnes ont écouté des podcasts en 2025, et ce chiffre devrait atteindre 619 millions d’ici 2026. D’après Edison Research, le temps passé à écouter des podcasts a augmenté de 355 % au cours des dix dernières années. 34 % des Américains écoutent en moyenne 8,3 épisodes de podcast par semaine, et 83 % y consacrent plus de 9 heures par semaine. Le marché pourrait atteindre une valeur de 17,59 milliards de dollars d’ici 2030. Même Netflix se lance dans le podcasting, en concluant un partenariat avec Spotify et The Ringer pour des podcasts vidéo dans le cadre de sa stratégie 2026, souligne The Wrap.

Une salle de rédaction, mais sans journalistes humains

Inception Point, qui se présente comme la « version audio de Reddit ou Wikipédia », a créé 120 « influenceurs IA », associés à des niches et contenus hyper-spécialisés. La société évite soigneusement les sujets controversés qui pourraient poser problème, précise The Wrap, « de sorte qu’aucune révision humaine n’est nécessaire pour chaque épisode », d’autant qu’il est matériellement impossible aux 8 employés de la start-up de pouvoir les écouter avant qu’ils ne soient mis en ligne :

« Inception Point AI fonctionne presque comme une salle de rédaction, mais sans journalistes humains. Les modèles d’IA scannent Internet et proposent à l’équipe des listes d’idées intéressantes, et les employés voient ce qui leur convient. Avec sa petite équipe de huit personnes, il faut une journée pour passer d’une idée à un épisode complet. Une fois le sujet choisi, un membre de l’équipe l’associe à une personnalité et la machine peut commencer à générer l’épisode, ce qui prend environ une heure. »

Sur son profil LinkedIn, la start-up, créée en 2023, avance que « Dans un avenir proche, la moitié de la population mondiale sera constituée d’IA ». « Les « personnes » générées par l’IA devraient-elles avoir des droits humains ? » s’interrogeait Jeanine Wright, qui se définit elle-même comme une « maximaliste de l’IA », dans AI Proof, un podcast destiné aux parents et aux éducateurs qui entend aider les enfants à se préparer à « un avenir imprégné d’intelligence artificielle ».

« Je pense que très rapidement, nous arriverons à un stade où l’IA sera le moyen par défaut de créer du contenu, non seulement dans le domaine audio, mais aussi à la télévision, au cinéma, dans les publicités, dans l’imagerie et dans tous les autres domaines », explique Jeanine Wright à The Wrap. « Et alors, nous indiquerons quand les contenus ne sont pas créés à l’aide de l’IA, plutôt que de préciser qu’ils ont été créés à l’aide de l’IA. Mais pour l’instant, nous sommes parfaitement heureux d’ouvrir la voie. »

  •  

OVHcloud veut être « systémique » : annonces tous azimuts, « stratégie orientée inférence »

« L'IA est systémique et irréversible »
OVHcloud veut être « systémique » : annonces tous azimuts, « stratégie orientée inférence »

En amont du Summit, nous avons rencontré Octave Klaba et Yaniv Fdida, respectivement PDG et CPTO d’OVHcloud. Ils nous ont détaillé les annonces sur l’IA, les agents, la sécurité, le stockage S3 dont les performances font un bond en avant, le déploiement de fibre, etc. OVHcloud tire tous azimuts et explique au passage ses choix sur l’intelligence artificielle : inférence, inférence et inférence.

OVHcloud tient aujourd’hui sa grand-messe annuelle : le Summit édition 2025. Les deux principaux thèmes du jour sont dans l’air du temps : « répondre aux nouveaux défis de l’IA et du quantique ». Dans les faits, les annonces tournent en très grande majorité autour de l’intelligence artificielle, et plus particulièrement sur l’inférence et les agents IA.

La question du retour d’Octave Klaba et de ses ambitions pour OVHcloud pour les cinq ans à venir a déjà été abordée dans une précédente actualité. Commençons par un tour d’horizon des nombreuses nouveautés dans les différentes gammes de produits, avant de passer sur le cœur des annonces avec des nouveautés sur les infrastructures pour l’intelligence artificielle.

Zimbra Pro, WordPress managé avec VoD, Ryzen X3D pour Games…

Yaniv Fdida fait un tour d’horizon des nouveautés du jour. Il y a tout d’abord Zimbra Pro avec Active Sync et du stockage supplémentaire (50 Go) pour proposer une « vraie alternative à Exchange » ainsi qu’un outil de migration pour « basculer vos workflows comme vous voulez, de manière réversible ». Une bêta de Zimbra Pro était proposée depuis quelques mois. Arrive également une version managée de WordPress et une offre de VoD pour la vidéo. De manière générale, sur le Web Cloud, l’investissement continue sur les outils collaboratifs.


Il reste 95% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ La justice étend son enquête sur X après des propos négationnistes générés par Grok

Depuis cet été, Grok a généré à de multiples reprises des messages gravement problématiques, de l’éloge d’Hitler à des propos sur un pseudo-génocide en Afrique du Sud en passant par des réponses antisémites ou la remise en question du nombre de juifs tués par la Shoah. Il est aussi devenu plus globalement l’un des superdiffuseurs de désinformation.

Mais, alors que xA aI annoncé la sortie de Grok 4.1 (avec un « lancement silencieux, du 1er au 14 novembre 2025 »), son IA a généré le même jour un nouveau message révisionniste affirmant notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus, avec des systèmes d’aération adaptés à cet usage plutôt que pour des exécutions massives ».

Ce mercredi 19 novembre, la Ligue des droits de l’homme a annoncé porter plainte à ce sujet et le député Renaissance Éric Bothorel a expliqué avoir fait un signalement « sur la base de l’article 40 du code de procédure pénale auprès de Madame La Procureure » suivi par les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé.

La #LDH porte plainte contre la publication de #Grok, l’intelligence artificielle du réseau social X, pour contestation de crimes contre l’humanité.

[image or embed]

— LDH France (@ldh.fr) 19 novembre 2025 à 14:35

Le même jour, le parquet de Paris a réagi, expliquant à l’AFP avoir versé ces « propos négationnistes (…) à l’enquête en cours diligentée par la section de lutte contre la cybercriminalité ». Le fonctionnement de l’IA Grok « sera analysé dans ce cadre ». X est visée depuis juillet par une enquête du parquet pour ingérence étrangère.

Le message généré par Grok a depuis été supprimé et l’IA d’Elon Musk publie aussi des messages en sens inverse.

  •  

Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

Pouet
Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

Dix ans après le lancement du projet, Eugen Rochko cède les rênes à un trio déjà très impliqué dans le développement de Mastodon et du fédivers. La petite équipe qui pilote le projet confirme avoir engagé les travaux nécessaires à la création d’une association à but non lucratif de droit belge. Celle-ci doit faire perdurer la volonté historique de son fondateur : créer une alternative aux réseaux sociaux détenus par des milliardaires.

Eugen Rochko, fondateur et CEO de Mastodon, a révélé mardi 18 novembre qu’il quittait ses fonctions à la tête du projet. Le développeur allemand, qui compte parmi les principaux artisans de la mouvance du fédivers, ne se désengage cependant pas du projet.

Eugen Rochko cède les rênes

« Le fédivers est une île au sein d’un paysage capitaliste dystopique de plus en plus infernal. Et selon moi, Mastodon est notre meilleure chance de partager cette vision d’un avenir meilleur avec le grand public. C’est pourquoi je reste impliqué, même si c’est sous la forme d’un rôle plus consultatif et moins public », explique-t-il dans un billet de blog.

Si la passion est toujours vive, pourquoi cette mise en retrait ? Le texte d’Eugen Rochko laisse entendre que le développeur n’est pas nécessairement à l’aise avec la dimension publique du rôle de CEO d’une structure telle que Mastodon, qui impose d’aller défendre une vision alternative à celle des Meta, X et autres réseaux sociaux centralisés, détenus par des sociétés privées.

Il présente également sa décision comme une forme de garantie supplémentaire apportée au projet. « Les exemples d’égos de fondateurs sabotant des communautés florissantes sont trop nombreux, et même si j’aimerais me considérer comme une exception, je comprends pourquoi on préférerait des garde-fous plus efficaces », écrit-il.

Outre sa mise en retrait, il annonce le transfert de la marque et des autres éléments qui pourraient relever de sa propriété intellectuelle à la structure de droit allemand qui chapeaute aujourd’hui le projet d’un point de vue administratif, Mastodon gGmbH. Ces actifs sont valorisés sous la forme d’une compensation fixée à 1 million d’euros, qui rétribue également le temps et les efforts du développeur au cours des dix dernières années.

« Nous lui sommes profondément reconnaissants pour ses contributions passées et nous attendons avec intérêt ses contributions futures », salue le trio chargé de prendre le relais.

Un triumvirat à la tête d’une structure renflouée

Mastodon annonce en effet que la place de CEO laissée vacante est reprise par Felix Hlatky comme directeur exécutif, Renaud Chaput toujours sous la casquette de directeur technique et Hannah Aubry en tant que directrice de la communauté. Tous déjà impliqués de façon opérationnelle dans la gestion de Mastodon, ils sont associés à un collège étendu, au sein duquel figure donc Eugen Rochko, et appellent toutes les bonnes volontés à se manifester pour renforcer la dimension communautaire de cette gouvernance.

L’équipe souligne par ailleurs disposer de moyens renforcés pour soutenir le développement de Mastodon. Outre le lancement récent de son offre de services payants à destination des gestionnaires d’instance, elle se réjouit par ailleurs du succès de sa récente campagne de dons, qui a notamment permis de recueillir 2,2 millions d’euros de la part de Jeff Atwood (fondateur de Stack Overflow), ainsi que des contributions de quelques personnalités du milieu comme Biz Stone (cofondateur de Twitter) ou Craig Newmark (fondateur du site craigslist). Elle salue par ailleurs les dons de particuliers, tout en précisant que toutes ces contributions individuelles sont exclusivement mises au service des opérations de Mastodon, qui représentent 337 000 euros de dépenses sur douze mois (de septembre 2024 à 2025).

Transfert en cours vers une association à but non lucratif de droit belge

Mastodon explique par ailleurs toujours plancher sur le transfert de ses activités vers une nouvelle structure. Annoncée en début d’année, cette évolution fait suite à la perte du statut d’entreprise à but non lucratif en Allemagne, du fait d’une non-reconnaissance de l’objet de la société comme étant d’intérêt général. Mastodon, qui fait appel à une structure basée aux États-Unis pour assurer l’intérim, confirme l’hypothèse envisagée en début d’année par Renaud Chaput dans les colonnes de Next : la transformation en une association internationale à but non lucratif de droit belge (AISBL).

« L’organisme américain à but non lucratif 501(c)(3) continue de jouer un rôle d’intermédiaire stratégique et de centre de collecte de fonds. Cet organisme détiendra la marque et d’autres actifs à titre de solution transitoire en attendant la mise en place de l’AISBL. », précise à ce niveau Mastodon.

  •  

☕️ Yann LeCun confirme son départ de Meta pour créer sa propre startup IA

Après douze ans chez Meta, Yann LeCun tirera sa révérence en fin d’année. Le Français, prix Turing et professeur d’informatique à l’université de New York, annonce qu’il prépare la création d’une nouvelle startup, au sein de laquelle il poursuivra ses recherches autour de l’Advanced Machine Intelligence. « L’objectif de cette start-up est de provoquer la prochaine grande révolution dans le domaine de l’IA : des systèmes qui comprennent le monde physique, possèdent une mémoire persistante, peuvent raisonner et planifier des séquences d’actions complexes », décrit l’intéressé dans un post LinkedIn publié mercredi soir.

Yann LeCun, considéré comme l’une des personnalités scientifiques les plus en vue dans le domaine de l’IA, a créé en 2013 et dirigé depuis le laboratoire de recherche fondamentale de Meta en matière d’IA, baptisé FAIR (pour Fundamental AI Research). Il était également depuis sept ans responsable des activités scientifiques IA de Meta (Chief AI Scientist).

L’annonce de son départ, éventée le 11 novembre dernier par le Financial Times, intervient alors que Meta vient de procéder à plusieurs mouvements de réorganisation au sein de ses équipes IA suite à la prise de contrôle de Scale AI (un spécialiste de l’annotation de données), réalisée cet été en échange de 14,3 milliards de dollars.

Alexandr Wang, l’ancien dirigeant de Scale AI, est devenu en août Chief AI Officer et a lancé une restructuration des activités associées en quatre pôles. FAIR reste l’un des quatre pôles en question, mais c’est une autre équipe qui est officiellement chargée de courir après l’objectif de la superintelligence personnelle, réclamée par Mark Zuckerberg. Fin octobre, la division FAIR a connu une réduction significative de voilure, avec 600 postes supprimés.

De quoi étayer les rumeurs qui évoquaient déjà l’hypothèse d’un départ prochain de Yann LeCun. Ce dernier semble cependant enclin à conserver des liens avec Meta. Dans son billet d’annonce, il remercie Mark Zuckerberg et trois autres membres de la direction de Meta, pour leur soutien continu à son laboratoire et à la recherche autour de l’AMI. « Grâce à leur intérêt et à leur soutien constants, Meta sera partenaire de la nouvelle société », indique-t-il.

Aucune indication n’est donnée à ce stade sur les objectifs commerciaux, les capitaux ou l’équipe que pourrait réunir Yann LeCun.

  •  

La Commission publie son projet d’omnibus numérique dans un contexte tendu

Simplifier les droits humains
La Commission publie son projet d’omnibus numérique dans un contexte tendu

La Commission européenne publie ce 19 novembre un paquet législatif « digital omnibus » déjà largement critiqué. Next fait le point.

Fin janvier 2025, la Commission européenne présentait sa « boussole pour la compétitivité ». Inspirée du rapport de l’économiste italien et ex-président de la Banque centrale européenne (BCE) Mario Draghi sur la compétitivité européenne, la feuille de route prévoyait d’emblée de provoquer un « choc de simplification » administrative pour les entreprises européennes. But affiché : « réduire de 25 % les charges administratives, et de 35 % celles pesant sur les petites et moyennes entreprises » d’ici 2029, sans préciser la manière de calculer cet allégement.

Ce 19 novembre, la Commission publie donc son paquet législatif « digital omnibus », dédié au numérique. Concrètement, elle publie un jeu de propositions dédié à amender des textes déjà en vigueur, dont le Règlement général sur la protection des données (RGPD), la directive e-Privacy (pour simplifier l’utilisation des bandeaux de consentement aux cookies), celle sur la sécurité des réseaux et des systèmes d’information (NIS 2) ou encore le règlement sur la résilience opérationnelle numérique (DORA). Celui-ci s’accompagne d’une proposition d’« omnibus numérique sur le règlement sur l’intelligence artificielle », dédié à l’implémentation encore en cours du règlement sur l’intelligence artificielle (RIA ou AI Act) – le texte est entré en vigueur en août 2024, mais certaines de ses dispositions ne doivent devenir applicables qu’à partir de 2026 voire 2027.

Mais les propositions se font dans un contexte électrique. Le 13 novembre, une alliance inédite de la droite et de l’extrême-droite au Parlement européen a voté la réduction de plusieurs autres mesures (réunies au sein du paquet législatif « Omnibus I »), plus directement liées au Pacte vert (Green deal) européen, mais susceptibles de concerner aussi divers acteurs numériques. Le contenu du digital omnibus, lui, a fuité depuis une dizaine de jours, suscitant les critiques de multiples défenseurs des droits numériques ainsi que des groupes politiques de gauche et du centre.

Attaque « accélérée » du RGPD

Au cœur de leurs préoccupations : l’« attaque accélérée », comme la qualifie l’association noyb, portée contre des éléments essentiels du RGPD, à commencer par la définition des données à caractère personnel.

« Nous sommes aussi inquiets du processus législatif adopté que de son contenu », déclare la spécialiste de la protection des données auprès de la European Digital Rights (EDRi) Itxaso Domínguez. Aux côtés de 126 organisations de la société civile, l’EDRi publiait la semaine passée une lettre ouverte appelant la Commission à « protéger des libertés numériques durement gagnées ».


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

Cumulonimbus
Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

La Commission a annoncé avoir ouvert plusieurs enquêtes sur le marché du cloud en Europe pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud et ainsi être soumises à des règles plus strictes du DMA.

Alors qu’Emmanuel Macron et le chancelier allemand Friedrich Merz organisaient un sommet sur la souveraineté numérique européenne à Berlin, la Commission européenne a annoncé l’ouverture d’enquêtes sur le marché du cloud computing en Europe. Elle veut notamment vérifier que le DMA est bien appliqué sur ce marché et envisage de modifier le statut d’AWS et d’Azure en leur attribuant l’étiquette de « contrôleurs d’accès » (ou gatekeepers), ce qui leur ajouterait des obligations légales permettant de simplifier la concurrence pour les autres acteurs.

« Soyons clairs, l’Europe ne veut pas être le client des grands entrepreneurs ou des grandes solutions proposées, que ce soit par les États-Unis ou par la Chine. Nous voulons clairement concevoir nos propres solutions », a déclaré Emmanuel Macron à Berlin, ajoutant qu’il s’agit « simplement d’un refus d’être un vassal ». Le message envoyé en parallèle par la Commission concernant le cloud se veut dans le même sens.

Lobbying des deux côtés de l’atlantique

Il correspond à ce qu’avaient demandé plusieurs lobbys européens du milieu vendredi dernier. Dans une « déclaration commune », le Cigref et ses homologues néerlandais, belges et allemands appelaient « la Commission européenne et les autorités nationales à faire preuve d’une vigilance accrue et à mettre en œuvre rigoureusement la loi sur les marchés numériques (DMA) », en ajoutant que « les grands fournisseurs mondiaux de technologies doivent être désignés comme gardiens lorsque leur position sur le marché leur permet d’imposer des conditions commerciales déloyales, de limiter les choix industriels de leurs clients et de restreindre la libre concurrence ».

De son côté, le lobby états-unien Business Software Alliance, dont font partie AWS et Microsoft, implorait lundi l’Europe de « laisser la porte ouverte ». « À l’heure où la souveraineté est devenue l’un des thèmes politiques les plus controversés de l’UE », affirmait BSA, le lobby proposait des alternatives « aux mesures de localisation restrictives et aux stratégies « exclusivement européennes » ».

La Commission semble donc pencher dans le sens des lobbys européens en ouvrant, comme elle l’indique dans un communiqué, deux enquêtes de marché pour évaluer si « Amazon et Microsoft devraient être désignés comme contrôleurs d’accès pour leurs services de cloud computing, Amazon Web Services et Microsoft Azure, au titre du DMA, c’est-à-dire qu’ils agissent comme des passerelles importantes entre les entreprises et les consommateurs, même s’ils ne remplissent pas les critères du DMA en matière de taille, de nombre d’utilisateurs et de position sur le marché ». Elle y ajoute une troisième enquête pour estimer « si le DMA peut lutter efficacement contre les pratiques susceptibles de limiter la compétitivité et l’équité dans le secteur du cloud computing dans l’UE ».

Des obligations nouvelles comme une interopérabilité plus importante

La Commission explique que « les analyses des marchés du cloud menées ces dernières années semblent indiquer que les services de cloud computing Microsoft Azure et Amazon Web Services occupent des positions très fortes par rapport aux entreprises et aux consommateurs ». Elle ajoute qu’elle évaluera « si certaines caractéristiques du secteur du cloud computing sont susceptibles de renforcer encore la position de Microsoft Azure et d’Amazon Web Services ».

Comme nous l’indiquions dans notre article détaillé lors de l’entrée en application du DMA, les obligations que devront respecter AWS et Azure en cas de désignation seront multiples. Notamment, le texte prévoit une obligation d’interopérabilité, « avec les mêmes caractéristiques matérielles et logicielles », ainsi que la portabilité des données. Ils ne pourraient non plus inscrire d’office l’utilisateur d’un service à un autre fourni par le même contrôleur d’accès, ni utiliser les données fournies par les entreprises qui utilisent le service de plateforme pour favoriser les propres services du contrôleur d’accès.

La Commission ajoute d’ailleurs comme exemple de sujets que les enquêtes devront aborder « les obstacles à l’interopérabilité entre le cloud computing, l’accès limité ou conditionné des entreprises utilisatrices aux données, les services de vente liée et de groupage et les clauses contractuelles potentiellement déséquilibrées ».

« Les services d’informatique en nuage sont essentiels pour la compétitivité et la résilience de l’Europe. Nous voulons que ce secteur stratégique se développe à des conditions équitables, ouvertes et concurrentielles », affirme Teresa Ribera, vice-présidente exécutive chargée d’une transition propre, juste et compétitive. « C’est pourquoi nous ouvrons aujourd’hui des enquêtes pour déterminer si les principaux services de cloud computing d’Amazon et de Microsoft, Amazon Web Services et Microsoft Azure, devraient être soumis aux obligations du règlement sur les marchés numériques (DMA) ». Elle ajoute que la Commission pourrait aussi faire évoluer ce texte pour « que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques » dans ce secteur.

Alors que Microsoft a déclaré à Reuters être prête à contribuer au travail d’enquête de la Commission, AWS affirmait que « désigner les fournisseurs de services cloud comme gatekeepers ne vaut pas la peine de prendre le risque d’étouffer l’innovation ou d’augmenter les coûts pour les entreprises européennes ».

  •  

La grande panne de Cloudflare est partie d’un petit changement de permissions

Des petits ruisseaux aux grandes rivières
La grande panne de Cloudflare est partie d’un petit changement de permissions

Le 18 novembre, la panne de Cloudflare a plongé une partie du web dans le noir. Comme on pouvait s’y attendre, l’entreprise a publié un billet explicatif détaillé sur les raisons ayant conduit à cette coupure d’environ trois heures. Les raisons sont complexes et non liées à une attaque ou autre incident de sécurité.

ChatGPT, X, Facebook, Spotify, Canva, Feedly, Marmiton, Doctissimo et autres sites ont été inaccessibles pendant environ trois heures le 18 novembre. Le dénominateur commun ? Ils sont tous protégés par Cloudflare, qui commercialise des services permettant de résister aux attaques distribuées par déni de service (DDoS), entre autres services.

Les solutions vendues par Cloudflare sont devenues omniprésentes, au point que l’entreprise américaine revendique aujourd’hui la gestion de 20 % du trafic web mondial. Un chiffre colossal, qui fait de l’acteur un maillon devenu essentiel du web, avec les conséquences allant de pair en cas de panne. Dans la veine du récent incident chez Amazon Web Services, la panne de Cloudflare a eu des répercussions mondiales et un post mortem détaillé était attendu pour expliquer ce qui avait bien pu provoquer une telle coupure.

D’un petit rien…

La disparition soudaine de Cloudflare aurait pu faire craindre une infrastructure finalement vaincue par une énorme attaque concertée. Il n’en est rien : tout a commencé par une modification apportée aux permissions de l’un des systèmes de base de données (ClickHouse). Elle visait à améliorer la sécurité des requêtes distribuées en rendant explicites les accès aux tables sous-jacentes dans la base de données.


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Octave Klaba, reprend les rênes d’OVHcloud : « Je suis revenu pour au minimum cinq ans »

« Si tu reviens j'annule tout »
Octave Klaba, reprend les rênes d’OVHcloud : « Je suis revenu pour au minimum cinq ans »

Octave reprend encore les rênes d’OVHcloud et compte bien rester PDG pendant au moins cinq ans pour dérouler le nouveau plan stratégique. Il veut arriver à une croissance durable à deux chiffres et revient aussi sur le départ de Benjamin Revcolevschi.

Demain, OVHcloud tiendra sa grand-messe annuelle : son Summit. La semaine dernière, nous étions quelques journalistes chez OVHcloud pour parler de nombreux sujets, dont la vision stratégique de l’entreprise.

Un fondateur, une famille et des valeurs… pas une dictature

Il faut dire qu’un changement important a été annoncé il y a tout juste un mois : Octave Klaba reprend le poste de directeur général (et reste président du Conseil) à la place de Benjamin Revcolevschi. Ce dernier n’est donc resté qu’un an à la tête d’OVHcloud.

Une décision soudaine de la famille Klaba, qui est pour rappel très largement majoritaire puisqu’elle détient 81,3 % du capital et 82 % des droits de vote, ce qui facilite grandement des décisions sur le changement de la gouvernance… et inspire aussi Flock. À ce sujet, Octave Klaba tient à rappeler qu’il n’est pas le seul maitre à bord : « j’ai un board, j’ai des comités ». Il détaille son propos : « C’est une boîte où il y a un fondateur, une famille, des valeurs, une mission, une vision. Donc, oui, vous n’êtes pas dans une boîte de dépossédés ; mais non, ça ne veut pas dire que c’est de la dictature ».

2025 : des résultats « corrects, sans plus »


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •