Vue normale

Reçu aujourd’hui — 20 novembre 2025

☕️ Rebecca Heineman, pionnière et championne de jeux vidéo, est morte à 62 ans

20 novembre 2025 à 10:58

Championne de jeux vidéo, cofondatrice d’Interplay, cheville ouvrière de The Bard’s Tale 3: Thief of Fate, développeuse renommée, spécialiste du portage sur Mac et avocate de la cause transgenre dans une industrie essentiellement masculine, Rebecca Heineman s’est éteinte le 17 novembre dernier.

Elle avait été diagnostiquée deux mois plus tôt d’un adénocarcinome pulmonaire avancé, et documentait non sans humour son douloureux combat contre la maladie sur son compte Bluesky. « Je n’aurais jamais cru que ce vœu se réaliserait. C’est étrange de voir des éloges funèbres avant ma mort », postait-elle le 17 novembre. Quelques heures plus tard, Scott Miller, cofondateur d’Apogee et de 3DRealm, confirmait sa mort : « Une légende de l’industrie du jeu vidéo est décédée ».

Surnommée « Burger Becky », Rebecca Ann Heineman s’est illustrée en remportant à 16 ans ce qui est considéré comme la première compétition de jeux vidéo organisée sur le sol américain : en 1980, elle s’était imposée en effet comme la grande championne d’un concours organisé par Atari autour de Space Invaders, ce qui lui avait permis de repartir chez elle, en Californie, avec le premier prix : une borne d’arcade, alors qu’elle rêvait de gagner le deuxième lot, un Atari 800.

Rebecca Ann Heineman a lancé le 10 octobre un appel aux dons sur GoFundMe pour l’aider à financer ses soins

Devenue développeuse, elle est créditée au générique de pas moins de 67 jeux d’après la base de données Moby Games, parmi lesquels bon nombre de titres cultes. Elle a participé à la création du studio Interplay en 1983, où ses travaux prépareront le terrain à des titres aussi emblématiques que Wasteland, qui donnera naissance à Fallout, ou Baldur’s Gate. Chez Interplay, elle a aussi conçu Bard’s Tale III: The Thief of Fate et Dragon Wars, et participé à des portages considérés comme particulièrement difficiles tels que ceux de Wolfenstein 3D et Battle Chess.

Côté portage, elle accède justement à une certaine notoriété dans les années 90 en s’attelant à la version 3DO de Doom, rappelle Ars Technica. Une mission de quelques semaines, réalisée sous une pression intense, comme Rebecca Heineman l’a elle-même raconté sur son GitHub. Habituée des conférences pour développeurs (c’est lors de la dernière PAX qu’elle a ressenti les premiers symptômes qui conduiront au diagnostic de son cancer), elle est unanimement saluée pour son talent et sa débrouillardise technique.

En 2025, elle avait été honorée d’un Gayming Awards, un trophée célébrant les défenseurs de la cause LGBTQ+ dans l’industrie du jeu vidéo. Rebecca Ann Heineman avait réalisé et assumé publiquement sa transition de genre en 2003 et a longtemps vécu en couple avec Jennell Jaquays, une célèbre conceptrice et illustratrice de jeux de rôle, décédée début 2024.

Début octobre, Rebecca Ann Heineman avait lancé une campagne de dons sur GoFundMe pour soutenir les frais élevés associés à son traitement. C’est aussi là qu’elle avait annoncé, le 17 novembre, sa fin imminente. « Il est temps. D’après mes médecins. Tout traitement supplémentaire est inutile. Alors, s’il vous plaît, faites un don pour que mes enfants puissent organiser des funérailles dignes de mon clavier, Pixelbreaker ! Pour que je puisse faire une entrée digne de mes retrouvailles avec mon unique amour, Jennell Jaquays ».

☕️ Rebecca Heineman, pionnière et championne de jeux vidéo, est morte à 62 ans

20 novembre 2025 à 10:58

Championne de jeux vidéo, cofondatrice d’Interplay, cheville ouvrière de The Bard’s Tale 3: Thief of Fate, développeuse renommée, spécialiste du portage sur Mac et avocate de la cause transgenre dans une industrie essentiellement masculine, Rebecca Heineman s’est éteinte le 17 novembre dernier.

Elle avait été diagnostiquée deux mois plus tôt d’un adénocarcinome pulmonaire avancé, et documentait non sans humour son douloureux combat contre la maladie sur son compte Bluesky. « Je n’aurais jamais cru que ce vœu se réaliserait. C’est étrange de voir des éloges funèbres avant ma mort », postait-elle le 17 novembre. Quelques heures plus tard, Scott Miller, cofondateur d’Apogee et de 3DRealm, confirmait sa mort : « Une légende de l’industrie du jeu vidéo est décédée ».

Surnommée « Burger Becky », Rebecca Ann Heineman s’est illustrée en remportant à 16 ans ce qui est considéré comme la première compétition de jeux vidéo organisée sur le sol américain : en 1980, elle s’était imposée en effet comme la grande championne d’un concours organisé par Atari autour de Space Invaders, ce qui lui avait permis de repartir chez elle, en Californie, avec le premier prix : une borne d’arcade, alors qu’elle rêvait de gagner le deuxième lot, un Atari 800.

Rebecca Ann Heineman a lancé le 10 octobre un appel aux dons sur GoFundMe pour l’aider à financer ses soins

Devenue développeuse, elle est créditée au générique de pas moins de 67 jeux d’après la base de données Moby Games, parmi lesquels bon nombre de titres cultes. Elle a participé à la création du studio Interplay en 1983, où ses travaux prépareront le terrain à des titres aussi emblématiques que Wasteland, qui donnera naissance à Fallout, ou Baldur’s Gate. Chez Interplay, elle a aussi conçu Bard’s Tale III: The Thief of Fate et Dragon Wars, et participé à des portages considérés comme particulièrement difficiles tels que ceux de Wolfenstein 3D et Battle Chess.

Côté portage, elle accède justement à une certaine notoriété dans les années 90 en s’attelant à la version 3DO de Doom, rappelle Ars Technica. Une mission de quelques semaines, réalisée sous une pression intense, comme Rebecca Heineman l’a elle-même raconté sur son GitHub. Habituée des conférences pour développeurs (c’est lors de la dernière PAX qu’elle a ressenti les premiers symptômes qui conduiront au diagnostic de son cancer), elle est unanimement saluée pour son talent et sa débrouillardise technique.

En 2025, elle avait été honorée d’un Gayming Awards, un trophée célébrant les défenseurs de la cause LGBTQ+ dans l’industrie du jeu vidéo. Rebecca Ann Heineman avait réalisé et assumé publiquement sa transition de genre en 2003 et a longtemps vécu en couple avec Jennell Jaquays, une célèbre conceptrice et illustratrice de jeux de rôle, décédée début 2024.

Début octobre, Rebecca Ann Heineman avait lancé une campagne de dons sur GoFundMe pour soutenir les frais élevés associés à son traitement. C’est aussi là qu’elle avait annoncé, le 17 novembre, sa fin imminente. « Il est temps. D’après mes médecins. Tout traitement supplémentaire est inutile. Alors, s’il vous plaît, faites un don pour que mes enfants puissent organiser des funérailles dignes de mon clavier, Pixelbreaker ! Pour que je puisse faire une entrée digne de mes retrouvailles avec mon unique amour, Jennell Jaquays ».

Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

20 novembre 2025 à 08:03
Pouet
Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

Dix ans après le lancement du projet, Eugen Rochko cède les rênes à un trio déjà très impliqué dans le développement de Mastodon et du fédivers. La petite équipe qui pilote le projet confirme avoir engagé les travaux nécessaires à la création d’une association à but non lucratif de droit belge. Celle-ci doit faire perdurer la volonté historique de son fondateur : créer une alternative aux réseaux sociaux détenus par des milliardaires.

Eugen Rochko, fondateur et CEO de Mastodon, a révélé mardi 18 novembre qu’il quittait ses fonctions à la tête du projet. Le développeur allemand, qui compte parmi les principaux artisans de la mouvance du fédivers, ne se désengage cependant pas du projet.

Eugen Rochko cède les rênes

« Le fédivers est une île au sein d’un paysage capitaliste dystopique de plus en plus infernal. Et selon moi, Mastodon est notre meilleure chance de partager cette vision d’un avenir meilleur avec le grand public. C’est pourquoi je reste impliqué, même si c’est sous la forme d’un rôle plus consultatif et moins public », explique-t-il dans un billet de blog.

Si la passion est toujours vive, pourquoi cette mise en retrait ? Le texte d’Eugen Rochko laisse entendre que le développeur n’est pas nécessairement à l’aise avec la dimension publique du rôle de CEO d’une structure telle que Mastodon, qui impose d’aller défendre une vision alternative à celle des Meta, X et autres réseaux sociaux centralisés, détenus par des sociétés privées.

Il présente également sa décision comme une forme de garantie supplémentaire apportée au projet. « Les exemples d’égos de fondateurs sabotant des communautés florissantes sont trop nombreux, et même si j’aimerais me considérer comme une exception, je comprends pourquoi on préférerait des garde-fous plus efficaces », écrit-il.

Outre sa mise en retrait, il annonce le transfert de la marque et des autres éléments qui pourraient relever de sa propriété intellectuelle à la structure de droit allemand qui chapeaute aujourd’hui le projet d’un point de vue administratif, Mastodon gGmbH. Ces actifs sont valorisés sous la forme d’une compensation fixée à 1 million d’euros, qui rétribue également le temps et les efforts du développeur au cours des dix dernières années.

« Nous lui sommes profondément reconnaissants pour ses contributions passées et nous attendons avec intérêt ses contributions futures », salue le trio chargé de prendre le relais.

Un triumvirat à la tête d’une structure renflouée

Mastodon annonce en effet que la place de CEO laissée vacante est reprise par Felix Hlatky comme directeur exécutif, Renaud Chaput toujours sous la casquette de directeur technique et Hannah Aubry en tant que directrice de la communauté. Tous déjà impliqués de façon opérationnelle dans la gestion de Mastodon, ils sont associés à un collège étendu, au sein duquel figure donc Eugen Rochko, et appellent toutes les bonnes volontés à se manifester pour renforcer la dimension communautaire de cette gouvernance.

L’équipe souligne par ailleurs disposer de moyens renforcés pour soutenir le développement de Mastodon. Outre le lancement récent de son offre de services payants à destination des gestionnaires d’instance, elle se réjouit par ailleurs du succès de sa récente campagne de dons, qui a notamment permis de recueillir 2,2 millions d’euros de la part de Jeff Atwood (fondateur de Stack Overflow), ainsi que des contributions de quelques personnalités du milieu comme Biz Stone (cofondateur de Twitter) ou Craig Newmark (fondateur du site craigslist). Elle salue par ailleurs les dons de particuliers, tout en précisant que toutes ces contributions individuelles sont exclusivement mises au service des opérations de Mastodon, qui représentent 337 000 euros de dépenses sur douze mois (de septembre 2024 à 2025).

Transfert en cours vers une association à but non lucratif de droit belge

Mastodon explique par ailleurs toujours plancher sur le transfert de ses activités vers une nouvelle structure. Annoncée en début d’année, cette évolution fait suite à la perte du statut d’entreprise à but non lucratif en Allemagne, du fait d’une non-reconnaissance de l’objet de la société comme étant d’intérêt général. Mastodon, qui fait appel à une structure basée aux États-Unis pour assurer l’intérim, confirme l’hypothèse envisagée en début d’année par Renaud Chaput dans les colonnes de Next : la transformation en une association internationale à but non lucratif de droit belge (AISBL).

« L’organisme américain à but non lucratif 501(c)(3) continue de jouer un rôle d’intermédiaire stratégique et de centre de collecte de fonds. Cet organisme détiendra la marque et d’autres actifs à titre de solution transitoire en attendant la mise en place de l’AISBL. », précise à ce niveau Mastodon.

☕️ Yann LeCun confirme son départ de Meta pour créer sa propre startup IA

20 novembre 2025 à 07:54

Après douze ans chez Meta, Yann LeCun tirera sa révérence en fin d’année. Le Français, prix Turing et professeur d’informatique à l’université de New York, annonce qu’il prépare la création d’une nouvelle startup, au sein de laquelle il poursuivra ses recherches autour de l’Advanced Machine Intelligence. « L’objectif de cette start-up est de provoquer la prochaine grande révolution dans le domaine de l’IA : des systèmes qui comprennent le monde physique, possèdent une mémoire persistante, peuvent raisonner et planifier des séquences d’actions complexes », décrit l’intéressé dans un post LinkedIn publié mercredi soir.

Yann LeCun, considéré comme l’une des personnalités scientifiques les plus en vue dans le domaine de l’IA, a créé en 2013 et dirigé depuis le laboratoire de recherche fondamentale de Meta en matière d’IA, baptisé FAIR (pour Fundamental AI Research). Il était également depuis sept ans responsable des activités scientifiques IA de Meta (Chief AI Scientist).

L’annonce de son départ, éventée le 11 novembre dernier par le Financial Times, intervient alors que Meta vient de procéder à plusieurs mouvements de réorganisation au sein de ses équipes IA suite à la prise de contrôle de Scale AI (un spécialiste de l’annotation de données), réalisée cet été en échange de 14,3 milliards de dollars.

Alexandr Wang, l’ancien dirigeant de Scale AI, est devenu en août Chief AI Officer et a lancé une restructuration des activités associées en quatre pôles. FAIR reste l’un des quatre pôles en question, mais c’est une autre équipe qui est officiellement chargée de courir après l’objectif de la superintelligence personnelle, réclamée par Mark Zuckerberg. Fin octobre, la division FAIR a connu une réduction significative de voilure, avec 600 postes supprimés.

De quoi étayer les rumeurs qui évoquaient déjà l’hypothèse d’un départ prochain de Yann LeCun. Ce dernier semble cependant enclin à conserver des liens avec Meta. Dans son billet d’annonce, il remercie Mark Zuckerberg et trois autres membres de la direction de Meta, pour leur soutien continu à son laboratoire et à la recherche autour de l’AMI. « Grâce à leur intérêt et à leur soutien constants, Meta sera partenaire de la nouvelle société », indique-t-il.

Aucune indication n’est donnée à ce stade sur les objectifs commerciaux, les capitaux ou l’équipe que pourrait réunir Yann LeCun.

Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

20 novembre 2025 à 08:03
Pouet
Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

Dix ans après le lancement du projet, Eugen Rochko cède les rênes à un trio déjà très impliqué dans le développement de Mastodon et du fédivers. La petite équipe qui pilote le projet confirme avoir engagé les travaux nécessaires à la création d’une association à but non lucratif de droit belge. Celle-ci doit faire perdurer la volonté historique de son fondateur : créer une alternative aux réseaux sociaux détenus par des milliardaires.

Eugen Rochko, fondateur et CEO de Mastodon, a révélé mardi 18 novembre qu’il quittait ses fonctions à la tête du projet. Le développeur allemand, qui compte parmi les principaux artisans de la mouvance du fédivers, ne se désengage cependant pas du projet.

Eugen Rochko cède les rênes

« Le fédivers est une île au sein d’un paysage capitaliste dystopique de plus en plus infernal. Et selon moi, Mastodon est notre meilleure chance de partager cette vision d’un avenir meilleur avec le grand public. C’est pourquoi je reste impliqué, même si c’est sous la forme d’un rôle plus consultatif et moins public », explique-t-il dans un billet de blog.

Si la passion est toujours vive, pourquoi cette mise en retrait ? Le texte d’Eugen Rochko laisse entendre que le développeur n’est pas nécessairement à l’aise avec la dimension publique du rôle de CEO d’une structure telle que Mastodon, qui impose d’aller défendre une vision alternative à celle des Meta, X et autres réseaux sociaux centralisés, détenus par des sociétés privées.

Il présente également sa décision comme une forme de garantie supplémentaire apportée au projet. « Les exemples d’égos de fondateurs sabotant des communautés florissantes sont trop nombreux, et même si j’aimerais me considérer comme une exception, je comprends pourquoi on préférerait des garde-fous plus efficaces », écrit-il.

Outre sa mise en retrait, il annonce le transfert de la marque et des autres éléments qui pourraient relever de sa propriété intellectuelle à la structure de droit allemand qui chapeaute aujourd’hui le projet d’un point de vue administratif, Mastodon gGmbH. Ces actifs sont valorisés sous la forme d’une compensation fixée à 1 million d’euros, qui rétribue également le temps et les efforts du développeur au cours des dix dernières années.

« Nous lui sommes profondément reconnaissants pour ses contributions passées et nous attendons avec intérêt ses contributions futures », salue le trio chargé de prendre le relais.

Un triumvirat à la tête d’une structure renflouée

Mastodon annonce en effet que la place de CEO laissée vacante est reprise par Felix Hlatky comme directeur exécutif, Renaud Chaput toujours sous la casquette de directeur technique et Hannah Aubry en tant que directrice de la communauté. Tous déjà impliqués de façon opérationnelle dans la gestion de Mastodon, ils sont associés à un collège étendu, au sein duquel figure donc Eugen Rochko, et appellent toutes les bonnes volontés à se manifester pour renforcer la dimension communautaire de cette gouvernance.

L’équipe souligne par ailleurs disposer de moyens renforcés pour soutenir le développement de Mastodon. Outre le lancement récent de son offre de services payants à destination des gestionnaires d’instance, elle se réjouit par ailleurs du succès de sa récente campagne de dons, qui a notamment permis de recueillir 2,2 millions d’euros de la part de Jeff Atwood (fondateur de Stack Overflow), ainsi que des contributions de quelques personnalités du milieu comme Biz Stone (cofondateur de Twitter) ou Craig Newmark (fondateur du site craigslist). Elle salue par ailleurs les dons de particuliers, tout en précisant que toutes ces contributions individuelles sont exclusivement mises au service des opérations de Mastodon, qui représentent 337 000 euros de dépenses sur douze mois (de septembre 2024 à 2025).

Transfert en cours vers une association à but non lucratif de droit belge

Mastodon explique par ailleurs toujours plancher sur le transfert de ses activités vers une nouvelle structure. Annoncée en début d’année, cette évolution fait suite à la perte du statut d’entreprise à but non lucratif en Allemagne, du fait d’une non-reconnaissance de l’objet de la société comme étant d’intérêt général. Mastodon, qui fait appel à une structure basée aux États-Unis pour assurer l’intérim, confirme l’hypothèse envisagée en début d’année par Renaud Chaput dans les colonnes de Next : la transformation en une association internationale à but non lucratif de droit belge (AISBL).

« L’organisme américain à but non lucratif 501(c)(3) continue de jouer un rôle d’intermédiaire stratégique et de centre de collecte de fonds. Cet organisme détiendra la marque et d’autres actifs à titre de solution transitoire en attendant la mise en place de l’AISBL. », précise à ce niveau Mastodon.

☕️ Yann LeCun confirme son départ de Meta pour créer sa propre startup IA

20 novembre 2025 à 07:54

Après douze ans chez Meta, Yann LeCun tirera sa révérence en fin d’année. Le Français, prix Turing et professeur d’informatique à l’université de New York, annonce qu’il prépare la création d’une nouvelle startup, au sein de laquelle il poursuivra ses recherches autour de l’Advanced Machine Intelligence. « L’objectif de cette start-up est de provoquer la prochaine grande révolution dans le domaine de l’IA : des systèmes qui comprennent le monde physique, possèdent une mémoire persistante, peuvent raisonner et planifier des séquences d’actions complexes », décrit l’intéressé dans un post LinkedIn publié mercredi soir.

Yann LeCun, considéré comme l’une des personnalités scientifiques les plus en vue dans le domaine de l’IA, a créé en 2013 et dirigé depuis le laboratoire de recherche fondamentale de Meta en matière d’IA, baptisé FAIR (pour Fundamental AI Research). Il était également depuis sept ans responsable des activités scientifiques IA de Meta (Chief AI Scientist).

L’annonce de son départ, éventée le 11 novembre dernier par le Financial Times, intervient alors que Meta vient de procéder à plusieurs mouvements de réorganisation au sein de ses équipes IA suite à la prise de contrôle de Scale AI (un spécialiste de l’annotation de données), réalisée cet été en échange de 14,3 milliards de dollars.

Alexandr Wang, l’ancien dirigeant de Scale AI, est devenu en août Chief AI Officer et a lancé une restructuration des activités associées en quatre pôles. FAIR reste l’un des quatre pôles en question, mais c’est une autre équipe qui est officiellement chargée de courir après l’objectif de la superintelligence personnelle, réclamée par Mark Zuckerberg. Fin octobre, la division FAIR a connu une réduction significative de voilure, avec 600 postes supprimés.

De quoi étayer les rumeurs qui évoquaient déjà l’hypothèse d’un départ prochain de Yann LeCun. Ce dernier semble cependant enclin à conserver des liens avec Meta. Dans son billet d’annonce, il remercie Mark Zuckerberg et trois autres membres de la direction de Meta, pour leur soutien continu à son laboratoire et à la recherche autour de l’AMI. « Grâce à leur intérêt et à leur soutien constants, Meta sera partenaire de la nouvelle société », indique-t-il.

Aucune indication n’est donnée à ce stade sur les objectifs commerciaux, les capitaux ou l’équipe que pourrait réunir Yann LeCun.

Reçu avant avant-hier

OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

18 novembre 2025 à 16:27
Charbons ardents
OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

OpCore, la coentreprise réunissant le Groupe iliad et des fonds gérés par InfraVia Capital Partners, devrait pouvoir exploiter l’un des sites industriels d’EDF pour développer un datacenter représentant une puissance électrique de plusieurs centaines de MW. Le site retenu est l’ancienne centrale charbon EDF de Montereau-Vallée-de-la-Seine.

EDF et OpCore ont annoncé lundi leur entrée en négociations préalable à l’implantation d’un datacenter de grande capacité sur l’un des sites industriels proposés clés en main par l’énergéticien. C’est l’ancienne centrale charbon dite de Montereau en Seine-et-Marne qui a été retenue pour ce qui s’annonce comme un complexe de grande envergure. Le site se situe en réalité à cheval sur les communes de Vernou-La-Celle-sur-Seine et La Grande Paroisse.

Les deux partenaires évoquent une infrastructure équivalente à « plusieurs centaines de mégawatts » de puissance électrique, avec une enveloppe globale dont le montant se situerait, pour OpCore, aux alentours de 4 milliards d’euros.

OpCore (anciennement Scaleway Datacenter) est pour mémoire depuis le printemps une coentreprise entre le groupe iliad (maison mère de l’opérateur Free) et le fonds d’infrastructure français InfraVia.

Jusqu’à 700 MW sur 20 hectares

Dans leur communiqué d’annonce conjoint, diffusé le jour d’un événement dédié à l’investissement en France organisé par l’Élysée (Choose France, mais dans une édition destinée aux acteurs français), les deux partenaires restent volontairement évasifs sur les chiffres. La mèche avait cependant été vendue fin juillet par James Chéron, le maire de Montereau-Fault-Yonne, qui précisait alors que le projet correspondait à une puissance électrique maximale de 700 MW, et à une surface au sol d’environ 20 hectares.

Présenté comme « l’un des centres de calcul les plus importants d’Europe », le projet « constituera un atout majeur pour soutenir l’émergence d’une filière française et européenne d’excellence dans l’intelligence artificielle, et renforcera la souveraineté numérique du continent », vantent les deux partenaires. La finalité précise et les modalités de commercialisation des ressources informatiques mises en œuvre ne sont pas évoquées à ce stade, ce qui n’empêche pas EDF et OpCore d’affirmer que ce datacenter « permettra de créer plusieurs centaines d’emplois locaux, directs et indirects ».

« L’investissement se compte en milliards d’euros et notre vallée de la Seine peut être fière de la mise en œuvre de cette formidable ambition, qui participera à la constitution et au renforcement d’un cluster avec notamment le centre de recherche des Renardières et le Campus Énergie Durable », se réjouissait quant à lui le maire de Montereau.

Un projet vertueux ?

L’annonce par voie de communiqué a été doublée d’une conférence de presse organisée sur le site, pendant laquelle les porteurs de projet ont défendu son caractère vertueux. D’après Jean-Louis Thiériot, député de Seine-et-Marne, la construction du datacenter n’engendrerait aucune artificialisation des sols, puisque les bâtiments seraient construits sur l’emprise de l’ancienne centrale à charbon.

Les porteurs de projet auraient par ailleurs évoqué un refroidissement en circuit fermé, sans prélèvements d’eau extérieure, une réutilisation de la chaleur fatale via des usages locaux, et une utilisation d’électricité décarbonée. « C’est maintenant aux communautés de communes, en charge de l’activité économique, de faire croître un écosystème favorable avec les entreprises du secteur », veut croire le député. Les activités économiques les plus proches du site sont pour l’instant un fournisseur de granulats et un site de stockage de grains.

L’ancienne centrale thermique, retenue pour le datacenter, est à proximité immédiate de la Seine et voisine du poste électrique du Chesnoy – capture d’écran Next, carte OpenStreetMap

La mise en service de ce datacenter serait programmée à partir de 2027 avec, sans doute, un déploiement par tranches. Outre le soutien d’EDF, le site bénéficie en effet du dispositif de raccordement fast track, voulu par le Gouvernement et approuvé en mai dernier par la Commission de régulation de l’énergie (CRE), qui permet « de demander un raccordement accéléré et sans limitation à la capacité du réseau ».

Le site de Montereau, qui accueille aujourd’hui deux turbines à combustion alimentées par du gaz, est raccordé « au réseau électrique national au travers du poste du Chesnoy (400 kV/225 kV/63 kV) », indique Wikipédia.

Le datacenter d’OpCore sera ainsi situé à une trentaine de kilomètres d’un autre projet très médiatisé et doté d’un budget dix fois plus important, le fameux Campus IA dont la concertation publique vient de s’achever autour de Fouju, toujours en Seine-et-Marne.

OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

18 novembre 2025 à 16:27
Charbons ardents
OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

OpCore, la coentreprise réunissant le Groupe iliad et des fonds gérés par InfraVia Capital Partners, devrait pouvoir exploiter l’un des sites industriels d’EDF pour développer un datacenter représentant une puissance électrique de plusieurs centaines de MW. Le site retenu est l’ancienne centrale charbon EDF de Montereau-Vallée-de-la-Seine.

EDF et OpCore ont annoncé lundi leur entrée en négociations préalable à l’implantation d’un datacenter de grande capacité sur l’un des sites industriels proposés clés en main par l’énergéticien. C’est l’ancienne centrale charbon dite de Montereau en Seine-et-Marne qui a été retenue pour ce qui s’annonce comme un complexe de grande envergure. Le site se situe en réalité à cheval sur les communes de Vernou-La-Celle-sur-Seine et La Grande Paroisse.

Les deux partenaires évoquent une infrastructure équivalente à « plusieurs centaines de mégawatts » de puissance électrique, avec une enveloppe globale dont le montant se situerait, pour OpCore, aux alentours de 4 milliards d’euros.

OpCore (anciennement Scaleway Datacenter) est pour mémoire depuis le printemps une coentreprise entre le groupe iliad (maison mère de l’opérateur Free) et le fonds d’infrastructure français InfraVia.

Jusqu’à 700 MW sur 20 hectares

Dans leur communiqué d’annonce conjoint, diffusé le jour d’un événement dédié à l’investissement en France organisé par l’Élysée (Choose France, mais dans une édition destinée aux acteurs français), les deux partenaires restent volontairement évasifs sur les chiffres. La mèche avait cependant été vendue fin juillet par James Chéron, le maire de Montereau-Fault-Yonne, qui précisait alors que le projet correspondait à une puissance électrique maximale de 700 MW, et à une surface au sol d’environ 20 hectares.

Présenté comme « l’un des centres de calcul les plus importants d’Europe », le projet « constituera un atout majeur pour soutenir l’émergence d’une filière française et européenne d’excellence dans l’intelligence artificielle, et renforcera la souveraineté numérique du continent », vantent les deux partenaires. La finalité précise et les modalités de commercialisation des ressources informatiques mises en œuvre ne sont pas évoquées à ce stade, ce qui n’empêche pas EDF et OpCore d’affirmer que ce datacenter « permettra de créer plusieurs centaines d’emplois locaux, directs et indirects ».

« L’investissement se compte en milliards d’euros et notre vallée de la Seine peut être fière de la mise en œuvre de cette formidable ambition, qui participera à la constitution et au renforcement d’un cluster avec notamment le centre de recherche des Renardières et le Campus Énergie Durable », se réjouissait quant à lui le maire de Montereau.

Un projet vertueux ?

L’annonce par voie de communiqué a été doublée d’une conférence de presse organisée sur le site, pendant laquelle les porteurs de projet ont défendu son caractère vertueux. D’après Jean-Louis Thiériot, député de Seine-et-Marne, la construction du datacenter n’engendrerait aucune artificialisation des sols, puisque les bâtiments seraient construits sur l’emprise de l’ancienne centrale à charbon.

Les porteurs de projet auraient par ailleurs évoqué un refroidissement en circuit fermé, sans prélèvements d’eau extérieure, une réutilisation de la chaleur fatale via des usages locaux, et une utilisation d’électricité décarbonée. « C’est maintenant aux communautés de communes, en charge de l’activité économique, de faire croître un écosystème favorable avec les entreprises du secteur », veut croire le député. Les activités économiques les plus proches du site sont pour l’instant un fournisseur de granulats et un site de stockage de grains.

L’ancienne centrale thermique, retenue pour le datacenter, est à proximité immédiate de la Seine et voisine du poste électrique du Chesnoy – capture d’écran Next, carte OpenStreetMap

La mise en service de ce datacenter serait programmée à partir de 2027 avec, sans doute, un déploiement par tranches. Outre le soutien d’EDF, le site bénéficie en effet du dispositif de raccordement fast track, voulu par le Gouvernement et approuvé en mai dernier par la Commission de régulation de l’énergie (CRE), qui permet « de demander un raccordement accéléré et sans limitation à la capacité du réseau ».

Le site de Montereau, qui accueille aujourd’hui deux turbines à combustion alimentées par du gaz, est raccordé « au réseau électrique national au travers du poste du Chesnoy (400 kV/225 kV/63 kV) », indique Wikipédia.

Le datacenter d’OpCore sera ainsi situé à une trentaine de kilomètres d’un autre projet très médiatisé et doté d’un budget dix fois plus important, le fameux Campus IA dont la concertation publique vient de s’achever autour de Fouju, toujours en Seine-et-Marne.

☕️ Lancement réussi pour le satellite d’observation des océans Copernicus Sentinel-6B

18 novembre 2025 à 09:18

L’Agence spatiale européenne (ESA) s’est félicitée lundi 17 novembre du succès du lancement d’un nouveau satellite dédié à la surveillance du niveau des océans, intégré au programme Copernicus.

Baptisé Sentinel-6B, ce nouvel appareil succède à Sentinel-6 Michael Freilich, lancé en 2020, et embarque « la dernière technologie d’altimétrie radar » pour mesurer et enregistrer en continu la hauteur de la surface de la mer, dans le prolongement des programmes dédiés initiés au début des années 1990.

« Outre la cartographie de la hauteur de la surface de la mer pour comprendre les changements à long terme, Copernicus Sentinel-6 fournit également des données pour des applications « opérationnelles » pratiques. Par exemple, la mission mesure la hauteur significative des vagues et la vitesse du vent, données qui sont utilisées pour les prévisions océaniques en temps quasi réel. Concrètement, l’altimétrie par satellite fournit les mesures les plus complètes disponibles à ce jour sur l’état de la mer », décrit l’Agence spatiale européenne.

Le lancement a été réalisé lundi matin vers 6h20 (heure de Paris) au moyen d’une fusée SpaceX Falcon 9 depuis la base spatiale de Vandenberg en Californie.

Le satellite Sentinel-6B en direction de son orbite de destination – crédit NASA/SpaceX

Outre l’intérêt scientifique de la mission, l’Agence spatiale européenne souligne également sa dimension collaborative, fruit d’une coopération internationale qui implique notamment deux agences gouvernementales américaines : la NOAA (National Oceanic and Atmospheric Administration) et la NASA (National Aeronautics and Space Administration).

« Cette réussite démontre ce qu’il est possible d’accomplir lorsque des agences et des industries internationales travaillent ensemble vers un objectif commun. Sentinel-6B nous permettra de continuer à collecter les données de haute précision nécessaires pour comprendre l’évolution de notre climat, protéger nos océans et soutenir les décisions qui protègent les communautés côtières à travers le monde », se réjouit Simonetta Cheli, directrice des programmes d’observation de la Terre à l’ESA.

Cet hommage appuyé à la collaboration internationale n’a rien d’un hasard : il intervient alors que les agences américaines impliquées dans la surveillance et l’étude du climat font l’objet d’attaques répétées de l’administration Trump.

☕️ Lancement réussi pour le satellite d’observation des océans Copernicus Sentinel-6B

18 novembre 2025 à 09:18

L’Agence spatiale européenne (ESA) s’est félicitée lundi 17 novembre du succès du lancement d’un nouveau satellite dédié à la surveillance du niveau des océans, intégré au programme Copernicus.

Baptisé Sentinel-6B, ce nouvel appareil succède à Sentinel-6 Michael Freilich, lancé en 2020, et embarque « la dernière technologie d’altimétrie radar » pour mesurer et enregistrer en continu la hauteur de la surface de la mer, dans le prolongement des programmes dédiés initiés au début des années 1990.

« Outre la cartographie de la hauteur de la surface de la mer pour comprendre les changements à long terme, Copernicus Sentinel-6 fournit également des données pour des applications « opérationnelles » pratiques. Par exemple, la mission mesure la hauteur significative des vagues et la vitesse du vent, données qui sont utilisées pour les prévisions océaniques en temps quasi réel. Concrètement, l’altimétrie par satellite fournit les mesures les plus complètes disponibles à ce jour sur l’état de la mer », décrit l’Agence spatiale européenne.

Le lancement a été réalisé lundi matin vers 6h20 (heure de Paris) au moyen d’une fusée SpaceX Falcon 9 depuis la base spatiale de Vandenberg en Californie.

Le satellite Sentinel-6B en direction de son orbite de destination – crédit NASA/SpaceX

Outre l’intérêt scientifique de la mission, l’Agence spatiale européenne souligne également sa dimension collaborative, fruit d’une coopération internationale qui implique notamment deux agences gouvernementales américaines : la NOAA (National Oceanic and Atmospheric Administration) et la NASA (National Aeronautics and Space Administration).

« Cette réussite démontre ce qu’il est possible d’accomplir lorsque des agences et des industries internationales travaillent ensemble vers un objectif commun. Sentinel-6B nous permettra de continuer à collecter les données de haute précision nécessaires pour comprendre l’évolution de notre climat, protéger nos océans et soutenir les décisions qui protègent les communautés côtières à travers le monde », se réjouit Simonetta Cheli, directrice des programmes d’observation de la Terre à l’ESA.

Cet hommage appuyé à la collaboration internationale n’a rien d’un hasard : il intervient alors que les agences américaines impliquées dans la surveillance et l’étude du climat font l’objet d’attaques répétées de l’administration Trump.

☕️ Carte Vitale dématérialisée : l’application dédiée est disponible pour tous

18 novembre 2025 à 07:51

Déjà disponible au travers du service France Identité, la carte Vitale dématérialisée dispose désormais de sa propre application, distribuée sur iOS et Android. Si cette dernière était déjà accessible aux utilisateurs de France Identité, elle l’est maintenant pour tous les internautes français, après installation de la dernière mise à jour éditée par le GIE SESAM-Vitale et sous réserve de disposer d’un smartphone compatible.

En pratique, l’appli carte Vitale a vocation à remplacer la carte verte et jaune physique que connaissent aujourd’hui les assurés : on peut ainsi simplement présenter son smartphone chez les professionnels de santé équipés d’un lecteur dédié (présentation d’un code QR ou identification via NFC), la sécurité étant assurée par le verrouillage de l’application (mot de passe à dix chiffres ou biométrie).

L’enrôlement suppose de vérifier l’identité de l’utilisateur. Pour ce faire, l’application propose deux options : soit une connexion à France Identité, si des documents d’identité officiels ont déjà été enregistrés sur le smartphone (on parle alors de dérivation d’une identité numérique déjà vérifiée), soit une vérification biométrique, qui suppose de photographier sa pièce d’identité, puis d’enregistrer une courte vidéo de son visage à des fins de contrôle. La vérification est dans ce contexte différée (le temps qu’un agent valide la demande) dans un délai maximal de 48 heures.

Au fait, pourquoi une application dédiée, alors que France Identité pourrait gérer la carte Vitale dématérialisée ? « L’appli carte Vitale est destinée à tous les assurés de l’Assurance maladie. L’application France Identité est accessible uniquement aux détenteurs d’une carte d’identité française nouveau format », répond l’Assurance maladie. Le client dédié permet par ailleurs de retrouver ses dépenses de soin.

Au chapitre des données, l’application n’est censée héberger aucune information à caractère médical. Elle contient en revanche les données dites de l’Assurance Maladie Obligatoire (AMO) pour l’assuré et ses bénéficiaires (conjoint, enfants), dont le numéro de sécurité sociale, les noms et prénoms, date de naissance, qualité et organisme de rattachement, ainsi que l’adresse email du compte ou espace assuré. « À terme, les données de l’Assurance Maladie Complémentaire (AMC) pourront être intégrées dans l’application. », précise le site dédié, sur lequel on peut consulter les conditions générales d’utilisation (CGU) associées.

Si les « professionnels de santé s’équipent progressivement afin de pouvoir lire l’appli carte Vitale », le déploiement est progressif. La carte Vitale physique, qui reste indispensable pour les assurés non détenteurs d’un smartphone, a donc sans doute encore de beaux jours devant elle. L’annuaire en ligne de l’Assurance maladie permet de vérifier si un professionnel ou centre de santé est équipé d’un lecteur compatible avec l’application carte Vitale.

Exemple d’une fiche de médecin sur l’annuaire Ameli – capture d’écran Next

☕️ Carte Vitale dématérialisée : l’application dédiée est disponible pour tous

18 novembre 2025 à 07:51

Déjà disponible au travers du service France Identité, la carte Vitale dématérialisée dispose désormais de sa propre application, distribuée sur iOS et Android. Si cette dernière était déjà accessible aux utilisateurs de France Identité, elle l’est maintenant pour tous les internautes français, après installation de la dernière mise à jour éditée par le GIE SESAM-Vitale et sous réserve de disposer d’un smartphone compatible.

En pratique, l’appli carte Vitale a vocation à remplacer la carte verte et jaune physique que connaissent aujourd’hui les assurés : on peut ainsi simplement présenter son smartphone chez les professionnels de santé équipés d’un lecteur dédié (présentation d’un code QR ou identification via NFC), la sécurité étant assurée par le verrouillage de l’application (mot de passe à dix chiffres ou biométrie).

L’enrôlement suppose de vérifier l’identité de l’utilisateur. Pour ce faire, l’application propose deux options : soit une connexion à France Identité, si des documents d’identité officiels ont déjà été enregistrés sur le smartphone (on parle alors de dérivation d’une identité numérique déjà vérifiée), soit une vérification biométrique, qui suppose de photographier sa pièce d’identité, puis d’enregistrer une courte vidéo de son visage à des fins de contrôle. La vérification est dans ce contexte différée (le temps qu’un agent valide la demande) dans un délai maximal de 48 heures.

Au fait, pourquoi une application dédiée, alors que France Identité pourrait gérer la carte Vitale dématérialisée ? « L’appli carte Vitale est destinée à tous les assurés de l’Assurance maladie. L’application France Identité est accessible uniquement aux détenteurs d’une carte d’identité française nouveau format », répond l’Assurance maladie. Le client dédié permet par ailleurs de retrouver ses dépenses de soin.

Au chapitre des données, l’application n’est censée héberger aucune information à caractère médical. Elle contient en revanche les données dites de l’Assurance Maladie Obligatoire (AMO) pour l’assuré et ses bénéficiaires (conjoint, enfants), dont le numéro de sécurité sociale, les noms et prénoms, date de naissance, qualité et organisme de rattachement, ainsi que l’adresse email du compte ou espace assuré. « À terme, les données de l’Assurance Maladie Complémentaire (AMC) pourront être intégrées dans l’application. », précise le site dédié, sur lequel on peut consulter les conditions générales d’utilisation (CGU) associées.

Si les « professionnels de santé s’équipent progressivement afin de pouvoir lire l’appli carte Vitale », le déploiement est progressif. La carte Vitale physique, qui reste indispensable pour les assurés non détenteurs d’un smartphone, a donc sans doute encore de beaux jours devant elle. L’annuaire en ligne de l’Assurance maladie permet de vérifier si un professionnel ou centre de santé est équipé d’un lecteur compatible avec l’application carte Vitale.

Exemple d’une fiche de médecin sur l’annuaire Ameli – capture d’écran Next

Ubisoft glisse « par erreur » une image générée par IA dans Anno 117

17 novembre 2025 à 16:46
« J’ai glissé chef »
Ubisoft glisse « par erreur » une image générée par IA dans Anno 117

Le dernier titre d’Ubisoft, Anno 117 : Pax Romana, s’est attiré les foudres de quelques internautes, déçus d’un visuel manifestement généré par IA. L’éditeur, qui informe publiquement que l’IA générative a été mise en œuvre dans le processus de développement du jeu, s’est excusé, affirmant que ce visuel avait été intégré par erreur dans la version finale du jeu. Ce faisant, il illustre une problématique de plus en plus criante, dans le jeu vidéo comme ailleurs : où placer le curseur ?

Attendu de longue date par les fans de cette série historique mêlant city builder et jeu de stratégie en temps réel, Anno 117 : Pax Romana est sorti le 13 novembre dernier. Alors que les jeux Anno sont généralement salués pour leur direction artistique de haut vol, sa découverte a occasionné quelques commentaires déçus chez les joueurs de la première heure : il apparait en effet que le studio Ubisoft Mainz a fait appel à une IA générative pour la création de certains éléments visuels apparaissant dans les cinématiques du jeu.

Avec, dans le lot, quelques scories bien visibles, notamment au niveau de l’un des écrans de chargement, comme ce banquet dont plusieurs personnages présentent des artefacts visuels caractéristiques telles que des mains tronquées, une absence de bras, ou un visage complètement écrasé.

Un placeholder malencontreux

« Malheureusement, les graphismes d’arrière-plan sont de qualité assez médiocre », s’est ému un internaute sur Reddit, peu de temps avant qu’un autre visuel n’émerge. Cette fois, il montre une assemblée de sénateurs romains, au milieu desquels émerge un personnage sans tête.

Contacté par Kotaku, Ubisoft a rapidement réagi au premier visuel incriminé, et plaidé l’erreur de bonne foi, tout en présentant un visuel corrigé, qui devrait être déployé au sein du jeu lors de la sortie du patch 1.3. « Cette image était une illustration provisoire qui a échappé à notre processus de validation », affirme l’éditeur avant de rappeler que le studio en charge d’Anno : 117 a « réuni la plus grande équipe d’artistes jamais créée pour la franchise ».

Ubisoft admet dans le même temps qu’afin de « répondre aux exigences uniques de ce projet », les membres de cette équipe « utilisent des outils d’IA pour les itérations, le prototypage et l’exploration ».

Cette mention spécifique à l’IA générative apparait également, pour la première fois chez Ubisoft, sur la fiche Steam dédiée au jeu :

« L’équipe de développement décrit l’utilisation de contenu généré par IA dans le jeu comme suit. Des outils d’IA ont été utilisés pour la création de certains éléments du jeu. Dans tous les cas, le produit final témoigne du savoir-faire et de la vision créative de notre équipe ».

Cinq jours après son lancement, le jeu reçoit des évaluations moyennement positives sur Steam, mais ce n’est pas le recours à l’IA générative qui est mis en cause : les joueurs se plaignent principalement de problèmes de connexion au multi. Sur Reddit en revanche, certains digèrent mal l’argument du placeholder (illustration provisoire), et regrettent que le studio emploie des procédés bas de gamme sur un jeu vendu plein tarif.

PC Gamer rappelle en outre que l’emploi de l’IA générative au sein d’Anno 117 avait déjà été questionné, au sujet des traductions cette fois. L’un des participants à la bêta s’était ainsi étonné que la version allemande du jeu présente des traductions approximatives ou grossières, alors même qu’Ubisoft a reçu un soutien financier de 5,7 millions d’euros de la part du gouvernement allemand autour de ce nouvel opus.

L’IA générative déjà largement répandue au sein des studios

Début 2023, Ubisoft avait communiqué ouvertement sur son intention de mettre à profit l’IA générative pour écrire la première mouture des dialogues des personnages non joueurs (PNJ) de certains de ses jeux vidéo.

La création de PNJ capables d’adapter leurs réponses aux comportements du joueur, grâce à l’IA générative, suscite d’ailleurs l’intérêt de la plupart des grands noms du secteur, de Square Enix à Microsoft, soutenus par NVIDIA qui fournit des kits de développement dédiés à ces problématiques d’animation de personnages.

Dans ces différents cas de figure, l’utilisation de l’IA générative est cependant associée à une promesse d’amélioration de la qualité perçue pour le joueur : les PNJ qu’il rencontre sont censés devenir plus intéressants. La bourde d’Ubisoft évoque cependant une approche plus productiviste, qui interroge sur son éventuelle propension à faire appel à des modèles pour réduire ses coûts de développement.

Et si 87 % des développeurs dans le monde du jeu vidéo recourent déjà à des modèles d’IA générative dans le cadre professionnel, d’après un sondage commandité par Google, certains acteurs semblent soucieux des éventuelles problématiques d’image associées. En mai dernier, Bloomberg a par exemple révélé que Take Two (Rockstar et 2K Games) et Electronic Arts avaient tous deux intégré un avertissement relatif à l’IA dans leur communication financière.

« L’essor des technologies d’intelligence artificielle dans notre secteur a influencé la production de jeux pour les développeurs et l’expérience de jeu pour les joueurs. L’utilisation de cette technologie émergente (…) soulève des questions sociales et éthiques susceptibles d’entraîner des préjudices juridiques et de réputation, ainsi que des responsabilités juridiques », faisait par exemple remarquer Take Two.

Ubisoft en plein virage stratégique ?

L’incident lié à Anno 117 intervient dans un contexte particulièrement complexe pour Ubisoft. L’entreprise a manqué à plusieurs reprises ses objectifs financiers, enregistre des pertes récurrentes, et se voit malmenée en bourse, alors même qu’elle a négocié au printemps le transfert de ses principales licences au sein d’une nouvelle coentreprise détenue avec son actionnaire chinois Tencent.

Vendredi, le groupe a déclenché un nouveau vent d’incertitude en annonçant à la dernière minute le décalage de la publication de ses résultats financiers et la suspension de la cotation de ses actions à la Bourse de Paris. L’entreprise n’a donné aucune explication quant à la cause de cet événement exceptionnel, ouvrant la voie à toutes les rumeurs, dont l’hypothèse d’un rachat, soit par Tencent, soit par un autre acteur du secteur.

Ubisoft glisse « par erreur » une image générée par IA dans Anno 117

17 novembre 2025 à 16:46
« J’ai glissé chef »
Ubisoft glisse « par erreur » une image générée par IA dans Anno 117

Le dernier titre d’Ubisoft, Anno 117 : Pax Romana, s’est attiré les foudres de quelques internautes, déçus d’un visuel manifestement généré par IA. L’éditeur, qui informe publiquement que l’IA générative a été mise en œuvre dans le processus de développement du jeu, s’est excusé, affirmant que ce visuel avait été intégré par erreur dans la version finale du jeu. Ce faisant, il illustre une problématique de plus en plus criante, dans le jeu vidéo comme ailleurs : où placer le curseur ?

Attendu de longue date par les fans de cette série historique mêlant city builder et jeu de stratégie en temps réel, Anno 117 : Pax Romana est sorti le 13 novembre dernier. Alors que les jeux Anno sont généralement salués pour leur direction artistique de haut vol, sa découverte a occasionné quelques commentaires déçus chez les joueurs de la première heure : il apparait en effet que le studio Ubisoft Mainz a fait appel à une IA générative pour la création de certains éléments visuels apparaissant dans les cinématiques du jeu.

Avec, dans le lot, quelques scories bien visibles, notamment au niveau de l’un des écrans de chargement, comme ce banquet dont plusieurs personnages présentent des artefacts visuels caractéristiques telles que des mains tronquées, une absence de bras, ou un visage complètement écrasé.

Un placeholder malencontreux

« Malheureusement, les graphismes d’arrière-plan sont de qualité assez médiocre », s’est ému un internaute sur Reddit, peu de temps avant qu’un autre visuel n’émerge. Cette fois, il montre une assemblée de sénateurs romains, au milieu desquels émerge un personnage sans tête.

Contacté par Kotaku, Ubisoft a rapidement réagi au premier visuel incriminé, et plaidé l’erreur de bonne foi, tout en présentant un visuel corrigé, qui devrait être déployé au sein du jeu lors de la sortie du patch 1.3. « Cette image était une illustration provisoire qui a échappé à notre processus de validation », affirme l’éditeur avant de rappeler que le studio en charge d’Anno : 117 a « réuni la plus grande équipe d’artistes jamais créée pour la franchise ».

Ubisoft admet dans le même temps qu’afin de « répondre aux exigences uniques de ce projet », les membres de cette équipe « utilisent des outils d’IA pour les itérations, le prototypage et l’exploration ».

Cette mention spécifique à l’IA générative apparait également, pour la première fois chez Ubisoft, sur la fiche Steam dédiée au jeu :

« L’équipe de développement décrit l’utilisation de contenu généré par IA dans le jeu comme suit. Des outils d’IA ont été utilisés pour la création de certains éléments du jeu. Dans tous les cas, le produit final témoigne du savoir-faire et de la vision créative de notre équipe ».

Cinq jours après son lancement, le jeu reçoit des évaluations moyennement positives sur Steam, mais ce n’est pas le recours à l’IA générative qui est mis en cause : les joueurs se plaignent principalement de problèmes de connexion au multi. Sur Reddit en revanche, certains digèrent mal l’argument du placeholder (illustration provisoire), et regrettent que le studio emploie des procédés bas de gamme sur un jeu vendu plein tarif.

PC Gamer rappelle en outre que l’emploi de l’IA générative au sein d’Anno 117 avait déjà été questionné, au sujet des traductions cette fois. L’un des participants à la bêta s’était ainsi étonné que la version allemande du jeu présente des traductions approximatives ou grossières, alors même qu’Ubisoft a reçu un soutien financier de 5,7 millions d’euros de la part du gouvernement allemand autour de ce nouvel opus.

L’IA générative déjà largement répandue au sein des studios

Début 2023, Ubisoft avait communiqué ouvertement sur son intention de mettre à profit l’IA générative pour écrire la première mouture des dialogues des personnages non joueurs (PNJ) de certains de ses jeux vidéo.

La création de PNJ capables d’adapter leurs réponses aux comportements du joueur, grâce à l’IA générative, suscite d’ailleurs l’intérêt de la plupart des grands noms du secteur, de Square Enix à Microsoft, soutenus par NVIDIA qui fournit des kits de développement dédiés à ces problématiques d’animation de personnages.

Dans ces différents cas de figure, l’utilisation de l’IA générative est cependant associée à une promesse d’amélioration de la qualité perçue pour le joueur : les PNJ qu’il rencontre sont censés devenir plus intéressants. La bourde d’Ubisoft évoque cependant une approche plus productiviste, qui interroge sur son éventuelle propension à faire appel à des modèles pour réduire ses coûts de développement.

Et si 87 % des développeurs dans le monde du jeu vidéo recourent déjà à des modèles d’IA générative dans le cadre professionnel, d’après un sondage commandité par Google, certains acteurs semblent soucieux des éventuelles problématiques d’image associées. En mai dernier, Bloomberg a par exemple révélé que Take Two (Rockstar et 2K Games) et Electronic Arts avaient tous deux intégré un avertissement relatif à l’IA dans leur communication financière.

« L’essor des technologies d’intelligence artificielle dans notre secteur a influencé la production de jeux pour les développeurs et l’expérience de jeu pour les joueurs. L’utilisation de cette technologie émergente (…) soulève des questions sociales et éthiques susceptibles d’entraîner des préjudices juridiques et de réputation, ainsi que des responsabilités juridiques », faisait par exemple remarquer Take Two.

Ubisoft en plein virage stratégique ?

L’incident lié à Anno 117 intervient dans un contexte particulièrement complexe pour Ubisoft. L’entreprise a manqué à plusieurs reprises ses objectifs financiers, enregistre des pertes récurrentes, et se voit malmenée en bourse, alors même qu’elle a négocié au printemps le transfert de ses principales licences au sein d’une nouvelle coentreprise détenue avec son actionnaire chinois Tencent.

Vendredi, le groupe a déclenché un nouveau vent d’incertitude en annonçant à la dernière minute le décalage de la publication de ses résultats financiers et la suspension de la cotation de ses actions à la Bourse de Paris. L’entreprise n’a donné aucune explication quant à la cause de cet événement exceptionnel, ouvrant la voie à toutes les rumeurs, dont l’hypothèse d’un rachat, soit par Tencent, soit par un autre acteur du secteur.

☕️ Blue Origin réussit à récupérer le propulseur de sa fusée New Glenn

14 novembre 2025 à 11:47

Pour une fois, Elon Musk n’a pas commenté. Blue Origin, l’entreprise spatiale de Jeff Bezos et grande concurrente de SpaceX, a bouclé avec succès, jeudi 13 novembre, le deuxième vol de sa fusée New Glenn.

Pour Blue Origin, la mission NG-2 est un succès à double titre. D’abord, parce que le deuxième étage de la fusée a transporté et déployé avec succès les deux sondes spatiales de la NASA qui constituaient sa charge utile.

Ensuite, parce que le premier étage de la fusée est revenu se poser sans encombre sur une barge située dans l’océan Atlantique, ce qui devrait permettre à l’entreprise de réutiliser son lanceur, avec à la clé une réduction des coûts associés à chaque vol et une potentielle accélération de la cadence de tir.

La fusée New Glenn a pris son envol jeudi 13 novembre à 21h55, heure de Paris, depuis le Complex 36 de Cap Canaveral. Au terme de la diffusion en direct du décollage, Blue Origin a rapidement annoncé le succès de la mission, en soulignant que l’entreprise disposait à la fois d’un carnet de commandes et d’un calendrier de production bien remplis pour les années à venir. Blue Origin compte parmi ses clients la NASA, Viasat, AST SpaceMobile et bien sûr Amazon, entre autres opérateurs spécialisés.

La fusée NG-2 sur son pas de tir de Cap Canaveral le 8 novembre dernier – crédit Blue Origin

« Aujourd’hui a été une journée exceptionnelle pour l’équipe de New Glenn, marquant le début d’une nouvelle ère pour Blue Origin et l’ensemble du secteur. Nous nous préparons à lancer, atterrir et recommencer sans cesse, déclare Jordan Charles, vice-président de la division New Glenn chez Blue Origin. Nous avons réalisé des progrès considérables en matière de production, en anticipant les besoins. Notre priorité demeure l’augmentation de notre cadence et la réalisation de nos objectifs. »

Rappelons que le vol inaugural de New Glenn, réalisé en janvier dernier, avait réussi à atteindre l’orbite spatiale, mais la tentative de récupération du lanceur avait échoué. New Glenn est la première fusée orbitale de Blue Origin, dont le programme commercial se limitait jusqu’ici à la fusée New Shepard. Destinée à des vols touristiques, celle-ci se contente de franchir la ligne de Karmán, à 100 km d’altitude. Elle a réalisé son 36e vol le 8 octobre dernier.


Le duo de sondes mis en orbite par NG-2 a vocation à voyager jusqu’à Mars dans le cadre d’une mission scientifique baptisée Escapade, pour Escape and Plasma Acceleration and Dynamics Explorers, pensée comme une étude préalable à d’éventuels voyages vers la planète rouge.

« Ses deux orbiteurs jumeaux effectueront des observations simultanées depuis différents points autour de Mars. Ces observations révéleront la réponse en temps réel de la planète aux conditions météorologiques spatiales et l’évolution de sa magnétosphère, en analysant comment le champ magnétique martien guide les flux de particules autour de la planète, comment l’énergie et la quantité de mouvement sont transportées du vent solaire à travers la magnétosphère, et quels processus contrôlent les flux d’énergie et de matière entrant et sortant de l’atmosphère martienne », indique la NASA.

☕️ Blue Origin réussit à récupérer le propulseur de sa fusée New Glenn

14 novembre 2025 à 11:47

Pour une fois, Elon Musk n’a pas commenté. Blue Origin, l’entreprise spatiale de Jeff Bezos et grande concurrente de SpaceX, a bouclé avec succès, jeudi 13 novembre, le deuxième vol de sa fusée New Glenn.

Pour Blue Origin, la mission NG-2 est un succès à double titre. D’abord, parce que le deuxième étage de la fusée a transporté et déployé avec succès les deux sondes spatiales de la NASA qui constituaient sa charge utile.

Ensuite, parce que le premier étage de la fusée est revenu se poser sans encombre sur une barge située dans l’océan Atlantique, ce qui devrait permettre à l’entreprise de réutiliser son lanceur, avec à la clé une réduction des coûts associés à chaque vol et une potentielle accélération de la cadence de tir.

La fusée New Glenn a pris son envol jeudi 13 novembre à 21h55, heure de Paris, depuis le Complex 36 de Cap Canaveral. Au terme de la diffusion en direct du décollage, Blue Origin a rapidement annoncé le succès de la mission, en soulignant que l’entreprise disposait à la fois d’un carnet de commandes et d’un calendrier de production bien remplis pour les années à venir. Blue Origin compte parmi ses clients la NASA, Viasat, AST SpaceMobile et bien sûr Amazon, entre autres opérateurs spécialisés.

La fusée NG-2 sur son pas de tir de Cap Canaveral le 8 novembre dernier – crédit Blue Origin

« Aujourd’hui a été une journée exceptionnelle pour l’équipe de New Glenn, marquant le début d’une nouvelle ère pour Blue Origin et l’ensemble du secteur. Nous nous préparons à lancer, atterrir et recommencer sans cesse, déclare Jordan Charles, vice-président de la division New Glenn chez Blue Origin. Nous avons réalisé des progrès considérables en matière de production, en anticipant les besoins. Notre priorité demeure l’augmentation de notre cadence et la réalisation de nos objectifs. »

Rappelons que le vol inaugural de New Glenn, réalisé en janvier dernier, avait réussi à atteindre l’orbite spatiale, mais la tentative de récupération du lanceur avait échoué. New Glenn est la première fusée orbitale de Blue Origin, dont le programme commercial se limitait jusqu’ici à la fusée New Shepard. Destinée à des vols touristiques, celle-ci se contente de franchir la ligne de Karmán, à 100 km d’altitude. Elle a réalisé son 36e vol le 8 octobre dernier.


Le duo de sondes mis en orbite par NG-2 a vocation à voyager jusqu’à Mars dans le cadre d’une mission scientifique baptisée Escapade, pour Escape and Plasma Acceleration and Dynamics Explorers, pensée comme une étude préalable à d’éventuels voyages vers la planète rouge.

« Ses deux orbiteurs jumeaux effectueront des observations simultanées depuis différents points autour de Mars. Ces observations révéleront la réponse en temps réel de la planète aux conditions météorologiques spatiales et l’évolution de sa magnétosphère, en analysant comment le champ magnétique martien guide les flux de particules autour de la planète, comment l’énergie et la quantité de mouvement sont transportées du vent solaire à travers la magnétosphère, et quels processus contrôlent les flux d’énergie et de matière entrant et sortant de l’atmosphère martienne », indique la NASA.

☕️ Ubuntu porte à 15 ans l’option payante de support des versions LTS

14 novembre 2025 à 07:59

Canonical vient de porter à quinze ans la durée maximale de support qu’il est possible d’obtenir, en payant, sur les versions LTS (Long Term Support) de la distribution Ubuntu. L’éditeur a en effet annoncé jeudi 13 novembre que l’option « Legacy Support », qui offrait initialement deux ans de support supplémentaires, sera désormais valable pour un maximum de cinq ans. Lancée au printemps 2024, cette offre de service destinée aux professionnels est facturée comme une option supplémentaire au support étendu Ubuntu Pro.

La durée maximale du support passe ainsi de douze à quinze ans. D’abord, les cinq ans de support standard associés aux versions LTS d’Ubuntu (dont la prochaine itération sortira en avril 2026). Ensuite, les cinq ans de support étendu, accessibles de façon payante via l’offre Ubuntu Pro. Enfin, les cinq années supplémentaires associées à cette option Legacy Support, facturée sous la forme d’un surcoût de 50 % par rapport à l’abonnement Ubuntu Pro, précise Canonical.

« Une infrastructure est complexe et les mises à niveau engendrent des coûts et des risques réels. Cette extension tient compte de ces réalités et vous offre la durée de support nécessaire à vos déploiements », vante l’éditeur.

Un maximum de quinze ans de support est proposé (en combinant deux options payantes) à partir d’Ubuntu 14.04 LTS – crédit Canonical

☕️ Ubuntu porte à 15 ans l’option payante de support des versions LTS

14 novembre 2025 à 07:59

Canonical vient de porter à quinze ans la durée maximale de support qu’il est possible d’obtenir, en payant, sur les versions LTS (Long Term Support) de la distribution Ubuntu. L’éditeur a en effet annoncé jeudi 13 novembre que l’option « Legacy Support », qui offrait initialement deux ans de support supplémentaires, sera désormais valable pour un maximum de cinq ans. Lancée au printemps 2024, cette offre de service destinée aux professionnels est facturée comme une option supplémentaire au support étendu Ubuntu Pro.

La durée maximale du support passe ainsi de douze à quinze ans. D’abord, les cinq ans de support standard associés aux versions LTS d’Ubuntu (dont la prochaine itération sortira en avril 2026). Ensuite, les cinq ans de support étendu, accessibles de façon payante via l’offre Ubuntu Pro. Enfin, les cinq années supplémentaires associées à cette option Legacy Support, facturée sous la forme d’un surcoût de 50 % par rapport à l’abonnement Ubuntu Pro, précise Canonical.

« Une infrastructure est complexe et les mises à niveau engendrent des coûts et des risques réels. Cette extension tient compte de ces réalités et vous offre la durée de support nécessaire à vos déploiements », vante l’éditeur.

Un maximum de quinze ans de support est proposé (en combinant deux options payantes) à partir d’Ubuntu 14.04 LTS – crédit Canonical

Google (re)lance Cameyo pour des applications Windows sur Chrome ou ChromeOS

13 novembre 2025 à 10:15
Une pierre dans le jardin de Parallels
Google (re)lance Cameyo pour des applications Windows sur Chrome ou ChromeOS

Google poursuit son offensive en direction du marché entreprise avec le lancement de Cameyo, une solution de virtualisation permettant d’utiliser des clients lourds au sein de son navigateur Web Chrome ou du système d’exploitation dérivé de ce dernier, ChromeOS.

Légers, endurants et abordables, les ordinateurs Chromebook de Google souffrent d’une limitation inhérente à leur système d’exploitation, dérivé du navigateur Chrome : l’impossibilité d’exécuter nativement des logiciels conçus pour Windows. Une carence que pallient les solutions de type VDI (Virtual Desktop Interface) ou DaaS (Desktop as a Service), qui tirent parti de la virtualisation pour proposer l’accès, en local, à un environnement exécuté dans le cloud.

Virtualiser l’app plutôt que l’environnement

Mais pourquoi virtualiser une instance complète de Windows quand on peut se contenter de simplement exécuter à distance une application ? C’est ce constat qui a motivé, en juin 2024, le rachat par Google de l’éditeur spécialisé Cameyo.

Fondée en 2010 aux États-Unis, cette entreprise explore en effet une approche plus ciblée, dite VAD, pour Virtual Application Delivery, qui consiste donc à ne virtualiser qu’un seul logiciel, par opposition à un système d’exploitation. Cameyo a d’abord travaillé sur des exécutables combinant l’application ciblée et l’environnement nécessaire à sa virtualisation, avant d’embrasser la vague du cloud et de travailler à l’intégration au sein du navigateur Web.

C’est dans ce contexte que Cameyo s’est progressivement rapprochée de Google, pour proposer la mise à disposition de clients lourds Windows au sein de Chrome et de ChromeOS. Les deux entreprises ont notamment collaboré autour de la prise en charge, par Cameyo, du système de fichiers local de ChromeOS, du presse-papier et de la capacité à délivrer les applications virtualisées sous forme de PWA (Progressive Web Apps).

Suite au rachat, Cameyo a disparu des radars pendant plusieurs mois, et fait désormais son retour sous forme d’une offre intégrée au catalogue des solutions entreprises de Google.

« Avec Cameyo by Google, toutes vos applications sont plus faciles à déployer et à gérer, et aussi plus sécurisées. Vos collaborateurs peuvent accéder à leurs applications habituelles où qu’ils se trouvent, sans aucune formation supplémentaire. En transférant tout votre travail sur le Web, vous avez toutes les cartes en main pour relever les défis de demain », vante le moteur de recherche.

Un lancement opportun

Google avance trois avantages principaux : une sécurité accrue, grâce à la séparation entre l’appareil et l’application employée (principe du Zero Trust), un coût total de possession (TCO) réduit dans la mesure où la virtualisation intervient sur un périmètre plus restreint, et un confort accru pour l’utilisateur final, qui peut par cet intermédiaire accéder à ses applications métier directement dans son navigateur. À ces arguments s’ajoutent bien sûr les potentielles économies engendrées par le passage d’un parc de machines Windows à des Chromebook ou autres ordinateurs équipés des outils logiciels de Google.

« Contrairement aux écosystèmes d’entreprise tout ou rien, la suite Google pour entreprises ne vous oblige pas à abandonner vos investissements existants au nom de la modernisation. Au contraire, elle vous offre la liberté de moderniser les différentes couches de votre infrastructure à votre rythme, en fonction des besoins de votre entreprise, tout en conservant l’accès à vos investissements technologiques existants », promet l’éditeur.

Cameyo est présentée comme la brique manquante dans l’éventail des solutions dédiées au poste client de la suite des outils maison – crédit Google

Le calendrier est sans doute propice au retour de Cameyo. D’un côté, la fin du support de Windows 10 et la politique commerciale de Microsoft autour du support étendu suscitent de nombreuses critiques. De l’autre, Google Workspace occupe déjà des positions significatives sur le marché entreprise, en se présentant très directement comme une alternative à Microsoft 365 et à la messagerie Exchange. Google a par ailleurs le champ libre pour avancer ses pions sur le marché de la virtualisation dédiée à ChromeOS, puisque le développement de Parallels Desktop pour ChromeOS a été arrêté, avec une fin de support programmée au 21 avril 2026.

Google ne communique à ce stade aucun prix public relatif à l’offre de virtualisation Cameyo.

Google (re)lance Cameyo pour des applications Windows sur Chrome ou ChromeOS

13 novembre 2025 à 10:15
Une pierre dans le jardin de Parallels
Google (re)lance Cameyo pour des applications Windows sur Chrome ou ChromeOS

Google poursuit son offensive en direction du marché entreprise avec le lancement de Cameyo, une solution de virtualisation permettant d’utiliser des clients lourds au sein de son navigateur Web Chrome ou du système d’exploitation dérivé de ce dernier, ChromeOS.

Légers, endurants et abordables, les ordinateurs Chromebook de Google souffrent d’une limitation inhérente à leur système d’exploitation, dérivé du navigateur Chrome : l’impossibilité d’exécuter nativement des logiciels conçus pour Windows. Une carence que pallient les solutions de type VDI (Virtual Desktop Interface) ou DaaS (Desktop as a Service), qui tirent parti de la virtualisation pour proposer l’accès, en local, à un environnement exécuté dans le cloud.

Virtualiser l’app plutôt que l’environnement

Mais pourquoi virtualiser une instance complète de Windows quand on peut se contenter de simplement exécuter à distance une application ? C’est ce constat qui a motivé, en juin 2024, le rachat par Google de l’éditeur spécialisé Cameyo.

Fondée en 2010 aux États-Unis, cette entreprise explore en effet une approche plus ciblée, dite VAD, pour Virtual Application Delivery, qui consiste donc à ne virtualiser qu’un seul logiciel, par opposition à un système d’exploitation. Cameyo a d’abord travaillé sur des exécutables combinant l’application ciblée et l’environnement nécessaire à sa virtualisation, avant d’embrasser la vague du cloud et de travailler à l’intégration au sein du navigateur Web.

C’est dans ce contexte que Cameyo s’est progressivement rapprochée de Google, pour proposer la mise à disposition de clients lourds Windows au sein de Chrome et de ChromeOS. Les deux entreprises ont notamment collaboré autour de la prise en charge, par Cameyo, du système de fichiers local de ChromeOS, du presse-papier et de la capacité à délivrer les applications virtualisées sous forme de PWA (Progressive Web Apps).

Suite au rachat, Cameyo a disparu des radars pendant plusieurs mois, et fait désormais son retour sous forme d’une offre intégrée au catalogue des solutions entreprises de Google.

« Avec Cameyo by Google, toutes vos applications sont plus faciles à déployer et à gérer, et aussi plus sécurisées. Vos collaborateurs peuvent accéder à leurs applications habituelles où qu’ils se trouvent, sans aucune formation supplémentaire. En transférant tout votre travail sur le Web, vous avez toutes les cartes en main pour relever les défis de demain », vante le moteur de recherche.

Un lancement opportun

Google avance trois avantages principaux : une sécurité accrue, grâce à la séparation entre l’appareil et l’application employée (principe du Zero Trust), un coût total de possession (TCO) réduit dans la mesure où la virtualisation intervient sur un périmètre plus restreint, et un confort accru pour l’utilisateur final, qui peut par cet intermédiaire accéder à ses applications métier directement dans son navigateur. À ces arguments s’ajoutent bien sûr les potentielles économies engendrées par le passage d’un parc de machines Windows à des Chromebook ou autres ordinateurs équipés des outils logiciels de Google.

« Contrairement aux écosystèmes d’entreprise tout ou rien, la suite Google pour entreprises ne vous oblige pas à abandonner vos investissements existants au nom de la modernisation. Au contraire, elle vous offre la liberté de moderniser les différentes couches de votre infrastructure à votre rythme, en fonction des besoins de votre entreprise, tout en conservant l’accès à vos investissements technologiques existants », promet l’éditeur.

Cameyo est présentée comme la brique manquante dans l’éventail des solutions dédiées au poste client de la suite des outils maison – crédit Google

Le calendrier est sans doute propice au retour de Cameyo. D’un côté, la fin du support de Windows 10 et la politique commerciale de Microsoft autour du support étendu suscitent de nombreuses critiques. De l’autre, Google Workspace occupe déjà des positions significatives sur le marché entreprise, en se présentant très directement comme une alternative à Microsoft 365 et à la messagerie Exchange. Google a par ailleurs le champ libre pour avancer ses pions sur le marché de la virtualisation dédiée à ChromeOS, puisque le développement de Parallels Desktop pour ChromeOS a été arrêté, avec une fin de support programmée au 21 avril 2026.

Google ne communique à ce stade aucun prix public relatif à l’offre de virtualisation Cameyo.

❌