Vue lecture

Des neurones humains vivants jouent à Doom : derrière la hype, quelle réalité ?

Et le démineur ?
Des neurones humains vivants jouent à Doom : derrière la hype, quelle réalité ?

Depuis ce week-end, l’affaire fait les choux gras de la presse : des neurones humains apprendraient à jouer à Doom. L’« annonce » fait un carton au bingo bullshit 2026 : Doom, de l’intelligence artificielle et des neurones humains. La réalité est différente. Si l’histoire est intéressante, nous sommes loin d’un cerveau humain dans une boite de pétri maitrisant Doom.

La vidéo de Cortical Labs, qui développe des puces avec des cellules humaines, a déjà presque deux semaines. Même chose pour le dépôt GitHub du projet « doom-neuron » de Sean Cole, un développeur « partenaire » de Cortical Labs. On trouve aussi des actualités datant de plus d’une semaine parlant de 200 000 neurones humains « jouant » à Doom. C’est le cas de Tom’s Hardware ou de NewScientist, pour ne citer que ces deux-là.

Cortical Labs explique que la machine utilisée est une CL1 avec 200 000 « neurones humains vivants » installés sur une puce baptisée « multi-electrodes array », précise Alon Loeffler, scientifique et post-doctorant à Cortical Labs. Pour « jouer » à Doom, Sean Cole a utilisé une API mise à disposition par l’entreprise pour exploiter un de ses réseaux de neurones sur une machine CL1.

« Les cellules se comportent un peu comme un débutant »

Dans sa vidéo marketing de présentation, Cortical Labs explique que, avant d’utiliser ses puces, il faut d’abord « traduire le monde numérique apocalyptique de Doom dans le langage biologique des neurones, qui est l’électricité ». Pour faire simple, passer des éléments de l’image du jeu à des flux électriques. En effet, les neurones humains du CL1 ne « voient » pas vraiment le jeu via des caméras ou n’importe quel dispositif optique.

David Hogan, CTO de Cortical Labs, explique que « lorsqu’un démon apparait sur la gauche de l’écran, des électrodes bien précises stimulent la zone sensorielle des neurones sur le côté gauche. Les neurones réagissent et nous écoutons leur réponse (via des spikes [des pics électriques, ndlr]) et nous interprétons cette activité ». Suivant les réponses des neurones, le programme décide de tirer, de bouger, etc. :

« Est-ce un champion e-sport de Doom ? Absolument pas. Pour le moment, les cellules se comportent un peu comme un débutant qui n’a jamais vu d’ordinateur auparavant… et c’est le cas des neurones. Mais ils démontrent qu’ils peuvent trouver et tirer sur les ennemis. Et même s’ils meurent souvent, ils apprennent. »

L’entreprise explique qu’un des enjeux est de réussir à renvoyer un résultat aux neurones, une récompense en cas de bonne action (tuer un ennemi) ou au contraire un mauvais point s’ils ne font pas ce qu’il faut. Ce mécanisme ressemble à celui utilisé avec les intelligences artificielles. C’est du renforcement positif/négatif, par électrostimulation dans le cas présent.

ViZDoom ->_get_observation()-> réseau de neurones

La lecture rapide du code permet de comprendre les grandes lignes du fonctionnement du programme, qui est loin, très loin, de tourner entièrement sur un réseau de neurones humains.

La première étape exploite ViZDoom et, associée à la fonction _get_observation(), vise à transformer l’image du jeu (320 x 240 pixels) en données structurées pour la suite des opérations. On parle de la position du joueur, de son niveau de vie, de la présence de monstres, etc. Le tout est ensuite transformé en signaux prêts pour aller rendre visite aux neurones du CL1.

C’est donc seulement maintenant qu’intervient la seule et unique étape sur les réseaux de neurones humains vivants. Ces signaux sont alors envoyés aux électrodes du CL1 qui envoie des signaux électriques aux neurones.

Ces derniers font leur tambouille interne et génèrent des spikes (potentiels d’action) qui sont envoyés à l’ordinateur classique où un décodeur s’occupe de les transformer en actions comme avancer, tirer, se tourner, etc.

L’action est placée dans le jeu et une récompense est calculée pour faire un retour aux neurones. Il y a deux fonctions distinctes pour les bons et les mauvais points. L’amplitude du signal est la même dans les deux cas, mais en cas de mauvaise décision la fréquence et le nombre de pulsations sont plus élevés. Ce n’est pas tout, différentes électrodes (channels) sont utilisées suivant les cas.

Avec le CL1 c’est mieux que rien ou que de l’aléatoire

Dans le fichier ppo_doom.py, les lignes 918 à 932 sont intéressantes et parlent d’une fonction d’ablation pour vérifier que le réseau de neurones fait mieux que rien ou que de l’aléatoire. Il y a deux changements possibles : zero alors tous les spikes sont à 0, et random avec des valeurs aléatoires.

C’est un point important, comme le précise Sean Cole dès la première question de sa FAQ, qui se demande si ce n’est pas le décodeur qui fait tout le travail et si le réseau de neurones est donc réellement utile :

« Les images que vous voyez dans la vidéo ont été prises en utilisant un décodeur linéaire sans biais, ce qui signifie que l’action sélectionnée est une fonction linéaire des spikes produits par le CL1 ; c’est le CL1 qui fait l’apprentissage. Il y a une différence notable quand on utilise l’ablation (aussi bien les spikes aléatoires que nuls n’entraînent aucun apprentissage) par rapport aux vrais spikes du CL1. »

Un beau coup médiatique pour Cortical Labs

En conclusion, on peut dire que le réseau de neurones ne voit certainement pas le jeu Doom et ne le comprend pas. Le réseau produit des patterns électriques en fonction de données prémachées par l’encodeur et s’améliore sur le principe du renforcement positif/négatif. Avec les tests d’ablation, le développeur confirme que les neurones contribuent vraiment au système, que ce n’est pas juste un hasard.

Cortical Labs avait déjà fait parler d’elle en 2022 avec un réseau de neurones jouant à Pong, rien de vraiment neuf, si ce n’est la hype autour de Doom et la fameuse question qui revient toujours : « Will it run DOOM? ».

L’objectif visé par Cortical Labs n’est pas de battre les humains aux jeux vidéo, mais de « développer des architectures informatiques qui réduisent considérablement la consommation d’énergie tout en créant des outils pour accélérer la recherche médicale, supprimer les tests sur les animaux et améliorer la santé humaine pour tous ». Avec Doom, Cortical Labs s’assure là un bon coup marketing, et ça n’a pas loupé.

  •  

La guerre avec l’Iran aura-t-elle un impact sur les investissements dans la tech ?

Si vis pacem, para silicium
La guerre avec l’Iran aura-t-elle un impact sur les investissements dans la tech ?

Le conflit qui s’étend au Moyen-Orient aura-t-il des répercussions économiques sur l’industrie de la tech ? La question se pose à plus d’un titre : les puissances pétrolières du Golfe sont en effet à la fois une terre de datacenters pour les grands acteurs du numérique, et un partenaire financier de premier plan pour leurs projets d’infrastructures autour de l’IA.

Déclenchée par l’attaque des États-Unis et d’Israël le 28 février dernier, la guerre d’Iran a rapidement touché, à des niveaux divers, l’ensemble du Moyen-Orient, et aucune perspective de résolution rapide n’émerge, alors que les belligérants poursuivent leurs campagnes de bombardements respectives. Faut-il s’attendre à un conflit qui dure, à l’image de la guerre en Ukraine ? S’il se prolonge pendant des mois, voire des années, il aura vraisemblablement un impact direct sur l’économie du secteur de la tech et du numérique.

Répercussions inflationnistes

Analystes et commentateurs n’ont pas attendu longtemps pour élaborer leurs scénarios du pire. Le cabinet IDC a par exemple sorti dès le 2 mars une première étude visant à décrire et tenter de chiffrer les conséquences de la guerre sur l’industrie de l’IT.

Trois des six impacts identifiés vont dans le sens d’une accélération des dépenses et donc des investissements, ce qui peut être vu comme un signal positif pour le secteur. IDC évoque ainsi un renforcement des stratégies de résilience informatique en matière de cloud et de datacenter (pour se prémunir des interruptions de service telles que celle connue par Amazon Web Services dans ses zones Moyen-Orient) et une priorité accrue accordée aux problématiques de souveraineté. De la même façon, le cabinet s’attend à ce que le conflit entraîne une augmentation des investissements en matière de cybersécurité.

Du côté des conséquences négatives, IDC s’attend sans surprise à une hausse du coût de l’énergie, mais aussi à un ralentissement des dépenses d’équipement, a minima dans les pays directement concernés par le conflit. Outre ces répercussions inflationnistes, les analystes préviennent aussi d’un risque de tensions accrues sur la chaîne d’approvisionnement en équipements informatiques et en semiconducteurs.

« Si le Moyen-Orient est exposé à des risques immédiats, l’industrie informatique mondiale subira des répercussions indirectes à travers les coûts de l’énergie, l’approvisionnement en semi-conducteurs et les décisions d’allocation des capitaux », résument les analystes d’IDC.

Coup de frein sur les investissements à l’étranger ?

Le dernier point n’est pas trivial, loin de là. Les fonds souverains des Émirats arabes unis, du Qatar, d’Arabie saoudite ou du Koweït investissent en effet des sommes significatives dans de nombreux pans de l’économie mondiale. En France, on pense bien sûr aux hôtels parisiens ou aux clubs de foot, mais l’émirati MGX constitue aussi, par exemple, le principal financeur du projet Campus IA qui doit bientôt voir le jour en région parisienne, tandis que la compagnie pétrolière publique Saudi Aramco fait partie des actionnaires de Pasqal, désormais leader du quantique en France par sa valorisation.

MGX est de la même façon présenté comme l’un des partenaires de premier rang de plusieurs grands projets d’infrastructure portés par les poids lourds de la tech, dont OpenAI, Oracle et consorts via leurs différents projets Stargate, notamment sur le sol américain. MGX, encore, figure par ailleurs aux côtés de BlackRock et de Microsoft dans le tour de table d’un fonds d’investissement dédié aux infrastructures IA. En juin dernier, c’est le fonds souverain du Koweït qui a choisi d’abonder ce fonds.

Cette manne pourrait-elle s’interrompre ? Trois des quatre puissances pétrolières du Golfe envisagent ouvertement la possibilité de réviser leur trajectoire d’investissement, a révélé jeudi 4 mars le Financial Times.

« Plusieurs pays du Golfe ont entamé un examen interne afin de déterminer si des clauses de force majeure peuvent être invoquées dans les contrats en vigueur, tout en réexaminant leurs engagements d’investissement actuels et futurs dans le but d’atténuer les répercussions économiques prévues du conflit actuel », a déclaré un porte-parole au quotidien britannique.

La réflexion serait motivée par la crainte de revenus énergétiques en baisse (du fait par exemple des difficultés à livrer le pétrole et le gaz), mais aussi par la crainte d’un impact durable sur le tourisme et le transport aérien, deux secteurs particulièrement importants pour les économies du Golfe.

Quand stabilité rime avec prospérité

L’augmentation des dépenses de défense entrerait également en ligne de compte : les démêlés médiatiques des influenceurs français coincés à Dubaï ont contribué à montrer que les Émirats arabes Unis alimentaient par exemple un système anti-aérien bien plus ambitieux que ne le supposaient bon nombre d’observateurs. Les puissances pétrogazières n’en font pas un usage offensif, mais elles investissent en effet massivement dans l’armement.

Trois d’entre elles figurent dans le top dix des principaux importateurs d’armes au monde sur la période 2021 - 2025, indiquent les chiffres de l’Institut international de recherche sur la paix de Stockholm (Sipri). L’Arabie saoudite réalise 6,8 % des importations mondiales sur la période, suivie par le Qatar (6,4 %) et le Koweït (2,8 %), avec un approvisionnement issu majoritairement des États-Unis (54 %).

À ce stade, le porte-parole du Golfe évoque un raisonnement pragmatique, sans donner la moindre coloration politique à sa réaction. Difficile toutefois d’ignorer cette dernière : Donald Trump s’était rendu dans la région en mai dernier, accompagné d’un cortège de dirigeants, précisément dans le but d’améliorer les investissements croisés entre les pays du Moyen-Orient et les entreprises basées aux États-Unis. OpenAI était par exemple du voyage, qui a débouché sur l’annonce d’une infrastructure basée aux Émirats arabes unis.

En attendant une éventuelle prise de parole plus officielle, un entrepreneur émirati s’est fait le porte-parole d’une forme de ressentiment envers Donald Trump et sa décision unilatérale de déclencher une guerre avec l’Iran.

« Une question directe : qui vous a donné l’autorisation d’entraîner notre région dans une guerre contre l’Iran ? Et sur quelle base avez-vous pris cette décision dangereuse ?, lance le milliardaire Khalaf Ahmad Al Habtoor dans une lettre ouverte publiée sur X. Avez-vous pensé aux dommages collatéraux avant d’appuyer sur la gâchette ? Et pensiez-vous que les premiers à souffrir de cette escalade seraient les pays de la région ? »

L’homme d’affaires, qui a notamment fait fortune dans le bâtiment, y fait par ailleurs valoir que les pays du Golfe assuraient une part significative du financement des projets envisagés par le Board of Peace de Donald Trump, cette instance non officielle via laquelle le président des États-Unis entend reconstruire Gaza.

Le ressentiment se doublerait même d’une forme d’amertume, « face à l’ingratitude de Donald Trump qui ne les a pas écoutés malgré tous les intérêts et les investissements placés aux États-Unis alors qu’en une demi-heure d’entretien, Nétanyahou a convaincu Trump de lancer l’offensive », note Hasni Abidi, directeur du Centre d’études et de recherche sur le monde arabe et méditerranéen à Genève, pour Libération. D’après lui, la guerre « expose la vulnérabilité des pays du Golfe, dont le développement est conditionné par la sécurité et qui sont rattrapés par la réalité géopolitique de leur situation ».

Dépendances croisées autour de l’IA et des datacenters

S’ils investissent massivement à l’étranger, les pays du Golfe misent également sur la création d’infrastructures sur leur propre sol. Derrière les initiatives les plus médiatiques, comme le projet saoudien Neom qui s’est révélé un four, doublé d’un gouffre financier, les puissances pétrogazières voient dans l’IA et la tech un élément prépondérant de leur positionnement futur sur la scène géopolitique.

La carte des infrastructures Microsoft Azure montre l’emplacement stratégique du Moyen-Orient sur la carte des câbles sous-marins – capture d’écran

Sur ce point, les États du Golfe attendent une forme de réciprocité de la part des économies dans lesquelles ils investissent. Avec succès : la carte des infrastructures d’un AWS ou d’un Microsoft Azure montre une volonté de multiplier les points de présence dans la région avec, pour les deux, une ouverture prochaine de datacenters et donc de zones locales en Arabie saoudite. Moins puissant à l’échelle mondiale, un OVHcloud affiche lui aussi des velléités d’ouverture prochaine à Dubaï. Sans oublier bien sûr les promesses déjà évoquées d’OpenAI, qui amènerait Oracle dans ses bagages, etc.

Ce faisant, une forme nouvelle d’interdépendance se crée, particulièrement avec les États-Unis, premier acteur mondial de la scène tech, remarque Mona Yacoubian du Centre d’études stratégiques et internationales (CSIS) :

« De même que les réserves pétrolières du Moyen-Orient ont placé la région au cœur de la politique étrangère américaine, la considérant comme essentielle à la stabilité et à l’accessibilité des marchés énergétiques, l’informatique pourrait propulser les pays du Golfe au premier plan de la politique américaine en matière d’IA. ».

Le pétrole et le calcul informatique ont ceci de commun qu’ils exigent tous deux d’importants investissements et peuvent faire l’objet de pressions réglementaires ou de contrôles à l’exportation. « Cependant, contrairement au pétrole, l’informatique ne dispose pas d’un point de captation géographique unique ; elle repose plutôt sur plusieurs points névralgiques stratégiques, tels que les puces, les logiciels, l’énergie et les centres de données. L’absence d’un point de captation unique empêche une domination de type embargo, mais la pluralité de ces points névralgiques crée une vulnérabilité potentielle – bien que beaucoup plus limitée et conditionnelle – aux pressions ou aux perturbations », note encore Mona Yacoubian.

L’ombre de la Chine

La politique des États-Unis en matière de contrôle des exportations de puces graphiques ou composants dédiés à l’IA vers les pays du Golfe illustre toute l’ambivalence de la situation. Fin 2024, l’administration Biden réfléchit ouvertement à imposer des restrictions vers les Émirats arabes unis ou vers l’Arabie saoudite, comme elle le fait déjà pour les ventes de puces NVIDIA en Chine. Plus tôt, elle a déjà obtenu que le fonds souverain d’Abu Dhabi G42 se sépare de ses activités chinoises en échange d’un investissement de Microsoft à hauteur de 1,5 milliard de dollars.

Sous Donald Trump, la Maison-blanche se montre nettement plus conciliante, mais sans signer un blanc-seing à ses partenaires du Golfe : en octobre 2025, Washington s’inquiète par exemple des liens qu’entretient le fonds émirati G42 avec la Chine au moment où ce dernier annonce 2 milliards de dollars d’investissements dans des datacenters au Vietnam, et il aura probablement fallu quelques garanties pour que Trump autorise, un mois plus tard, les fonds HUMAIN (Arabie Saoudite) et G42 à acquérir 35 000 puces IA pour environ un milliard de dollars.

La Pax Silica veut collaborer à une chaine d’approvisionnement apaisée en matière de semiconducteurs – crédit state.gov

Son nom n’est pas cité, mais l’ombre de la Chine plane également sur la Pax Silica (la paix du silicium), la coalition internationale annoncée par Donald Trump mi-décembre. Signée avec le Japon, la Corée du Sud, Singapour, les Pays-Bas, le Royaume-Uni, Israël, les Émirats arabes unis et l’Australie, l’initiative a vocation à « unir les pays qui accueillent les entreprises technologiques les plus avancées au monde afin de libérer le potentiel économique de la nouvelle ère de l’IA ». En pratique, elle promet de « réduire les dépendances coercitives » dans le développement des semiconducteurs et des technologies de pointe, et promeut une philosophie d’investissements croisés sur ces sujets stratégiques. Taïwan figure dans l’initiative au nombre des « participants non signataires ».

En attendant de voir les premières manifestations concrètes de cette alliance, l’administration Trump réfléchit à conditionner l’achat de puces dédiées à l’IA à des investissements dans le pays, d’après l’agence Reuters en date du 5 mars. Autrement dit, il faudrait s’engager à financer des datacenters sur le sol américain pour se voir octroyer une licence permettant d’acheter des GPU NVIDIA en volume. Une logique de donnant donnant à laquelle les États du Golfe excellent, du moins tant que la guerre ne vient pas gripper les rouages de l’équation économique.

  •  

☕️ Oracle prévoit de supprimer des milliers d’emplois pour financer ses datacenters

Oracle envisagerait de licencier des milliers de personnes pour financer son expansion dans l’intelligence artificielle, rapporte Bloomberg, dans toutes ses branches. L’entreprise a déjà annoncé en interne qu’elle étudierait toutes les offres ouvertes dans son département cloud, ralentissant voire stoppant tout processus de recrutement.

L’information vient confirmer un rapport de la banque d’investissement TD Cowen obtenu fin janvier par le média CIO, et dans lequel Oracle chiffrait à 20 000 ou 30 000 le nombre d’emplois à supprimer pour dégager de 8 milliards à 10 milliards de dollars de trésorerie. En mai 2025, ses effectifs mondiaux s’élevaient à 162 000 personnes.

L’entreprise envisagerait par ailleurs de se séparer de Cerner, fournisseur de systèmes d’information spécialisés dans la santé dont l’entreprise avait fait l’acquisition en 2022 pour 28,3 milliards de dollars.

Alors que l’action de la société tutoyait des sommets en septembre 2025, ce qui ne l’empêchait pas, déjà, de tailler dans ses effectifs, elle est aujourd’hui revenue peu ou prou à son niveau de mars 2025.

Dans le cas présent, les différentes pistes sont envisagées alors que diverses banques états-uniennes ont pris leur distance avec certains projets de financement de centres de données portés par le géant du cloud et de la gestion de bases de données.

Au total, d’après TD Bowen, l’entreprise fondée par Larry Ellison aurait besoin de 156 milliards de dollars d’investissements pour mener à bien ses différents projets d’infrastructure. Or, à mesure que les banques se sont faites hésitantes, les prêteurs ont quasiment doublé les primes d’intérêt proposées à Oracle depuis septembre, ce qui leur fait atteindre aujourd’hui un niveau habituellement réservé aux sociétés non cotées.

Entre autres stratégies pour faire face à ces coûts, l’entreprise a notamment commencé à demander 40 % d’acompte à ses nouveaux clients pour que ces derniers participent au financement de l’infrastructure, elle a levé 58 milliards de dollars sur le marché obligataire, et explore désormais des accords dits BYOC (Bring your own chip, apportez vos propres puces). Ceux-ci impliqueraient que les clients apportent leur propre hardware, ce qui allégerait d’autant les comptes d’Oracle.

  •  

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

La responsable de la branche robotique d’OpenAI, Caitlin Kalinowski, a annoncé sa démission alors que l’entreprise a passé un contrat avec le département de la Défense des États-Unis. Elle le juge précipité.

Le mini mea-culpa de Sam Altman n’aura pas suffi à garder Caitlin Kalinowski dans les rangs de son entreprise. La responsable de la branche robotique d’OpenAI a expliqué samedi soir dans un post sur X qu’elle avait démissionné en affirmant qu’« il s’agissait d’une question de principe, pas de personnes ».

Sam Altman avait déjà reconnu dans un mémo interne rendu ensuite public s’être précipité et avoir signé un contrat qui « paraissait opportuniste et bâclé ». L’entreprise avait sauté sur l’opportunité du refus de son concurrent Anthropic de signer le même contrat avec le département de la Défense, sans clause bloquant l’utilisation de l’outil à des fins de surveillance des citoyens américains et dans des armes totalement autonomes.

La directrice de l’équipe robotique d’OpenAI aurait été au premier rang des responsables de la mise en place d’armes totalement autonomes utilisant les systèmes d’OpenAI.

Pas une opposition totale, mais un besoin de davantage de réflexion

Dans son message, Caitlin Kalinowski n’affiche pas une opposition totale à la possibilité que l’armée américaine utilise ce genre d’outils. Elle aurait cependant voulu que cette question, ainsi que celle de l’utilisation de l’IA pour surveiller les Américains, ne soient pas prises à la légère : « L’IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l’autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu’elles n’en ont reçu ».

« Pour être clair, mon problème est que l’annonce a été faite précipitamment, sans que les garde-fous aient été définis. Il s’agit avant tout d’une question de gouvernance. Ces questions sont trop importantes pour que les accords ou les annonces soient précipités », a-t-elle ajouté.

Sam Altman avait affiché une volonté de modifier le contrat avec le département de la Défense des États-Unis. Mais si son message aborde le problème de la surveillance des citoyens américains, il n’a pas évoqué directement la question des armes autonomes.

Si Anthropic a posé ses limites à un nouveau contrat avec le département de la Défense, l’entreprise s’était engagée avec le Pentagone dans plusieurs projets, dont le montant s’élevait à 200 millions de dollars. Après ce refus, l’administration Trump l’a officiellement désignée comme menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ».

Mais l’armée américaine engagée en Iran utilise actuellement encore son IA. Selon le Washington Post, le système Maven Smart développé par Palantir et auquel elle recourt intègre l’IA Claude d’Anthropic.

OpenAI reporte le « mode adulte » de ChatGPT

L’organisation interne d’OpenAI semble donc faire les frais de la précipitation de Sam Altman pour emporter le contrat tombé des mains d’Anthropic.

L’entreprise a d’ailleurs encore repoussé le lancement du « mode adulte » dont elle parlait en octobre dernier. « Nous reportons le lancement du mode adulte afin de pouvoir nous concentrer sur des tâches qui sont actuellement plus prioritaires pour un plus grand nombre d’utilisateurs », affirme l’entreprise à Axios. « Nous continuons à croire au principe selon lequel il faut traiter les adultes comme des adultes, mais il faudra plus de temps pour acquérir l’expérience nécessaire », ajoute-t-elle.

Cette fonctionnalité avait été critiquée en interne par une de ses cadres en charge de la sécurité des utilisateurs, Ryan Beiermeister. Celle-ci a été licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins.

  •  

☕️ Ce que GPT-4o dit de l’attachement émotionnel à l’IA

S’il a été controversé, le modèle GPT-4o de l’application ChatGPT a aussi ses fervents défenseurs. Lancé en mai 2024, ce modèle était aussi apprécié que critiqué pour ses capacités de simulation de l’empathie.

Si GPT-4o a valu à OpenAI des poursuites en justice au motif que la machine aurait encouragé des usagers au suicide, elle a aussi été si plébiscitée que, lorsqu’OpenAI a fait le choix de débrancher le modèle, à l’été 2025 d’abord, puis définitivement le 13 février 2026, l’entreprise s’est retrouvée confrontée à une levée de boucliers.

Pour la chercheuse Mai Huiqian Lai, interrogée par Libération, on peut même parler « d’un mouvement de résistance », incarné par exemple dans des pétitions ou d’intenses échanges sur le subreddit r/MyBoyfriendIsAI.

En février 2026, 0,1 % des utilisateurs recouraient à l’option payante de GPT-4o, indique OpenAI. Pour une société en recherche de modèle économique, c’est loin d’être suffisant, mais rapporté aux 900 millions d’utilisateurs de ChatGPT, cela revient tout de même à quelques centaines de milliers d’internautes.

Pour ressusciter GPT-4o – et quelquefois, pour protester contre les récents contrats d’OpenAI avec l’armée américaine, par exemple dans le cadre d’appels au boycott comme QuitGPT –, certains clonent les conversations et la relation entretenue avec la machine sur des services payants, nommés 4o-Revival ou just4o.chat.

OpenAI, de son côté, a promis de lancer un ChatGPT « adulte », mais la réponse ne satisfait pas Mai Huiquian Lai. Autrice d’un article intitulé « « S’il vous plaît, ne tuez pas le seul modèle qui donne une impression d’humanité » : Comprendre le backlash #Keep4o », la chercheuse regrette auprès de Libération que là où des internautes demandent « la reconnaissance de leurs besoins de connexion existentielle », OpenAI ne réponde que par de la pornographie.

Et d’appeler à obliger les constructeurs de robots conversationnels à respecter les usagers et l’intimité que ces derniers créent avec des machines. Après tout, celle-ci découle directement de la manière dont les robots conversationnels sont conçus.

Mai Huiquian Lai estime donc qu’il faudrait créer des régulations qui prennent en compte les préjudices « relationnels et émotionnels » créés par la suppression brutale de machines qui avaient initialement été fabriquées pour susciter l’attachement.

  •  

☕️ Emma, 21 ans, passe de 7 à 11h devant ses écrans, par jour (mais pas pour travailler)

« Mon temps d’écran est énorme, j’en ai bien conscience », raconte Emma à « Tant d’écran », la chronique du Point qui analyse le rapport des Français à leurs téléphones. Cette étudiante de 21 ans passe en effet et en moyenne 7h19 chaque jour devant ses écrans, et parfois plus de 11 heures le week-end : « Il y a eu les bébés Covid. Moi, je fais partie de la génération des ados Covid », résume-t-elle.

Emma reçoit plus de 219 notifications chaque jour sur son smartphone, la conduisant à scroller 3 heures sur TikTok, un peu moins d’une sur WhatsApp, une autre sur Netflix et dans ses notes, une demi-heure sur Safari, et une autre à envoyer des messages, moins de 25 minutes sur Instagram.

« Je me rends bien compte que j’ai un temps d’attention réduit », reconnaît-elle : « J’ai énormément de mal avec le long, que ce soit les vidéos YouTube qui excèdent 50 minutes, ou les épisodes de Bridgerton sur Netflix qui durent plus d’une heure chacun ! »

Un déficit d’attention qu’elle éprouve aussi avec les podcasts, et même avec TikTok : « Quand je vois qu’une vidéo dure plus d’une minute trente, je scrolle, je sais que je ne la terminerai pas, ou en accéléré ! Quand je regarde un film ou une série et qu’une scène m’ennuie, je la saute en avançant de dix secondes. »

« Je passe ma vie dessus et je ne me sens pas coupable », tempère la jeune femme : « Si c’est ce qui me fait plaisir après une longue journée, pourquoi me restreindre ? D’autant plus que j’ai vraiment le sentiment d’être en contrôle : c’est moi qui choisis quand je reste sur une vidéo ou quand je passe à une autre, combien de temps je lui accorde, quel intérêt je trouve… Même si j’ai bien conscience que mon algorithme m’a très bien cernée ! »

À la journaliste qui lui demande si elle a déjà essayé de réduire son temps d’écran, Emma répond qu’ « il arrive que je passe des journées sans mon téléphone, pour me prouver que je peux y arriver. Si je trouve de quoi m’occuper, ça ne me pose aucun souci ! » :

« Ma mère pense que je passe trop de temps sur mon téléphone, mais elle est elle-même les yeux rivés sur son ordinateur à longueur de journée, je ne sais pas si c’est beaucoup mieux ! Mes amis ont à peu près la même consommation que moi, donc il n’y a pas de jugement sur ce point-là. »

Interrogée sur ce qui lui manquerait le plus si elle perdait son téléphone, Emma estime que « ce qui peut me manquer plus que TikTok, ce sont tous mes mots de passe, qui y sont déjà pré-enregistrés : si je le perds, je serais bien incapable de les retrouver ».

  •  

Nous avons laissé sept VPS sur Internet, ils sont attaqués 10 000 fois par jour en moyenne

Very Particular Service
Nous avons laissé sept VPS sur Internet, ils sont attaqués 10 000 fois par jour en moyenne

Un serveur, fraîchement installé et à peine connecté sur Internet, n’a que quelques dizaines de secondes de répit avant une première tentative d’accès frauduleux. Puis, la tempête ne s’arrête jamais, avec en moyenne plus de 10 000 tentatives par jour.

Depuis plusieurs semaines, nous nous sommes lancés dans des tests et comparatifs de VPS (serveur privé virtuel). Nous en avons profité pour les laisser tourner, à vide ou presque. Ils sont dans leur configuration par défaut, avec le système d’exploitation installé lors de la livraison.

Quatre semaines plus tard, nous récupérons les logs des sept serveurs pour analyser les tentatives de connexion sur le port 22, celui pour SSH (Secure Shell). Ce dernier est « une méthode permettant d’envoyer, de manière sécurisée, des commandes à un ordinateur sur un réseau non sécurisé », rappelle Cloudflare. Via des logiciels comme PuTTY, par exemple, on peut se connecter à distance sur un serveur et réaliser toutes les opérations que l’on souhaite.

IBM précise que de son côté que « la plupart des robots automatisés tentent de se connecter à votre serveur SSH sur le port 22 en tant que root avec diverses combinaisons de force brute et de dictionnaire afin d’accéder à vos données ». Une connexion à distance en « root » laisserait l’intégralité de votre serveur à la merci des pirates.

Entre 6 500 et 14 000 tentatives par jour, en moyenne

Avez-vous un ordre d’idée du nombre de tentatives de connexion que subissent des serveurs sur Internet ? Selon nos mesures sur 25 jours d’expérimentation, la moyenne est aux alentours de… 10 000 attaques par jour et par serveur. Dans les logs, nous comptabilisons deux types d’événements. ECHEC, c’est-à-dire quand l’utilisateur existe, mais que le mot de passe est faux. ECHEC_USER_INVALIDE, quand l’utilisateur n’existe pas sur le serveur (le serveur ferme la connexion avant même de demander un mot de passe).

Voici un tableau récapitulatif des tentatives sur chacun des VPS :

Plus de 11 000 IP différentes, certaines attaquent les 7 VPS

Le serveur qui a subi le moins d’attaques est celui de helloserv, avec 163 000 sur 25 jours, soit 6 516 par jour en moyenne. Le plus élevé est chez Hetzner et LWS, avec respectivement 313 245 et 346 334 tentatives sur la même période, soit une moyenne quasiment deux fois plus élevée de 12 529 et 13 853 attaques par jour.

Au total, plus de 11 000 IP différentes se sont attaquées à nos différents serveurs. En tête de la « diversité » des attaquants, pas moins de 4 109 IP différentes ont tenté de se connecter à notre serveur OVHcloud, sans succès évidemment. Sur la totalité des IP qui ont tenté de se connecter, 7 700 l’ont fait sur deux serveurs, près de 2 000 sur trois VPS, et seulement quelques dizaines sont visibles sur 6 ou 7 serveurs.

Root, admin et user : le trio gagnant

Passons maintenant aux noms d’utilisateurs (disponibles dans les logs des serveurs). Sans surprise, root arrive en tête, avec une marge plus que confortable sur le reste du classement : admin, user, ubuntu, test, oracle, postgres, debian, guest, sol, mysql, git, solana, hadoop, centos, pi, ftpuser, backup, solv et déploy pour compléter le top 20.

Enfin, nous avons regardé le temps avant la première attaque, une fois le VPS démarré pour la première fois. C’est-à-dire la durée entre la première tentative d’accès frauduleuse une fois que le VPS a été livré par l’hébergeur. Celui-ci est court : entre 10 secondes et 30 minutes, selon les cas.

Les VPS sont donc attaqués au bout de moins de 30 secondes pour LWS, OVHcloud, moins de 20 minutes pour Pusle et Ionos, et moins de 30 minutes pour HelloServ et York.

  •  

☕️ Projet Helix : la console Next Gen de Microsoft, compatible avec les jeux Xbox et PC

Fin février, la division Xbox de Microsoft vivait un important séisme : Phil Spencer (38 ans d’ancienneté, présent pour le lancement de toutes les consoles) était remplacé par Asha Sharma. Elle est désormais CEO de Microsoft Gaming, alors qu’elle s’occupait depuis deux ans de la branche produit de Microsoft CoreAI.

Sur X, elle a publié un message annonçant le « projet Helix, nom de code de notre console de nouvelle génération ». Son message est relativement court, sans aucun détail. Elle précise simplement que « project Helix offrira des performances exceptionnelles et sera compatible avec vos jeux Xbox et PC ».

Elle donne rendez-vous aux « partenaires et studios » à la GDC (Game Developers Conference) qui se tient cette semaine, au Moscone Center de San Francisco. Un rendez-vous important de la communauté où elle devra prendre ses marques et s’imposer alors que le « fantôme » de Phil Spencer (qui a écumé les GDC pendant des années) sera certainement présent.

Lors de la présentation des résultats financiers au début du mois, la CEO d’AMD, Lisa Su, expliquait que « le développement de la Xbox de nouvelle génération, équipée d’un SoC semi-personnalisé AMD, progresse bien pour épauler un lancement 2027 », rapporte The Verge. AMD ne dit pas que Microsoft lancera sa console en 2027, mais se tient prêt si besoin.

L’année dernière, le compte officiel Xbox annonçait sur X « construire la prochaine génération d’appareils et de services cloud Xbox, y compris nos futures consoles Xbox, en collaboration avec AMD ». Asha Sharma a donné le coup d’envoi de la guerre des consoles « next gen », à voir maintenant ce qui va en sortir durant la GDC, et notamment si Sony va entrer dans la partie avec la PlayStation 6.

  •  

#Flock : guerre épaisse

Apocalypse already now
#Flock : guerre épaisse

La guerre ne fait jamais dans la finesse, puisse-t-elle être à base de frappes chirurgicales menées par des bouchers enivrés par leurs nouveaux joujoux à télécommandes automatiques. L’intelligence artificielle est là pour ça, pour se salir les mains, les mettre dans le cambouis et vous driver toujours plus loin dans le mur, jusque dans vos lunettes de vue. On en regretterait presque les bons vieux conflits à l’ancienne entre vils humains, au moins on s’éclatait dans la joie et la chaleur humaine. Bon weekend quand même!

  •  

En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

C'est du chimique !
En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

Les méthodes d’IA ont passé les portes des laboratoires depuis quelques années. Mais, concrètement, à quoi sert-elle quand les chimistes l’utilisent ? Next a voulu en savoir plus et a interrogé le chimiste théorique François-Xavier Coudert.

Le machine learning ou le deep learning pour analyser des images, des vidéos, des textes ou des sons, on commence à connaître. Mais à quoi peuvent bien servir les techniques d’IA dans un laboratoire de chimie ? Qu’est-ce qu’un chimiste théorique peut bien faire d’un réseau de neurones ?

Next a discuté avec François-Xavier Coudert, chercheur au CNRS qui a travaillé, par exemple, sur l’utilisation de l’IA pour trouver de nouveaux réseaux métallo-organiques, ces matériaux poreux dont la découverte a valu aux chimistes Susumu Kitagawa, Richard Robson et Omar M. Yaghi le prix Nobel en 2025.

>> Quel est le but de s’appuyer sur l’IA quand on fait des recherches en chimie ?

Une des idées est de trouver de meilleures molécules ou de meilleurs matériaux pour des applications choisies. Typiquement, on peut vouloir séparer le CO₂ des autres gaz en sortie de cheminée d’usines. On va aller creuser dans les matériaux connus qui n’ont jamais été testés pour cette application-là.

Jusqu’ici, les gens qui développaient des matériaux avaient une application en tête. Si ça marche, ils le publient et expliquent que ce matériau fait ce qu’ils veulent super bien, sinon, ils le mettent dans un tiroir et font un autre essai. L’idée, c’est que, dans les matériaux qui ont telle propriété pour laquelle ils sont connus, il y en a peut-être qui pourraient être très bien pour d’autres applications. Et ainsi d’aller chercher des matériaux connus mais qui n’auraient pas été complètement exploités. Mais comment le savoir ? On est face à des milliers de matériaux et de molécules. C’est aussi un peu l’idée du « repurposing » (réutilisation) des médicaments : si je trouve une molécule connue mais qu’elle a un autre effet, c’est toujours plus facile à déployer que de réinventer depuis rien une nouvelle molécule.

Aller au-delà de l’« intuition chimique »

>> Les techniques d’IA permettent de modéliser, sélectionner, générer plein de choses, dans quels buts les chimistes utilisent l’IA actuellement ?

Il y a beaucoup de champs scientifiques qui utilisent l’IA parce qu’ils ont de larges volumes de données qui étaient jusque-là inexploitées, c’est le paradigme du big data. En chimie, il y a la même motivation : à force, les laboratoires académiques comme ceux de R&D ont accumulé des données et ils veulent les valoriser.

La différence, c’est que nous sommes très loin du régime du big data parce qu’on n’est pas Facebook ou Microsoft et que nous n’avons pas des millions d’expériences et que les données coûtent très cher à produire : faire une nouvelle manip’, tester un nouveau matériau ou une nouvelle molécule, c’est compliqué. Quand on va dans un laboratoire et qu’on leur demande combien de manip’ ont été faites sur les matériaux sur lesquels ils travaillent, en général, on est plutôt sur quelques centaines. Et le millier, c’est déjà énorme.

L’idée est de pouvoir optimiser la manière de faire de la recherche en s’appuyant sur les expériences, au-delà de l’« intuition chimique » : quand l’humain analyse ses résultats et se dit « ça, ça va bien marcher, ça non ». Sûrement qu’il y a des tendances qu’on rate, des facteurs qu’on ne voit pas et on a envie de les exploiter.

Le problème aussi est que ces données sont souvent très hétérogènes parce que les manip’ ne sont pas toujours faites de la même façon, pas décrites pareil : parfois, ça reste dans un cahier de labo, d’autres fois, c’est publié mais ça peut être dans des PDF pour les vieilles manipulations.

Il y a quelques exemples très précis où les chimistes se sont motivés en tant que communauté depuis les années 60 pour standardiser leurs données, et ces domaines sont ceux où l’IA est plus facile à appliquer, mais c’est très limité. En biochimie, ce sont les protéines avec la base de données PDB et on a la même chose avec les structures cristallines. Les quantités de données sur ces sujets sont importantes mais très ciblées. Ces communautés se sont organisées pour appliquer leurs standards en imposant que, pour publier une nouvelle protéine, il faille que sa structure soit déposée [dans le sens publiée, ndlr], de même pour les cristaux.

Pour le reste, on voit de plus en plus de monde faire des analyses statistiques relativement simples et présenter ça comme de la data science ou de l’IA. Effectivement, même avec peu de données, il y a des analyses à faire.

Mais on met aussi en place des stratégies pour acquérir plus de données. Par exemple, de la synthèse robotisée pour avoir accès à de plus grands volumes de données parce qu’un robot peut nous faire 64 manips d’un coup avec des conditions différentes, mais toutes en parallèle, et les caractériser. On peut récupérer toutes les données brutes au cours de la synthèse alors que ce n’est pas le cas si on prend les données des expériences déjà publiées qui ne sont jamais exhaustives.

Depuis quelques années, nous voulons aussi nous attaquer à un autre problème : il y a un biais dans nos données. Nous n’avons dans la littérature scientifique que des publications positives. On manque de données négatives : les chercheurs n’ont publié que des informations sur des matériaux qui étaient intéressants pour eux et qui fonctionnaient bien. Mais que tel matériau est nul pour telle application ou que telle structure, quand on essaye de la synthétiser, ça ne donne pas de beaux cristaux ; cette information-là, on ne la trouve jamais dans les publications ou les bases de données qui leur sont liées. Quelqu’un a peut-être écrit dans un cahier de laboratoire « c’est marron et c’est tout moche » et s’est arrêté sans partager l’information. Et, on n’apprend pas sans erreur, comme on dit aux enfants. Ce manque de données négatives est une vraie limitation pour ce qu’on veut faire. La synthèse robotisée permet aussi d’enregistrer ce qui ne marche pas.

« l’IA améliore nos outils de chimistes sans changer la chimie que nous faisons »

>> Concernant les méthodes d’IA utilisées, quelles sont celles vers lesquelles se dirigent les chimistes ?

L’IA générative n’est pas une des grosses directions, même s’il y a des chercheurs qui essayent de créer de nouveaux matériaux, de nouvelles molécules, mais ce n’est pas la direction majeure. C’est souvent celle qui capture le plus les esprits parce que les gens disent « on a créé un nouveau matériau ».

Une autre direction qui est peu visible, c’est que l’IA améliore nos outils de chimistes sans changer la chimie que nous faisons. On a plus de facilités à mettre des modèles complexes dans nos outils pour faire de la reconnaissance de spectre, de l’analyse d’espèces, mais aussi, en chimie théorique sur laquelle je travaille, pour des méthodes de calcul. Avant, on calculait les propriétés des matériaux et des molécules avec des méthodes basées sur la physique comme les équations de Schrödinger, de Newton. On simulait le comportement des atomes dans les molécules, des molécules dans les matériaux, etc.

Aujourd’hui, les méthodes d’IA accélèrent ce travail en nous donnant des modèles plus précis. Pour certains systèmes, une fois qu’on a résolu 10 000 fois l’équation de Schrödinger pour telle classe de matériaux, on entraîne un réseau neuronal et il n’y a plus besoin de résoudre l’équation de Schrödinger car on a vu suffisamment de configurations possibles de ces matériaux pour savoir prédire ce qu’ils vont donner.

Cette amélioration de nos outils est très technique mais elle a vraiment un impact très fort dans la communauté de la chimie. C’est un nouvel outil de chimie théorique pour prédire les comportements des molécules et des matériaux. Aujourd’hui, la majorité des personnes utilisent ces outils-là.

>> Concrètement, ça se présente comment ?

En chimie théorique, on avait déjà des logiciels qui permettaient, par exemple, de regarder une molécule et de calculer son spectre UV visible. Mais, aujourd’hui, on a des plugins intégrés qui y intègrent des outils d’IA qui peuvent permettre de gagner du temps : pour certains types de calculs, on gagne un facteur 10, un facteur 50 ou même un facteur 100. On est donc capables de faire des calculs sur des systèmes plus grands, plus complexes et plus longs que ce qu’on faisait il y a cinq à dix ans.

L’idée, c’est donc de mettre des réseaux neuronaux à l’intérieur de nos logiciels pour accélérer la résolution de nos équations physiques. Ça existait déjà à l’époque mais la précision n’était pas très élevée et c’était un outil de niche avec quelques personnes qui travaillaient avec. Le fait d’avoir accès facilement à toute l’infrastructure, les GPU, les bibliothèques logicielles, avec le petit bout de code pour que le réseau neuronal fasse pile ce qu’on a envie, c’est devenu incroyablement pratique. Et par exemple des logiciels de dynamique moléculaire comme LAMMPS intègrent ce genre d’outils.

>> Ces logiciels sont développés par qui ?

Il existe sans doute quelques logiciels commerciaux mais, comme c’est un développement assez rapide, la plupart des personnes utilisent des logiciels open source académiques développés par des collègues universitaires, au MIT, à l’université de Pennsylvanie, par exemple, et maintenus par une communauté.

Les calculateurs du GENCI, un point fort pour les chercheurs français

>> Faut-il les déployer sur un serveur ou sont-ils utilisables sur des ordinateurs de bureau ?

Sur des ordinateurs de bureau, on peut faire des petits tests sur une molécule, un matériau d’une centaine d’atomes. Si on veut étudier de vrais problèmes, il faut des serveurs et de plus en plus de la puissance de calcul en GPU, puisque c’est sur ces plateformes-là que les réseaux neuronaux ont été les plus optimisés.

Après, chacun fait comme il veut. Nous avons un serveur au laboratoire mais on utilise surtout des machines nationales. En France, on a cette chance d’avoir, grâce au CNRS et aux autres organismes comme le CEA, le GENCI qui nous donne accès à de la puissance de calcul sur trois grands calculateurs nationaux souverains, hébergés en propre. C’est vraiment un point fort pour nous. Comme quand on candidate pour les synchrotrons ou autres grandes infrastructures, il suffit de déposer tous les six mois en justifiant avec un dossier comportant les recherches effectuées et les nouveaux projets et c’est expertisé par le comité du GENCI qui alloue un nombre d’heures de machine.

>> Comment on fait pour créer un modèle adapté à la chimie ?

On part d’un jeu de données, par exemple une liste des stabilités mécaniques (sont-ils plus ou moins durs, plus ou moins résistants) de 15 000 matériaux avec leurs structures, et on veut faire un modèle capable de prédire cette stabilité mécanique pour d’autres matériaux. Ce qui est difficile, c’est qu’il faut représenter la structure des matériaux. Le réseau neuronal prend en entrée un jeu de nombres, il faut donc trouver une représentation sous forme de séries de nombres qui représente bien la géométrie du matériau [c’est la même problématique pour tous les domaines, ndlr].

On transforme donc ces structures de matériaux en séries de données et on les donne à un réseau de neurones pour lequel on optimise les poids sur les neurones pour qu’à la fin, le modèle ait appris à sortir avec une bonne précision la stabilité mécanique d’un matériau quand on lui donne sa structure. Une fois qu’on a ce modèle, on peut lui donner un matériau pour qu’il nous prédise sa stabilité mécanique.

Pour choisir le modèle, il faut une adéquation entre la complexité du réseau neuronal (nombre de neurones, façon dont ils sont connectés entre eux) et le nombre de données qu’on a et leur complexité. Ça sert à rien d’utiliser un modèle trop complexe sur un tout petit jeu de données, mais si le modèle est trop simple et qu’il n’y a pas assez de neurones, il va être de mauvaise qualité. Là est donc tout l’enjeu : savoir quel est le bon type de modèles, combien de neurones, quelle forme, quelle connectivité et comment on représente les données pour les faire ingérer à ce réseau de neurones. Tout le boulot est là.

>> Pour l’instant, après utilisation de l’IA, dans la vraie vie chimique, est-ce que ça améliore le travail ? Ne croulez-vous pas devant une liste de matériaux candidats qui sont ensuite difficiles à départager ?

Aujourd’hui, pas vraiment. Ça propose des pistes mais on n’a pas d’exemple « magique » comme les biologistes avec Alphafold. En chimie et en sciences des matériaux, on n’a pas encore sorti le truc où on peut dire : « ça, ça a été fait grâce à l’IA et on n’aurait pas pu le faire autrement, etc ». L’IA accélère certaines pratiques mais ce n’est pas applicable à tous les laboratoires ni à toutes les propriétés. Il y a des choses vraiment difficiles et pour lesquelles, on a beau utiliser l’IA, on ne voit rien en ressortir, sans facteur clair. Ce n’est pas une chose magique qui résout tous nos problèmes, loin de là. Ça accélère la recherche sur des domaines bien spécifiques.

Je ne suis pas trop inquiet sur le côté : ça fournit trop de pistes et ça noie la recherche. Je pense que le principal problème est que certains essayent de mettre de l’IA là où elle n’apporte rien et c’est là où on perd du temps.

« Un outil de plus dans la très grande boite à outils du chimiste »

>> Qu’est-ce qui ne fonctionne pas avec l’IA en chimie ?

Une des grandes questions aujourd’hui est de savoir ce qui fait qu’une molécule est synthétisable ou pas. C’est un grand problème ouvert sur lequel l’IA n’est pas vraiment « douée » et où, je crois, l’intuition chimique fait mieux. Si je montre deux molécules ou deux matériaux à un chimiste expérimentateur, il va pouvoir me dire : « Celle-là, je peux essayer de te la faire dans le bécher, mais celle-ci, c’est mort, jamais on l’aura ». Cette idée de la faisabilité expérimentale reste une question ouverte et c’est la même chose pour les matériaux. Comment un modèle peut me permettre de sélectionner parmi 140 super matériaux les 10 que je vais vraiment synthétiser et qui auront une chance d’être utilisables ? La question de la faisabilité expérimentale, ce qui fait qu’on arrive à synthétiser telle molécule ou tel matériau, est encore un problème difficile.

Ces méthodes sont un outil de plus dans la très grande boite à outils du chimiste. Mais il faut donc qu’on apprenne aux étudiants, pas forcément à savoir les utiliser mais à savoir comment ça fonctionne pour avoir un regard critique dessus et à comprendre les forces et les limites. Je travaille à former nos étudiants à ce qu’ils puissent lire des travaux qui utilisent des modèles d’IA en se posant les bonnes questions : comment le jeu de données a été traité ? Quelle est la dimension du modèle ? Et à se faire un avis critique puisque ça devient très utilisé, de même que moi, j’ai beau être théoricien et développer des modèles sur ordinateur, si je veux parler à mes collègues, il faut que je puisse comprendre une méthode expérimentale, sans pour autant être capable de faire une synthèse de matériau ou de le caractériser sur un synchrotron.

  •  

Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

À lobbying, lobbying et demi
Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

Que disent les délégués à la protection des données personnelles de la simplification du RGPD envisagée par la Commission européenne ? Un sondage organisé par l’association noyb révèle que leurs préoccupations portent essentiellement sur la simplification des démarches administratives, et non sur la redéfinition des données personnelles ou sur la limitation du droit d’accès, pourtant envisagés par Bruxelles en réponse aux demandes de l’industrie.

Dans l’univers tech, on entend souvent dire que l’excès de norme est un frein à l’innovation, et que le régulateur ferait bien de s’intéresser aux signaux qui remontent de la base (les entreprises) plutôt que de décider du cadre depuis le sommet.

L’association autrichienne noyb a décidé de prolonger la logique en descendant un cran plus bas : plutôt que d’interroger les entreprises, elle a cherché à connaître la position des individus qui, au sein de ces dernières, se situent en première ligne de la mise en œuvre du cadre réglementaire.

Ratio entre charge de travail et utilité perçue

En l’occurrence, les fameux Délégués à la protection des données (souvent abrégé en DPO, pour Data Protection Officer), instaurés par les articles 37 et suivants du non moins fameux Règlement général sur la protection des données (RGPD).

L’association a donc demandé à environ 500 de ces derniers quels étaient les points de friction liés au RGPD les plus fréquents dans leur quotidien. Elle en a profité pour essayer d’évaluer, toujours par la voie du sondage déclaratif, la part du temps de leur activité de DPO associée à chacune des grandes exigences du règlement. Elle a enfin tenté d’évaluer la façon dont ces DPO percevaient la valeur du service rendu à l’internaute en matière de respect de la vie privée.

Les enseignements de cette étude, présentés jeudi 5 mars, illustrent selon noyb à quel point la Commission européenne fait fausse route en matière de simplification du RGPD. Rappelons que Bruxelles a publié en novembre 2025 un paquet législatif dédié au numérique qui vise à amender plusieurs des grands textes de loi européens, dont le RGPD, la directive e-Privacy, le règlement sur l’IA, etc..

Qualifié de « digital omnibus » du fait de ce caractère fourre-tout, le texte est vivement attaqué pour les allègements qu’il propose en matière de défense de la vie privée. Mi-janvier, deux organisations européennes ont ajouté de l’huile sur le feu en arguant que certaines des mesures de ce Digital Omnibus seraient le reflet du message porté par les lobbys de l’industrie de la tech à Bruxelles. L’un des points de crispation concerne l’article 15 relatif au droit d’accès aux données personnelles, que la Commission européenne prévoit de réduire au motif qu’il y aurait des « abus ».

C’est donc dans ce contexte tendu que noyb dégaine son étude, dont les résultats se veulent donc représentatifs des attentes non pas d’un secteur d’activité, mais d’une fonction bien précise, dont l’avis semble tranché. L’association résume :

« Il s’avère que la plupart des professionnels ne souhaitent pas une réduction des protections, mais une simplification des obligations de documentation et des formalités administratives. Dans bien des cas, ils demandent même des lois plus claires plutôt qu’une plus grande « flexibilité », difficile à mettre en œuvre pour la plupart des entreprises. »

Les DPO ne veulent globalement pas moins de protections

Le sondage a été réalisé en juillet 2025, et une fois nettoyées, les données permettent à noyb de consolider (voir l’étude au format PDF) les réponses de 510 DPO, dont la moitié évolue dans des sociétés comptant plus de 500 employés. Il est à noter que l’association a recruté les sondés par ses propres canaux de communication (réseaux sociaux et newsletter centrée sur les enjeux liés au RGPD).

Pour ce qui est de la charge de travail, les répondants déclarent que les tâches les plus chronophages sont liées aux obligations déclaratives, à la mesure d’impact, et à la conformité en matière de sécurité. Les principes qui constituent le cœur du règlement, les obligations d’information ou la gestion du droit d’accès sont quant à eux considérés comme relativement indolores. D’après noyb, plus de 70 % des sondés répondent ainsi que le droit d’accès ne génère que « peu », « un peu » ou « pas » de travail.

L’association affirme que ce chiffre confirme sa propre lecture du phénomène, selon laquelle la plupart des entreprises ne font l’objet que de rares demandes d’accès, tandis que les acteurs susceptibles d’être fréquemment sollicités (secteur de la publicité par exemple) ont de toute façon des routines de traitement automatisées.

Le sondage évalue les différentes missions afférentes à la conformité RGPD en fonction de la charge de travail engendrée – crédit noyb

L’association interroge ensuite son échantillon de DPO sur leur perception de l’utilité des missions en question. Ici, ce sont les obligations liées à la sécurité, les principes fondamentaux du texte, et l’obligation d’information qui apparaissent comme les éléments les plus utiles, juste devant le droit à l’accès. Elle s’étonne dans ce contexte que Bruxelles propose de limiter le droit d’accès ou les obligations de transparence.

« Cette étude révèle un fossé immense entre les besoins des personnes qui travaillent concrètement au respect de la conformité et les problèmes alimentés par la « bulle du lobby bruxellois ». Nous n’aidons pas les entreprises européennes dans leur fonctionnement normal ; la proposition de la Commission empiète même souvent sur ce que les professionnels considèrent comme utile », résume Max Schrems, fondateur de noyb.

L’association évalue le rapport entre niveau de protection perçu et charge de travail pour les principales obligations du RGPD – crédit noyb

Le « one size fits all » ne fait pas consensus

noyb profite de son étude pour interroger les DPO sur l’intérêt, ou non, de créer des paliers en fonction desquels le niveau d’obligation pourrait varier, de façon par exemple à ce que les exigences réglementaires soient alourdies pour les grands acteurs spécialistes de la vente de données, et allégées pour les petites et moyennes entreprises chez qui la gestion de données personnelles n’est qu’une problématique satellite.

La question n’est pas totalement innocente : dans sa communication autour du paquet numérique, Bruxelles fait en effet valoir que la simplification du RGPD profitera à toutes les entreprises, sans prendre en compte cette différence d’impact. Qu’en disent les intéressés ? « Malgré le fait que beaucoup d’entre eux représentent de plus grandes entreprises (500 + employés), 70% des répondants ont déclaré qu’il y avait un besoin de règles plus strictes pour les grandes entreprises », argue noyb, qui défend donc l’idée d’un système de paliers, avec des règles très claires, ne laissant que peu de place à l’interprétation juridique, pour les PME.

L’association interroge également la perception des DPO sur la proposition, faite par Bruxelles, d’un système de liste blanche, pour automatiser le consentement de certains recueils et traitements à finalité claire (la mesure d’audience par exemple) et donc réduire la pression au niveau des fameux bandeaux de cookies.

noyb, qui avait exprimé en novembre dernier des craintes sur les possibilités réellement offertes par cette liste blanche, note à ce niveau que 84 % des sondés sont globalement favorables à l’idée, mais ajoute à l’équation une autre hypothèse, jusqu’ici écartée par Bruxelles : celle d’un fonctionnement par liste noire, qui interdirait donc les traitements « clairement illicites », à la façon de ce qu’énonce l’article 5 du règlement européen sur l’IA. L’idée recueille un accueil favorable (totalement ou partiellement) chez 91 % des sondés.

« Étonnamment, les spécialistes de la protection de la vie privée (…) ne pensent pas qu’une « liste noire » limiterait excessivement [les responsables de traitement]. Il semble que la sécurité juridique soit privilégiée par rapport à la flexibilité de la loi. On peut supposer que la garantie d’une concurrence loyale est un facteur justifiant l’établissement de « listes noires », étant donné que les concurrents seraient eux aussi soumis à des règles plus claires. », commente l’association, qui appelle par conséquent à un débat plus large autour du Digital Omnibus.





  •  

Désignée « fournisseur à risque pour la sécurité nationale » aux US, Anthropic conteste

Misanthropic world
Désignée « fournisseur à risque pour la sécurité nationale » aux US, Anthropic conteste

L’administration Trump a mis sa menace à exécution : elle a désigné officiellement Anthropic comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Dario Amodei a annoncé que l’entreprise allait contester cette décision devant la justice. Le responsable s’excuse en même temps pour la fuite d’un mémo dans lequel il comparait Trump à un « dictateur ».

La tension n’est toujours pas retombée entre Anthropic et l’administration Trump. Cette dernière a officiellement désigné la startup comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Jusque-là, ce qualificatif n’avait jamais été utilisé par le pouvoir états-unien contre une entreprise du pays. L’implication juridique pourrait être plus ou moins importante économiquement pour Anthropic.

Une portée différente selon les deux parties

Le CEO de l’entreprise, Dario Amodei, a affirmé ce jeudi sur le blog d’Anthropic avoir reçu, la veille, la lettre officielle du Département de la Défense américain (DOD, désigné aussi sous le nom de Département de la Guerre par l’administration Trump).

Vendredi dernier, Pete Hegseth, le secrétaire d’État à la Défense, avait annoncé que cette qualification impliquait qu’ « aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l’armée américaine n’est autorisé à mener une quelconque activité commerciale avec Anthropic ». Cela aurait de lourdes conséquences pour la startup, dont les clients comme Microsoft, Google ou Amazon devraient choisir entre la startup ou leurs contrats avec la défense des États-Unis.

Mais dans son billet, le responsable de la startup conteste la portée de la mesure. Sans citer la lettre, il affirme que « le langage utilisé par le ministère de la Guerre dans la lettre (en supposant qu’il soit juridiquement valable) correspond à notre déclaration de vendredi selon laquelle la grande majorité de nos clients ne sont pas concernés par une désignation de risque lié à la chaîne d’approvisionnement » :

« cela s’applique clairement uniquement à l’utilisation de Claude par les clients dans le cadre direct de contrats avec le ministère de la Guerre, et non à toute utilisation de Claude par les clients qui ont conclu de tels contrats. »

Microsoft confirme au New York Times : « Nos avocats ont étudié cette désignation et ont conclu que les produits Anthropic, y compris Claude, peuvent rester disponibles pour nos clients (à l’exception du ministère de la Guerre) via des plateformes telles que M365, GitHub et Microsoft AI Foundry, et que nous pouvons continuer à travailler avec Anthropic sur des projets non liés à la défense ».

Des excuses pour des propos contre l’administration Trump dans un mémo interne

« Cette action imprudente est court-termiste, autodestructrice et fait le jeu de nos adversaires », affirme à nos confrères la sénatrice démocrate Kirsten Gillibrand. « Le fait que le gouvernement attaque ouvertement une entreprise américaine pour avoir refusé de compromettre ses propres mesures de sécurité est quelque chose que l’on attendrait de la Chine, pas des États-Unis », ajoute-t-elle.

Dans son billet de blog, Dario Amodei est aussi revenu sur la fuite d’un mémo interne qu’il a envoyé à ses employés. Dans celui-ci, obtenu par le média The Information et relayé par Futurism, le CEO fulminait : « La véritable raison pour laquelle [le département de la Défense] et l’administration Trump ne nous aiment pas, c’est que nous n’avons pas fait de dons à Trump ».

« Nous n’avons pas fait d’éloges à Trump dignes d’un dictateur (contrairement à Sam [Altman, ndlr]) », ajoutait Amodei, qui s’excuse sur son blog où il assure que ce n’est pas la direction de l’entreprise qui est à l’origine de la fuite : « Il n’est pas dans notre intérêt d’aggraver la situation ».

Et il remet le mémo dans son contexte du message de Donald Trump posté sur Truth Social et celui du département de la Défense sur X vendredi dernier. Le dirigeant y qualifiait notamment Anthropic d’ « entreprise woke de gauche radicale » et affirmait que les États-Unis ne la « laisseraient jamais dicter la manière dont [leur] grande armée mène et gagne les guerres ». Quant au Pentagone, il accusait l’entreprise et son CEO de duplicité.

  •  

La Wikipedia anglophone se bat contre des « hallucinations » venues de traductions par IA

OkAI
La Wikipedia anglophone se bat contre des « hallucinations » venues de traductions par IA

La version anglophone de Wikipédia se trouve confrontée à la gestion d’éditions utilisant massivement la traduction via l’IA, ce qui ajoute des erreurs dans l’encyclopédie. En cause, notamment, une association dont le but est de créer du contenu dans Wikipédia.

L’IA générative donne encore une fois du fil à retordre à Wikipédia. Cette fois, c’est son utilisation massive pour traduire des pages en anglais qui est pointée du doigt.

Il faut dire que la position de la fondation Wikimedia est sur une ligne de crête entre le fait de trouver des avantages à l’utilisation de l’IA générative pour automatiser certaines tâches et de gérer les problèmes qu’elle génère. Ainsi, l’année dernière, elle a dû retirer une fonctionnalité expérimentale de résumé automatique des articles de l’encyclopédie.

Une utilisation des IA génératives en discussion dans la Wikipédia anglophone

Au même moment, du côté de la version francophone, les éditeurs adoptaient un texte de recommandation sur l’usage de l’IA générative qui affirmait clairement que son utilisation était « vivement déconseillée ».

Concernant la traduction, le texte demande à ce que, si l’IA générative est utilisée pour de l’aide à la traduction, cela soit mentionné. La vérification des sens d’un mot étranger fait partie des « usages tolérés », avec la précision qu’il ne doit pas y avoir de « traduction littérale ou mot à mot », la page ajoutant « veillez à ce qu’il n’y ait pas de contre-sens ».

Mais du côté anglophone, une discussion sur le sujet n’est apparue qu’en janvier dernier, débouchant sur un texte adopté le 10 février concernant la traduction d’articles venant d’autres versions linguistiques de l’encyclopédie.

Celui-ci demande à ce que l’utilisation soit faite seulement si l’utilisateur a les compétences en anglais et dans la langue d’origine pour confirmer que la traduction est bonne. Il demande aussi que l’utilisateur ait vérifié qu’aucune hallucination n’a été ajoutée et que le texte reste fidèle aux sources citées.

Des textes traduits à la va-vite par une association dédiée à ça

Le texte a été adopté alors que des éditeurs ont pointé du doigt des erreurs manifestes dans certaines pages traduites à la va-vite. Ainsi, comme l’explique 404 Media, pour la page de la famille noble de La Bourdonnaye.

Alors que dans la version française, la phrase « La famille de La Bourdonnaye a pour berceau la seigneurie de la Bourdonnais à Trégomar dans les Côtes d’Armor en France » est accompagnée de la mention « [réf. nécessaire] », une source a été ajoutée lors de la traduction automatique par un utilisateur, mais celle-ci ne contient pas d’indication sur cette famille à la page donnée, indique Ilyas Lebleu (dont le pseudo est Chaotic Enby sur Wikipédia).

Mais ce n’est qu’un exemple, ainsi il explique à 404 média que pour certains articles « les sources avaient changé et des phrases avaient été ajoutées sans source et sans explication, tandis que l’article sur les élections sénatoriales françaises de 1879 avait ajouté des paragraphes provenant de sources sans aucun rapport avec le contenu initial ! ».

Le problème viendrait notamment d’ajouts faits par des éditeurs de l’association Open Knowledge Association (OKA). Celle-ci s’affiche comme faisant de la « diffusion de contenu gratuit sur Wikipédia et d’autres plateformes ouvertes grâce à un financement ciblé », et se vante d’avoir créé et traduit près de 5 000 articles sur Wikipedia. Les internautes peuvent donner à l’association et si la somme est supérieure à 10 000 francs suisses, ils peuvent demander d’enrichir un champ particulier.

« Si vous souhaitez faire traduire des pages spécifiques, nous les examinerons, mais ne les traduirons que si nous estimons qu’elles répondent à nos critères de qualité », ajoute l’association qui s’engage aussi à préciser les éventuels conflits d’intérêt lors de l’édition.

Mais cette découverte par Ilyas Lebleu a fait remonter de nombreuses autres traductions problématiques publiées par OKA sur l’encyclopédie. Des bénévoles de la version anglophone de Wikipédia ont pointé à 404 Media un tableur utilisé par les traducteurs d’Oka dans lequel se trouvent les instructions :

« Choisissez un article, copiez l’introduction dans Gemini ou chatGPT, puis vérifiez si certaines des suggestions améliorent la lisibilité. Modifiez les articles de Wikipédia uniquement si les suggestions constituent une amélioration et ne changent pas le sens de l’introduction. Ne modifiez pas le contenu avant d’avoir vérifié que les suggestions de Gemini sont correctes ! »

Le fondateur de OKA, Jonathan Zimmermann, explique à 404 Media que « des erreurs arrivent » mais que la méthode d’OKA « comprend une relecture humaine, demande aux traducteurs de vérifier le texte par rapport aux sources citées » et il assure que des « responsables vérifient régulièrement des extraits, spécifiquement pour des nouveaux traducteurs ».

Il explique que depuis peu, les traducteurs doivent passer leurs textes dans un autre outil en utilisant un prompt spécifique de comparaison qui doit identifier les incohérences, omissions ou inexactitudes.

  •  

#Nextquick Comment fonctionne le PCI Express, qui double ses débits à chaque génération

NEXTe >> PCIe
#Nextquick Comment fonctionne le PCI Express, qui double ses débits à chaque génération

Vous êtes-vous déjà demandé d’où venait le PCI Express (PCIe) utilisé par les cartes graphiques et comment il faisait pour doubler ses débits à chaque génération ? Oui, alors Next vous apporte les réponses. Non ? Parfait, c’est l’occasion d’apprendre de nouvelles choses !

Le PCIe comme nous avons l’habitude de l’appeler, a bien des noms. La version longue : Peripheral Component Interconnect Express. Version plus courte : PCI Express. On parle aussi de PCI-E ou PCIe en abrégé. Le PCIe est une norme de bus d’extension, permettant de connecter des cartes d’extension sur des cartes mères.

Petite histoire du PCI Express : Arapahoe (Intel) >> 3GIO >> PCIe

Le PCIe est une évolution du PCI classique et remplace aussi l’AGP qui était utilisé par des cartes graphiques (et encore avant les bus VLB et (E)ISA). Le PCIe est né au début des années 2000, d’abord lancé par Intel sous le nom de code projet Arapahoe puis sous l’appellation 3GIO pour Third Generation I/O. Il est ensuite repris par le PCI-SIG, avec SIG pour Special Interest Group, encore aujourd’hui en charge du PCIe. Au conseil d’administration, on retrouve du beau monde : AMD, ARM, Dell, IBM, Intel, Keysight, NVIDIA, Qualcomm et Synopsys.

En 2002, le PCI Express était né. Aujourd’hui, c’est la 8ᵉ génération de PCIe qui est en travaux. Ce bus d’extension est présent sur toutes les cartes mères, en version 5.0 pour les plus récentes. De 8 Go/s en bi-directionnel (4 Go dans chaque sens, descendant et montant), il est maintenant question de… 1 024 Go/s, soit 128x plus en plus de deux décennies. Pour en arriver là, plusieurs évolutions ont été nécessaires.

Voici un rapide état des lieux des dates et des débits (approximatifs) de chaque génération :

  • PCIe 1.0 (2003) : jusqu’à 8 Go/s en x16
  • PCIe 2.0 (2007) : jusqu’à 16 Go/s en x16
  • PCIe 3.0 (2010) : jusqu’à 32 Go/s en x16
  • PCIe 4.0 (2017) : jusqu’à 64 Go/s en x16
  • PCIe 5.0 (2019) : jusqu’à 128 Go/s en x16
  • PCIe 6.0 (2022) : jusqu’à 256 Go/s en x16
  • PCIe 7.0 (2025) : jusqu’à 512 Go/s en x16
  • PCIe 8.0 (2028) : jusqu’à 1024 Go/s en x16

Comment fonctionnent les « lignes » PCIe

Le PCIe fonctionne avec des lignes, de 1 à 16 généralement, on parle alors de x1, x4, x8 et x16. Rambus rappelle que des interfaces en x32 et x12 ont été supprimées avec le PCIe 6.0. « Bien que ces largeurs soient disponibles dans les spécifications PCIe 5.0 et antérieures, ces largeurs n’ont jamais été implémentées sur le marché », ajoute l’entreprise.

Chaque ligne comprend deux paires de fils : une pour le débit montant, l’autre pour le débit descendant ; on parle de full-duplex. Suivant le nombre de lignes disponibles – il y a « négociation » entre la carte mère et la carte d’extension – les données sont envoyées en une seule fois, ou découpées en 4, 8 ou 16.

Par exemple, avec quatre lignes, le premier symbole (on va y revenir) va à la ligne 1, le 2e à la ligne 2, etc. Au 5e, retour à la ligne 1, le 6e à la ligne 2, etc. De cette manière, une carte graphique PCIe x16 peut fonctionner sur un connecteur x16, mais aussi en x8, x4 et même x1. Le transfert des données est plus ou moins rapide.

C’est quoi ces GT/s et comment on passe au Go/s ?

Passons maintenant au débit. Le PCIe 1.0 est annoncé à 250 Mo/s par ligne, soit 4 Go/s avec 16 lignes (250 x 16). Pour rappel, c’est du full-duplex, donc on peut aussi parler de 8 Go/s (dans les deux sens). Mais on lit aussi parfois des GT/s pour gigatransferts/s. C’est la manière de parler des débits d’un bus informatique, indépendant du codage des données.

Codage ? Oui, en PCIe chaque octet de 8 bits est transformé en un symbole de 10 bits : 8b/10b. Les symboles sont ensuite transmis. On voit rapidement arriver le problème : pour 8 bits, il faut en envoyer 10. Il y a des pertes.

PCIe x1 x4 x16
De haut en bas : PCIe x16 (bleu), x1, x4, x16 et enfin PCI (noir en bas)

Entre le PCIe 1.0 et 2.0, les GT/s doublent

Nous n’allons pas entrer dans tous les détails, mais le PCIe 1.0 était à 2,5 GT/s par ligne. Pour obtenir le débit utile, il faut multiplier les GT/s par l’efficacité du codage. Nous avons des Gb/s, que l’on divise par huit pour passer en Go/s.

Le PCIe 2.0 garde le même fonctionnement que le PCIe1, mais avec un débit brut doublé, soit 5 GT/s. Voici les calculs pour passer en Go/s (par ligne) :

  • Débit du PCIe 1.0 : (2,5×8/10)/8 = 0,250 Go/s ou encore 250 Mo/s
  • Débit du PCIe 2.0 : (5×8/10)/8 = 0,5 Go/s ou encore 500 Mo/s

PCIe 3.0 à 5.0 : nouveau codage 128/130b avec moins de « pertes »

Le PCIe 3.0 change le codage des symboles de 8b/10b à 128b/130b. Un symbole de 130 bits pour 128 bits, soit une perte de 1,5 % seulement (au lieu de 20 %). Le débit brut n’augmente qu’à 8 GT/s mais le débit pratique est quand même doublé. Avec le PCI 4.0 et 5.0, le débit brut est doublé, sans autre changement.

  • Débit du PCIe 3.0 : (8×128/130)/8 = 0,985 Go/s ou encore 985 Mo/s (arrondi à 1 Go/s).
  • Débit du PCIe 4.0 : (16×128/130)/8 = 1,969 Go/s ou encore 1 969 Mo/s (arrondi à 2 Go/s).
  • Débit du PCIe 5.0 : (32×128/130)/8 = 3,938 Go/s ou encore 3 938 Mo/s (arrondi à 4 Go/s).

PCIe 6.0 à 8.0 : le débit double avec PAM-4

Le PCIe 6.0 inaugure le passage au PAM-4, pour modulation d’amplitude d’impulsion, à la place du NRZ (non-return to zero). Avec le NRZ, il n’y a que deux états (niveaux de tension) pour le signal : 0 ou 1. Facile à distinguer. En PAM il y en a davantage : trois avec PAM-3, quatre avec PAM-4, etc. PAM-4 utilise donc quatre états, par exemple 00, 01, 10 et 11. Au lieu d’un bit, le signal en transporte deux bits.

Comparaison entre NRZ et PAM4, crédits : Rambus

Le débit brut du PCIe 6.0 reste le même qu’en 5.0, mais PAM-4 permet de doubler le nombre de bits sans rien faire de plus. On passe donc de 32 à 64 GT/s avec le choix du PCIe d’associer les transferts aux bits (et non pas aux symboles). L’encodage passe sur 242 octets / 256 octets.

Avec le PCI 7.0 et 8.0, le débit brut est doublé à chaque fois :

  • Débit du PCIe 6.0 : (64/8)x(242/256)= 7,563 Go/s ou encore 7 563 Mo/s (arrondi à 8 Go/s).
  • Débit du PCIe 7.0 : (128/8)x(242/256)= 15,125 Go/s ou encore 15 125 Mo/s (arrondi à 16 Go/s).
  • Débit du PCIe 8.0 : (256/8)x(242/256)= 30,25 Go/s ou encore 30 250 Mo/s (arrondi à 32 Go/s).
  •  

[MàJ] Que se passe-t-il chez YggTorrent ? « Quelque chose se prépare »… mais quoi ?

Bonne ambiance !
[MàJ] Que se passe-t-il chez YggTorrent ? « Quelque chose se prépare »… mais quoi ?

YggTorrent est mort, mais il bouge encore. Le message affiché sur la page d’accueil change, répond à certaines accusations et propose désormais les noms de domaine à la vente… « exclusivement pour un projet légal ». Pendant un temps, un compte à rebours annonçait un retour, sous la forme Ygg tout court.

Mise à jour du 6 mars à 12h55. Le compte à rebours est de retour, toujours avec un rendez-vous lundi à 21 h.


Article du 6 mars à 9 h 33. En début de semaine, le site YggTorrent annonçait sa fermeture, suite à un piratage massif de ses données : pas moins de 30 Go ont été publiées avec des informations sur le code source, les utilisateurs, bancaires, etc. Le pirate expliquait aussi en détail comment il était entré dans les serveurs.

Le message de l’équipe d’YggTorrent était alors clair, sans ambiguïté : il débutait par « Fermeture définitive de YggTorrent » et se terminait par « L’histoire s’arrête ici ». Une « reconstruction serait techniquement possible », affirmait l’équipe, mais elle ne souhaitait pas « continuer dans un climat d’acharnement permanent ». Mais en fait non, l’histoire ne s’arrête pas là.

Nouveau message, toujours une « fermeture définitive »

Un nouveau texte a été mis en ligne sur le site de YggTorrent. Il est plus court et moins dans l’émotion que le premier et donne de nouvelles informations. Tout d’abord, le site affirme qu’« aucune donnée bancaire n’a jamais été collectée ni stockée par nos systèmes, et l’ensemble des mots de passe des comptes actifs étaient protégés par un hachage cryptographique sécurisé ». Il était auparavant précisé que les mots de passe étaient « hachés et salés ».

Il n’est plus du tout question des « portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, [qui] ont également été dérobés (un détail que certains choisiront d’ignorer) ». Le site affirme que « les auteurs de l’attaque multiplient les déclarations mensongères […] Ils déforment les faits, fabriquent de fausses preuves et comptent sur la confusion pour imposer leur version ». À ce petit jeu, l’équipe d’YggTorrent semble aussi participer…

Offre légale mise en avant, l’intégralité des noms de domaine est à vendre

Enfin, comme précédemment, l’offre légale est mise en avant : « Ne vous laissez pas tromper et tournez-vous plutôt vers les nombreuses solutions légales désormais disponibles ». Le site est désormais divisé en deux, avec la partie droite qui met en avant les plateformes légales comme Netflix, Canal+, Disney+, Prime, France.tv, Arte…

Il est par ailleurs précisé que « l’intégralité de nos noms de domaine est à vendre, exclusivement pour un projet légal, sans aucun lien avec le torrenting ni le téléchargement d’œuvres protégées. Les demandes non sérieuses seront ignorées ».

Il y a peu, un compte à rebours annonçait… un retour d’Ygg

Mais ne pensez pas que l’histoire s’arrête là ! Avant cette mise en vente, il y a eu un retour annoncé de Ygg (sans le Torrent) avec un compte à rebours, comme le rapporte ZDNet, avec le message « Quelque chose se prépare », et une phrase en russe : « il est trop tôt pour nous enterrer ». Le rendez-vous était pour lundi 16 mars à priori, mais le compte à rebours a disparu… pour l’instant ? Le site est cette semaine en mode girouette, bien malin celui qui arrive à prévoir le prochain coup.

En effet, quelques heures avant la capture d’écran de ZDNet, un utilisateur sur X faisait état d’encore une nouvelle version du site, déjà avec un compte à rebours, mais surtout avec un « communiqué », que l’on retrouve aussi sur Reddit. Le message affirmait déjà qu’« aucune donnée bancaire n’a jamais été collectée, stockée ni traitée par nos systèmes ».

Le communiqué ajoutait que « notre architecture n’a à aucun moment intégré de module de stockage d’informations de cartes de paiement. Les allégations contraires sont factuellement fausses […] Le recours au hachage MD5 évoqué concerne exclusivement moins de 3 % des comptes utilisateurs ». Communiqué qui n’est aujourd’hui plus disponible.

Selon le texte qui était alors disponible, le site rejette la faute du piratage sur son hébergeur, sauf que comme l’a montré Grolum dans sa longue explication, cela ne colle pas vraiment avec ses explications.

Retour du compte à rebours

Dans la matinée, le compte à rebours était de retour, comme nous l’a signalé Droup dans les commentaires. Le reste du message, y compris la vente des noms de domaine, est le même. Seule différence, le mot Torrent de YggTorent est barré.

On retrouve donc le message « YggTorrentest mort », « Quelque chose se prépare » et « Non omnis moriar ». Du latin qui, d’après DeepL, se traduirait par « Je ne mourrai pas complètement ». Rendez-vous lundi à 21 h… du moins si le compte à rebours reste en place et annonce vraiment quelque chose. Le code source de la page ne semble pas cacher de secret particulier.

La suite au prochain épisode ?

  •  

Quantique : Pasqal lève 340 millions d’euros et vise déjà le Nasdaq

L'anti dead cat bounce
Quantique : Pasqal lève 340 millions d’euros et vise déjà le Nasdaq

Pasqal, startup française du quantique, a annoncé coup sur coup une levée de fonds de 340 millions d’euros et son association avec un SPAC en vue de préparer son introduction en bourse, avec l’objectif d’une double cotation, à Paris et à New-York. L’opération valoriserait la société deux milliards de dollars.

Non contente d’avancer sur le développement d’ordinateurs quantiques à base d’atomes neutres, la startup française Pasqal fait cette semaine la démonstration de ses talents en matière d’ingénierie financière. Depuis son siège de Palaiseau, elle vient en effet de dévoiler une double opération, qui lui permet à la fois de muscler sa trésorerie immédiatement disponible et de préparer l’avenir en posant les bases d’une double introduction en bourse : d’abord sur le Nasdaq (l’indice des valeurs technologiques de Wall Street) à New-York puis sur Euronext à Paris.

170 millions d’euros en capital…

Dans le détail, Pasqal a annoncé mercredi avoir procédé à un tour de table qui lui permet de réunir au moins 340 millions d’euros (environ 395 millions de dollars), en deux temps. La première moitié de cette manne (soit 170 millions d’euros) est amenée sous forme de capital, avec un tour de table qui réunit, selon la startup, un groupe d’investisseurs internationaux de premier plan.

L’opération est emmenée par le fonds états-unien Parkway Ventures, le taïwanais Quanta Computer, le coréen LG Electronics et le français CMA CGM. Pasqal indique que ses investisseurs historiques, parmi lesquels le français ISAI, fonds européen pour l’innovation, le fonds souverain de Singapour Temasek et la branche investissement de Saudi Aramco remettent également au pot.

Bpifrance, qui compte parmi les investisseurs de Pasqal depuis sa série A de 2021, ne semble pas participer directement, mais la startup prend soin de préciser que la banque publique d’investissement « maintient un rôle stratégique à long terme dans la structure du capital ».

… et un engagement équivalent en vue de l’entrée en bourse

La seconde tranche de 170 millions d’euros prend quant à elle la forme d’un engagement sous forme de financement convertible (les investisseurs prêtent de l’argent à l’entreprise dans l’optique d’un remboursement sous forme d’actions). Cette seconde tranche intervient dans le contexte d’une introduction en bourse programmée en deux temps : à Wall Street d’ici fin 2026, puis à Paris sur Euronext dans les mois suivants.

Pour ce faire, Pasqal va s’adosser à un SPAC (special purpose acquisition company), une coquille vide introduite spécifiquement en bourse pour préparer le terrain à une autre société. En l’occurrence, le véhicule concerné est déjà identifié : il s’agit de la société Bleichroeder Acquisition Corp. II, qui compte un certain Michel Combes parmi ses fondateurs. Ancien PDG de SFR et directeur général d’Altice, Michel Combes a par la suite occupé un poste de directeur financier chez l’opérateur Sprint, avant de prendre la tête du japonais Softbank pendant deux ans.

Cette tranche convertible associe elle aussi un aréopage d’investisseurs institutionnels, parmi lesquels le fonds indien Inflection Point, et le fonds Large Ventures de Bpifrance.

Si l’opération va à son terme dans les conditions décrites ici, Pasqal sera valorisée 2 milliards de dollars avant conclusion des financements, et environ 2,6 milliards de dollars en prenant en compte la trésorerie disponible via ses différents véhicules.

Un ancrage français conservé

Pasqal, qui indique compter environ 275 employés, revendique 25 clients et partenaires pour ses premiers ordinateurs quantiques, ainsi qu’un carnet de commandes de l’ordre de 80 millions de dollars. L’entreprise affirme que ces fonds vont lui permettre d’accélérer significativement ses développements :

« En France, Pasqal prévoit de doubler sa capacité de production en 24 mois, d’augmenter ses effectifs de près de 20 % avec 50 nouvelles embauches au cours des 18 prochains mois et d’investir massivement dans la R&D pour développer un ordinateur quantique avancé et tolérant aux pannes d’ici la fin de la décennie. »

Pasqal, qui compte parmi les quelques pépites hexagonales du quantique aux côtés de sociétés comme Quandela, C12, Alice&Bob ou Quobly, assure par ailleurs de son intention de rester une société de droit français, avec un ancrage français, en dépit de la ventilation de son capital :

« La gouvernance envisagée (…) prévoit la nomination d’un nouveau président non exécutif de nationalité française. Cette structure de gouvernance a été élaborée en étroite collaboration avec les actionnaires et reflétera l’engagement de Pasqal à consolider son ancrage français tout en poursuivant son expansion internationale. L’entreprise devrait conserver son statut juridique français et son siège social à Palaiseau. »

  •  

☕️ OpenAI sort GPT-5.4, avec deux versions tournées vers les tâches « professionnelles »

OpenAI avance un nouveau pion dans la course effrénée que se livrent les acteurs de l’IA générative avec la sortie, jeudi 5 mars, de GPT‑5.4, dernière itération en date de son grand modèle de langage. Immédiatement disponible au travers de ChatGPT, des API proposées aux entreprises ou de Codex, l’outil dédié aux développeurs, GPT‑5.4 est décliné en deux versions : GPT‑5.4 Pro, « pour les personnes qui recherchent une performance maximale sur des tâches complexes », et GPT‑5.4 Thinking, qui promet des capacités plus poussées en matière de recherche en ligne, de taille de contexte et de gestion des requêtes complexes.

Dans un long article de présentation, rempli de tests de performance superlatifs, OpenAI indique avoir mis, avec GPT‑5.4, l’accent sur la capacité à créer et éditer des documents bureautiques (un nouveau plugin Excel est par ailleurs lancé en même temps), mais aussi sur la capacité à contrôler un ordinateur et à voir (c’est-à-dire à analyser le contenu de captures d’écran) le résultat de ses actions au fil de l’eau. Difficile de ne pas y voir une réponse directe aux comportements agentiques développés par Anthropic avec Claude Cowork.

OpenAI accompagne le déploiement de GPT‑5.4 d’une série de mesures de performance qui attestent, selon l’entreprise, de la supériorité de son nouveau modèle sur les deux références concurrentes du moment, à savoir Claude Opus 4.6 et Gemini 3.1 Pro.

Comparaison, selon OpenAI, des performances de GPT-5.4 avec les modèles précédents et la concurrence d’Anthropic et de Google – crédit OpenAI

GPT‑5.4 fait actuellement l’objet d’un déploiement progressif, et doit selon OpenAI s’imposer auprès des utilisateurs comme le nouveau modèle de référence. Le nouveau venu va d’ailleurs évincer GPT-5.2 Thinking qui sera mis à la retraite d’ici trois mois. Le changement n’est pas tout à fait anodin pour les gros consommateurs : GPT-5.4 est en effet facturé plus cher que son prédécesseur. En version API, il faut ainsi compter 2,5 dollars par million de jetons, quand GPT-5.2 était à 1,75 dollar.

Prix d’accès aux modèles GPT du moment, en dollars par million de jetons en entrée, puis en dollars par million de jetons en sortie – capture d’écran

Au fait, pourquoi GPT-5.4, alors que les versions Pro utilisaient jusqu’ici GPT-5.2, sorti en décembre, et que OpenAI a en parallèle sorti GPT-5.3 Codex début février et GPT-5.3 Instant début mars ? OpenAI l’explique de la façon suivante :

« GPT-5.4 est notre premier modèle de raisonnement principal intégrant les fonctionnalités de codage avancées de GPT-5.3-codex et déployé progressivement sur ChatGPT, l’API et Codex. Nous l’appelons GPT-5.4 pour refléter cette évolution et simplifier le choix entre les modèles lors de l’utilisation de Codex. Nos modèles Instant et Thinking évolueront à des rythmes différents au fil du temps. »

  •  

Des espions russes et cybercriminels chinois ont récupéré un spyware iPhone lié à la NSA

Back in the USSR (& remade in China)
Des espions russes et cybercriminels chinois ont récupéré un spyware iPhone lié à la NSA

« Coruna », qui repose sur pas moins de cinq chaînes d’exploitation iOS complètes et 23 exploits iOS, aurait coûté plusieurs millions de dollars en développement. Google, qui l’a identifié dans trois séries de cyberattaques en 2025, ne sait pas comment il aurait été revendu au renseignement russe puis à des scammers chinois.

Le Google Threat Intelligence Group (GTIG) a identifié un nouveau kit d’exploitation particulièrement puissant ciblant les modèles d’iPhone Apple fonctionnant sous iOS version 13.0 (sortie en septembre 2019) jusqu’à la version 17.2.1 (sortie en décembre 2023).

La simple consultation d’un site web infecté suffisait à permettre l’installation du logiciel malveillant, dont la sophistication laisse supposer qu’il avait initialement été conçu par (ou pour) un service de renseignement disposant de ressources importantes.

Baptisé « Coruna » par ses développeurs, il repose en effet sur pas moins de cinq chaînes d’exploitation iOS complètes et un total de 23 exploits iOS, les plus avancés utilisant des techniques d’exploitation non publiques et des contournements de mesures d’atténuation. Deux d’entre eux avaient en outre déjà été reliés à une opération attribuée par la Russie à la National Security Agency (NSA).

Un marché noir d’exploits zero-day « d’occasion »

GTIG l’avait initialement repéré, en février 2025, alors qu’il était exploité dans des « opérations hautement ciblées » menées par un client d’un vendeur de logiciels espions étatiques, sans plus de précisions quant à leurs identités respectives.

Google précise cela dit qu’il exploitait une vulnérabilité précédemment identifiée comme un zero-day et corrigée par Apple en janvier 2024 (CVE-2024-23222).

Il l’a ensuite observé, en juillet, dans des attaques de type « watering hole » (ou « attaque de trou d’eau », consistant à piéger un site spécifique pour contaminer les machines de ses visiteurs) menées par un groupe de cyberespionnage russe ciblant des internautes ukrainiens.

Dans un troisième temps, en décembre, Coruna a été exploité « dans des campagnes à grande échelle » par un acteur malveillant opérant depuis la Chine et contaminant un très grand nombre de sites de cryproactifs et de jeux d’argent en langue chinoise.

« La manière dont cette prolifération s’est produite n’est pas claire », précise Google, « mais elle suggère l’existence d’un marché actif pour les exploits zero-day « d’occasion » ». Au-delà de ces exploits identifiés, « de multiples acteurs malveillants ont désormais acquis des techniques d’exploitation avancées qui peuvent être réutilisées et modifiées avec des vulnérabilités nouvellement identifiées », souligne GTIG.

Son développement a coûté des millions de dollars

Google relève que deux des 23 exploits contenus dans Coruna avaient précédemment été utilisés dans l’Operation Triangulation découverte par Kaspersky en 2023, et attribuée par la Russie à la NSA. Elle reposait sur une série de quatre failles 0-day, ayant à l’époque conduit à la compromission totale d’iPhone d’employés de Kaspersky et de diplomates russes.

Le rapport technique de l’antivirus mettait également en avant les nombreuses défenses intégrées dans iOS et le degré extrême de sophistication pour les contourner et exploiter les vulnérabilités. Ce qui le rapproche là aussi de Coruna.

Son code semble par ailleurs avoir été initialement écrit par des programmeurs anglophones, explique à WIRED Rocky Cole, cofondateur d’iVerify, spécialiste des menaces ciblant les mobiles, qui vient lui aussi de publier un long rapport technique à son sujet :

« Il est très sophistiqué, son développement a coûté des millions de dollars et il porte les marques d’autres modules qui ont été publiquement attribués au gouvernement américain. C’est le premier exemple que nous ayons vu d’outils très probablement utilisés par le gouvernement américain – d’après ce que nous révèle le code – qui échappent à tout contrôle et sont utilisés à la fois par nos adversaires et par des groupes de cybercriminels. »

Au moins 42 000 iPhone et iPad infectés en Chine

Un partenaire d’iVerify ayant accès au trafic réseau a comptabilisé les visites sur un serveur de commande et de contrôle pour la version cybercriminelle de Coruna infectant les sites web en langue chinoise. Le volume de ces connexions suggère qu’environ 42 000 terminaux auraient été piratés avec cette boîte à outils dans le cadre de cette seule campagne.

iVerify avance que la version chinoise de Coruna semblait avoir été modifiée pour vider les portefeuilles de cryptoactifs, inspecter les photos et Apple Notes des appareils et les exfiltrer lorsqu’y figurent des mots-clefs comme « backup phrase » ou « bank account ». Mais ces ajouts étaient aussi « mal écrits » par rapport au code préexistant, précise à WIRED Spencer Parker, directeur des produits chez iVerify.

Google relève que le Coruna chinois affichait également un pop-up expliquant aux internautes que « la page a été optimisée pour les terminaux iOS. Merci d’y accéder depuis un iPhone ou un iPad ». Certains commentaires comportent en outre des emojis et sont rédigés à la manière de ceux qui sont générés par une IA générative.

<PlasmaLogger> %s[%d]: [PLCoreHeartbeatMonitor] ✅ 心跳监控已启动 (端口=0x%x),等待 CorePayload 发送第一个心跳...

Rocky Cole, qui travaillait à la NSA mais qui a quitté le gouvernement il y a plus de 10 ans, émet l’hypothèse que Coruna aurait été récupéré par un courtier en exploits et vulnérabilités « 0days » non occidental et peu scrupuleux, qui l’aurait ensuite revendu à un service de renseignement russe, mais sans expliquer pour autant comment il aurait ensuite été récupéré par les cybercriminels chinois.

Google relève qu’Apple a corrigé les vulnérabilités exploitées par Coruna dans les dernières versions de son système d’exploitation mobile, iOS 26, de sorte que ses techniques d’exploitation ne sont confirmées que pour iOS 13 à 17.2.1.

GTIG note également que Coruna vérifiait si les terminaux avaient activé le mode verrouillage « Lockdown Mode », précisément conçu pour protéger leurs utilisateurs de tels logiciels espion, et ne tentait pas de les infecter en pareil cas.

Google rappelle, en guise de conclusion, participer activement au processus Pall Mall, qui vise à établir un consensus et à progresser vers la limitation des dommages causés par l’industrie des logiciels espions :

« Ensemble, nous nous attachons à élaborer des normes et des cadres internationaux afin de limiter l’utilisation abusive de ces technologies puissantes et de protéger les droits de l’homme dans le monde entier. Ces efforts s’appuient sur des mesures gouvernementales antérieures, notamment celles prises par le gouvernement américain pour limiter l’utilisation des logiciels espions par les pouvoirs publics, et sur un engagement international sans précédent en faveur d’initiatives similaires. »

Google et iVerify partagent tous deux les indicateurs de compromission (IOC) associés à Coruna afin de faciliter leur détection. Le second rappelle également que l’application iVerify Basic, disponible gratuitement sur l’App Store, permet de vérifier les éventuels indicateurs de malwares et spywares y figurant.

  •  

US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

Résister aux constructeurs d'IA
US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

Portée par le Future of Life Institute, une nouvelle déclaration « pro-humaine sur l’IA » réunit des signatures de tous les bords politiques états-uniens, ainsi que de multiples personnalités plus ou moins proches du domaine. Le texte joue d’une rhétorique du remplacement de l’humanité par l’IA.

Une déclaration de plus, sur la manière dont l’humanité devrait s’emparer de l’intelligence artificielle, une ! En ce mois de mars, une nouvelle prise de parole a émergé sur le site humanstatement.org. Intitulée « the Pro-Human AI Declaration », le texte est signé par des représentants de tous les bords politiques aux États-Unis et de multiples organisations spécialisées dans l’intelligence artificielle, dans la défense des droits numériques ou dans différents sujets de sociétés. 



L’ex-conseiller de Donald Trump Steve Bannon se retrouve ainsi aux côtés de l’organisation de terrain Progressive Democrats of America, du Congress of Christian Leaders (une association d’églises évangéliques) ou de l’AFL-CIO Tech Institute (spécialiste des effets des nouvelles technologies sur le travail).

Lui aussi signataire de nombreux appels à freiner la course actuelle, le prix Turing Yoshua Bengio côtoie par ailleurs la fondatrice de l’ONG Campagne internationale pour l’abolition des armes nucléaires et prix Nobel Beatrice Fihn, le fondateur de Virgin Group Richard Branson, la directrice exécutive du versant états-unien de Pause AI Holly Elmore, ou encore l’acteur Joseph Gordon-Levitt.

Le texte, lui, propose cinq axes de travail : s’assurer que les humains gardent la maîtrise des outils d’IA, éviter les concentrations de pouvoir, protéger les expériences humaines (des liens familiaux ou communautaires à l’identité, en passant par la protection des mineurs), assurer le pouvoir d’action et la liberté humaine et s’assurer de la responsabilité des constructeurs d’IA ainsi que de leur obligation de rendre des comptes.

Une dynamique portée par le Future of Life Institute

Le texte est porté par le Future of Life Institute (FLI), acteur influent du domaine de l’AI safety (sécurité de l’IA), déjà présent derrière les différents appels à des moratoires sur l’IA ces dernières années. Chercheur en IA, le président du FLI Max Tegmark argumente régulièrement pour traiter le champ de l’IA comme d’autres secteurs à haut risques, avec des normes de sécurité contraignantes et une surveillance indépendante.

En introduction, le texte cite directement des propos du PDG d’OpenAI Sam Altman ou de l’informaticien Richard Sutton – le premier multiplie en effet les déclarations fracassantes, qualifiant le recours à l’IA de nécessaire à l’éducation, ou estimant que la consommation d’eau requise pour l’entraînement de systèmes d’IA n’est pas plus élevée que celle nécessaire à un humain sur vingt ans.

La Déclaration se place en l’occurrence contre les propositions « d’altérer ou de remplacer l’humanité elle-même » que formulent ces acteurs, dans la mesure où cette course « crée des risques pour la stabilité sociale, la sécurité nationale, la prospérité économique, les libertés civiques, la vie privée et la gouvernance démocratique ».

Signé par plusieurs organisations religieuses (G20 Interfaith Forum Association, Faith Matters), de promotion des familles traditionnelles (Institute for Family Studies) mais aussi de défense des droits des femmes et des minorités (Saving Ourselves Foundation, Inc), le texte regrette aussi la « mise en péril des expériences humaines que sont l’enfance, la famille, la foi et la communauté ».

Et de proposer, entre autres mesures, l’intégration de bouton off dans les systèmes d’IA, l’interdiction des architectures « imprudentes » permettant l’auto-amélioration ou l’auto-réplication ; le refus du renflouement public des sociétés d’IA (solution évoquée par Altman lorsque les débats autour d’une éventuelle bulle financière se sont faits importants) ; la mise en place de tests pré-déploiement, à l’instar de ce qui se fait dans l’industrie pharmaceutique ; ou encore la préservation des données personnelles comme de la « vie privée psychologique », ce qui reviendrait à empêcher les systèmes d’IA « d’exploiter des données relatives aux états mentaux ou émotionnels des usagers ».

Une illustration des difficultés à encadrer le domaine ?

Cet appel est au moins le quatrième signé par de multiples personnalités que le Future of Life Institue a porté depuis 2015. Si ses représentants ont activement participé aux négociations autour du règlement sur l’intelligence artificielle (RIA) en Europe, voire se sont adressés à l’ONU pour évoquer les manières de réguler le domaine, la répétition de ces appels pourrait traduire les difficultés à effectivement peser sur la question d’un encadrement de l’intelligence artificielle. 



En Europe, en effet, certaines dispositions du RIA sont déjà remises en discussion à la faveur du Digital Omnibus. Aux États-Unis, si certaines tentatives sont portées à travers le pays, notamment au niveau des États, Donald Trump n’a pas fait mystère du soutien qu’il apporte aux constructeurs d’intelligence artificielle – sauf lorsque celles-ci souhaitent maintenir quelques rares garde-fous, comme Anthropic a tenté de le faire la semaine passée.

La variété des positions politiques des signataires de cet appel, cela dit, permettra peut-être d’ouvrir une discussion. Pour parvenir à les réunir, raconte The Verge, le Future of Life a invité environ 90 représentants politiques ou cadres d’organisations de la société civile dans une salle de conférence de la Nouvelle-Orléans, sans leur communiquer la liste d’invités à l’avance.

Si le contenu des échanges a vocation à rester privé, plusieurs participants témoignent auprès du journal avoir été surpris de la rapidité à laquelle le groupe s’est accordé sur une variété de points, que ce soit sur la possibilité pour les systèmes d’IA d’agir de manière autonomes sur des armes létales, sur le refus de permettre à leurs constructeurs de tirer profit des attachements émotionnels des mineurs, ou encore sur le refus d’accorder une personnalité juridique à ces outils.

Contrairement aux précédentes lettres ouvertes organisées par le FLI, aucun représentant de l’industrie n’a été invité cette fois-ci. Pour la directrice du programme Futurs de l’institut, Emilia Javorsky, cette décision a été prise exprès pour éviter de voir les intérêts de ces entreprises devenir la perspective dominante dans les discussions. D’après elle, cette absence explique en partie la rapidité de l’accord des signataires.

Pour la présidente de la Fédération Américaine des Enseignants (AFT) Randi Weingarten, cela a permis de faire émerger un texte qui pourrait servir d’ordre de mission à une « coalition clé » entre opposants politiques qui souhaiteraient s’emparer du sujet. L’avenir dira quelle traduction concrète cela prendra.

  •  

Play Store : refonte et baisse des frais, Google et Epic font la paix et parlent… métavers

Meta quoi ?
Play Store : refonte et baisse des frais, Google et Epic font la paix et parlent… métavers

Comme prévu, Google a revu le fonctionnement de son Play Store, en partenariat avec Epic. Le géant du Net présente les changements à venir, avec un programme de certification pour les boutiques alternatives, des frais en baisse et la possibilité de passer par des systèmes de paiements tiers. Epic est sur un petit nuage et parle de métavers.

Google vient d’annoncer quatre changements majeurs à venir pour les développeurs d’applications et le Play Store : « davantage d’options de paiement, un programme pour les boutiques d’applications tierces, des frais réduits ainsi que de nouveaux programmes pour les développeurs ».

Pour les applications mobiles, Google indique que les développeurs « pourront utiliser leurs propres systèmes de paiement dans leurs applications, en parallèle de celui de Google Play, ou rediriger les utilisateurs vers leurs sites pour effectuer des achats en dehors de l’application ».

Registered App Stores : un programme, optionnel, pour les boutiques tierces

Google annonce aussi simplifier le sideloading, c’est-à-dire l’accès aux boutiques tierces d’applications. Un programme, optionnel, Registered App Stores, permettra des installations « plus simple pour les boutiques d’applications Android qui répondent à certains critères de qualité et de sécurité ». Au hasard, l’Epic Games Store.

Registered App Stores sera d’abord proposé en dehors des États-Unis, mais Google ajoute avoir « l’intention de le lancer également aux États-Unis, sous réserve de l’approbation du tribunal ». Voici la présentation faite par Google dans les documents transmis à la justice, repris par The Verge :

Rappelons que Google avait été largement critiqué en août dernier, lors de l’annonce d’une vérification d’identité imposée à tous les développeurs, y compris pour le sideloading. Le père d’Android avait ensuite mis de l’eau dans son vin avec l’annonce d’un « nouveau flux avancé qui permet aux utilisateurs expérimentés d’accepter les risques d’installer des logiciels non vérifiés ».

Les frais d’achat « in app » passent à 20 %, les récurrents à 10 %

Passons au porte-monnaie. Alors que les frais d’achat « in app » étaient de 30 % auparavant, ils vont passer à 20 %. Pour les abonnements récurrents, ils seront de 10 %. Google sépare ensuite ses frais en deux : ceux liés à sa boutique d’un côté, l’utilisation de son système de paiement de l’autre. Attention, il faudra ajouter 5 % si vous utilisez le système de paiement intégré à Android, la réduction passera alors de 30 à 25 % seulement.

Résumé présenté par Google des frais facturés aux éditeurs d’applications exploitant Google Play

Google en profite aussi pour lancer un programme Apps Experience Program et revoir son Google Play Games Level Up. Tous les deux permettent de profiter de frais différents, en baisse si l’on en croit le géant du Net (avec des réductions supplémentaires avant le premier million de dollars annuels de revenus).

Les critères du Level Up Program sont disponibles par ici. The Verge s’est procuré le document déposé au tribunal qui détaille les grandes lignes des programmes.

Rendez-vous cet été pour les changements en Europe

Les changements seront mis en place à partir du 30 juin dans l’espace économique européen, au Royaume-Uni et aux États-Unis. Il faudra attendre le 30 septembre en Australie, le 31 décembre en Corée et au Japon et enfin le 30 septembre 2027 pour le reste du monde. Le programme Registered App Stores devrait arriver avec une mise à jour majeure d’Android d’ici la fin de l’année.

Ce n’est pas tout, avec ces changements, Google annonce avoir « également résolu tous les litiges mondiaux avec Epic Games ». Les deux protagonistes avaient enterré la hache de guerre en novembre dernier, avec une annonce surprise autour d’une réforme du fonctionnement du Play Store.

Epic content, Fortnite revient sur le Play Store

Epic se réjouit d’ailleurs de cette nouvelle annonce au « bénéfice des développeurs et des consommateurs ». Le studio est ravi de voir que, « à l’échelle mondiale, les développeurs auront le choix de la manière dont ils effectuent leurs paiements en utilisant Google Play ou les systèmes concurrents, avec des frais réduits et la possibilité de diriger les utilisateurs hors applications pour effectuer des achats ».

Tim Sweeney, patron d’Epic, annonce sur X que « Fortnite sera bientôt de retour sur le Google Play Store dans le monde entier ».

The Verge ajoute que Google et Epic ont également « convenu d’un accord concernant une nouvelle catégorie d’applications qu’elles appellent « metaverse browsers » », selon ce document publié par nos confrères. Il est largement caviardé et ne permet pas d’en apprendre beaucoup plus.

Cette notion de métavers, on la retrouve aussi brièvement dans le communiqué d’Epic : « Google prendra des mesures pour soutenir le futur métavers ouvert », mais cela ne permet pas d’en savoir davantage. Tout juste peut-on apprendre que les navigateurs « ont pour but principal de permettre la navigation et l’exploration des mondes du métavers », de « prendre en charge les objets virtuels », d’être sécurisés.

Ni Google ni Epic n’ont souhaité commenter davantage. Tim Sweeney s’est contenté de republier le message X de The Verge. Facebook pendant un temps, ne jurait que par le métavers (la société est même devenue Meta), avant de freiner des quatre fers il y a quelques années déjà. C’est toujours le cas début 2026.

  •  
❌