Vue normale

Des neurones humains vivants jouent à Doom : derrière la hype, quelle réalité ?

9 mars 2026 à 15:48
Et le démineur ?
Des neurones humains vivants jouent à Doom : derrière la hype, quelle réalité ?

Depuis ce week-end, l’affaire fait les choux gras de la presse : des neurones humains apprendraient à jouer à Doom. L’« annonce » fait un carton au bingo bullshit 2026 : Doom, de l’intelligence artificielle et des neurones humains. La réalité est différente. Si l’histoire est intéressante, nous sommes loin d’un cerveau humain dans une boite de pétri maitrisant Doom.

La vidéo de Cortical Labs, qui développe des puces avec des cellules humaines, a déjà presque deux semaines. Même chose pour le dépôt GitHub du projet « doom-neuron » de Sean Cole, un développeur « partenaire » de Cortical Labs. On trouve aussi des actualités datant de plus d’une semaine parlant de 200 000 neurones humains « jouant » à Doom. C’est le cas de Tom’s Hardware ou de NewScientist, pour ne citer que ces deux-là.

Cortical Labs explique que la machine utilisée est une CL1 avec 200 000 « neurones humains vivants » installés sur une puce baptisée « multi-electrodes array », précise Alon Loeffler, scientifique et post-doctorant à Cortical Labs. Pour « jouer » à Doom, Sean Cole a utilisé une API mise à disposition par l’entreprise pour exploiter un de ses réseaux de neurones sur une machine CL1.

« Les cellules se comportent un peu comme un débutant »

Dans sa vidéo marketing de présentation, Cortical Labs explique que, avant d’utiliser ses puces, il faut d’abord « traduire le monde numérique apocalyptique de Doom dans le langage biologique des neurones, qui est l’électricité ». Pour faire simple, passer des éléments de l’image du jeu à des flux électriques. En effet, les neurones humains du CL1 ne « voient » pas vraiment le jeu via des caméras ou n’importe quel dispositif optique.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La guerre avec l’Iran aura-t-elle un impact sur les investissements dans la tech ?

9 mars 2026 à 13:11
Si vis pacem, para silicium
La guerre avec l’Iran aura-t-elle un impact sur les investissements dans la tech ?

Le conflit qui s’étend au Moyen-Orient aura-t-il des répercussions économiques sur l’industrie de la tech ? La question se pose à plus d’un titre : les puissances pétrolières du Golfe sont en effet à la fois une terre de datacenters pour les grands acteurs du numérique, et un partenaire financier de premier plan pour leurs projets d’infrastructures autour de l’IA.

Déclenchée par l’attaque des États-Unis et d’Israël le 28 février dernier, la guerre d’Iran a rapidement touché, à des niveaux divers, l’ensemble du Moyen-Orient, et aucune perspective de résolution rapide n’émerge, alors que les belligérants poursuivent leurs campagnes de bombardements respectives. Faut-il s’attendre à un conflit qui dure, à l’image de la guerre en Ukraine ? S’il se prolonge pendant des mois, voire des années, il aura vraisemblablement un impact direct sur l’économie du secteur de la tech et du numérique.

Répercussions inflationnistes

Analystes et commentateurs n’ont pas attendu longtemps pour élaborer leurs scénarios du pire. Le cabinet IDC a par exemple sorti dès le 2 mars une première étude visant à décrire et tenter de chiffrer les conséquences de la guerre sur l’industrie de l’IT.

Trois des six impacts identifiés vont dans le sens d’une accélération des dépenses et donc des investissements, ce qui peut être vu comme un signal positif pour le secteur. IDC évoque ainsi un renforcement des stratégies de résilience informatique en matière de cloud et de datacenter (pour se prémunir des interruptions de service telles que celle connue par Amazon Web Services dans ses zones Moyen-Orient) et une priorité accrue accordée aux problématiques de souveraineté. De la même façon, le cabinet s’attend à ce que le conflit entraîne une augmentation des investissements en matière de cybersécurité.


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Oracle prévoit de supprimer des milliers d’emplois pour financer ses datacenters

9 mars 2026 à 12:59


Oracle envisagerait de licencier des milliers de personnes pour financer son expansion dans l’intelligence artificielle, rapporte Bloomberg, dans toutes ses branches. L’entreprise a déjà annoncé en interne qu’elle étudierait toutes les offres ouvertes dans son département cloud, ralentissant voire stoppant tout processus de recrutement.

L’information vient confirmer un rapport de la banque d’investissement TD Cowen obtenu fin janvier par le média CIO, et dans lequel Oracle chiffrait à 20 000 ou 30 000 le nombre d’emplois à supprimer pour dégager de 8 milliards à 10 milliards de dollars de trésorerie. En mai 2025, ses effectifs mondiaux s’élevaient à 162 000 personnes.

L’entreprise envisagerait par ailleurs de se séparer de Cerner, fournisseur de systèmes d’information spécialisés dans la santé dont l’entreprise avait fait l’acquisition en 2022 pour 28,3 milliards de dollars.

Alors que l’action de la société tutoyait des sommets en septembre 2025, ce qui ne l’empêchait pas, déjà, de tailler dans ses effectifs, elle est aujourd’hui revenue peu ou prou à son niveau de mars 2025.

Dans le cas présent, les différentes pistes sont envisagées alors que diverses banques états-uniennes ont pris leur distance avec certains projets de financement de centres de données portés par le géant du cloud et de la gestion de bases de données.

Au total, d’après TD Bowen, l’entreprise fondée par Larry Ellison aurait besoin de 156 milliards de dollars d’investissements pour mener à bien ses différents projets d’infrastructure. Or, à mesure que les banques se sont faites hésitantes, les prêteurs ont quasiment doublé les primes d’intérêt proposées à Oracle depuis septembre, ce qui leur fait atteindre aujourd’hui un niveau habituellement réservé aux sociétés non cotées.

Entre autres stratégies pour faire face à ces coûts, l’entreprise a notamment commencé à demander 40 % d’acompte à ses nouveaux clients pour que ces derniers participent au financement de l’infrastructure, elle a levé 58 milliards de dollars sur le marché obligataire, et explore désormais des accords dits BYOC (Bring your own chip, apportez vos propres puces). Ceux-ci impliqueraient que les clients apportent leur propre hardware, ce qui allégerait d’autant les comptes d’Oracle.

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

9 mars 2026 à 11:30

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

La responsable de la branche robotique d’OpenAI, Caitlin Kalinowski, a annoncé sa démission alors que l’entreprise a passé un contrat avec le département de la Défense des États-Unis. Elle le juge précipité.

Le mini mea-culpa de Sam Altman n’aura pas suffi à garder Caitlin Kalinowski dans les rangs de son entreprise. La responsable de la branche robotique d’OpenAI a expliqué samedi soir dans un post sur X qu’elle avait démissionné en affirmant qu’« il s’agissait d’une question de principe, pas de personnes ».

Sam Altman avait déjà reconnu dans un mémo interne rendu ensuite public s’être précipité et avoir signé un contrat qui « paraissait opportuniste et bâclé ». L’entreprise avait sauté sur l’opportunité du refus de son concurrent Anthropic de signer le même contrat avec le département de la Défense, sans clause bloquant l’utilisation de l’outil à des fins de surveillance des citoyens américains et dans des armes totalement autonomes.

La directrice de l’équipe robotique d’OpenAI aurait été au premier rang des responsables de la mise en place d’armes totalement autonomes utilisant les systèmes d’OpenAI.

Pas une opposition totale, mais un besoin de davantage de réflexion

Dans son message, Caitlin Kalinowski n’affiche pas une opposition totale à la possibilité que l’armée américaine utilise ce genre d’outils. Elle aurait cependant voulu que cette question, ainsi que celle de l’utilisation de l’IA pour surveiller les Américains, ne soient pas prises à la légère : « L’IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l’autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu’elles n’en ont reçu ».

« Pour être clair, mon problème est que l’annonce a été faite précipitamment, sans que les garde-fous aient été définis. Il s’agit avant tout d’une question de gouvernance. Ces questions sont trop importantes pour que les accords ou les annonces soient précipités », a-t-elle ajouté.

Sam Altman avait affiché une volonté de modifier le contrat avec le département de la Défense des États-Unis. Mais si son message aborde le problème de la surveillance des citoyens américains, il n’a pas évoqué directement la question des armes autonomes.

Si Anthropic a posé ses limites à un nouveau contrat avec le département de la Défense, l’entreprise s’était engagée avec le Pentagone dans plusieurs projets, dont le montant s’élevait à 200 millions de dollars. Après ce refus, l’administration Trump l’a officiellement désignée comme menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ».

Mais l’armée américaine engagée en Iran utilise actuellement encore son IA. Selon le Washington Post, le système Maven Smart développé par Palantir et auquel elle recourt intègre l’IA Claude d’Anthropic.

OpenAI reporte le « mode adulte » de ChatGPT

L’organisation interne d’OpenAI semble donc faire les frais de la précipitation de Sam Altman pour emporter le contrat tombé des mains d’Anthropic.

L’entreprise a d’ailleurs encore repoussé le lancement du « mode adulte » dont elle parlait en octobre dernier. « Nous reportons le lancement du mode adulte afin de pouvoir nous concentrer sur des tâches qui sont actuellement plus prioritaires pour un plus grand nombre d’utilisateurs », affirme l’entreprise à Axios. « Nous continuons à croire au principe selon lequel il faut traiter les adultes comme des adultes, mais il faudra plus de temps pour acquérir l’expérience nécessaire », ajoute-t-elle.

Cette fonctionnalité avait été critiquée en interne par une de ses cadres en charge de la sécurité des utilisateurs, Ryan Beiermeister. Celle-ci a été licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins.

☕️ Ce que GPT-4o dit de l’attachement émotionnel à l’IA

9 mars 2026 à 10:55


S’il a été controversé, le modèle GPT-4o de l’application ChatGPT a aussi ses fervents défenseurs. Lancé en mai 2024, ce modèle était aussi apprécié que critiqué pour ses capacités de simulation de l’empathie.

Si GPT-4o a valu à OpenAI des poursuites en justice au motif que la machine aurait encouragé des usagers au suicide, elle a aussi été si plébiscitée que, lorsqu’OpenAI a fait le choix de débrancher le modèle, à l’été 2025 d’abord, puis définitivement le 13 février 2026, l’entreprise s’est retrouvée confrontée à une levée de boucliers.

Pour la chercheuse Mai Huiqian Lai, interrogée par Libération, on peut même parler « d’un mouvement de résistance », incarné par exemple dans des pétitions ou d’intenses échanges sur le subreddit r/MyBoyfriendIsAI.

En février 2026, 0,1 % des utilisateurs recouraient à l’option payante de GPT-4o, indique OpenAI. Pour une société en recherche de modèle économique, c’est loin d’être suffisant, mais rapporté aux 900 millions d’utilisateurs de ChatGPT, cela revient tout de même à quelques centaines de milliers d’internautes.

Pour ressusciter GPT-4o – et quelquefois, pour protester contre les récents contrats d’OpenAI avec l’armée américaine, par exemple dans le cadre d’appels au boycott comme QuitGPT –, certains clonent les conversations et la relation entretenue avec la machine sur des services payants, nommés 4o-Revival ou just4o.chat.

OpenAI, de son côté, a promis de lancer un ChatGPT « adulte », mais la réponse ne satisfait pas Mai Huiquian Lai. Autrice d’un article intitulé « « S’il vous plaît, ne tuez pas le seul modèle qui donne une impression d’humanité » : Comprendre le backlash #Keep4o », la chercheuse regrette auprès de Libération que là où des internautes demandent « la reconnaissance de leurs besoins de connexion existentielle », OpenAI ne réponde que par de la pornographie.

Et d’appeler à obliger les constructeurs de robots conversationnels à respecter les usagers et l’intimité que ces derniers créent avec des machines. Après tout, celle-ci découle directement de la manière dont les robots conversationnels sont conçus.

Mai Huiquian Lai estime donc qu’il faudrait créer des régulations qui prennent en compte les préjudices « relationnels et émotionnels » créés par la suppression brutale de machines qui avaient initialement été fabriquées pour susciter l’attachement.

☕️ Emma, 21 ans, passe de 7 à 11h devant ses écrans, par jour (mais pas pour travailler)

9 mars 2026 à 09:47


« Mon temps d’écran est énorme, j’en ai bien conscience », raconte Emma à « Tant d’écran », la chronique du Point qui analyse le rapport des Français à leurs téléphones. Cette étudiante de 21 ans passe en effet et en moyenne 7h19 chaque jour devant ses écrans, et parfois plus de 11 heures le week-end : « Il y a eu les bébés Covid. Moi, je fais partie de la génération des ados Covid », résume-t-elle.

Emma reçoit plus de 219 notifications chaque jour sur son smartphone, la conduisant à scroller 3 heures sur TikTok, un peu moins d’une sur WhatsApp, une autre sur Netflix et dans ses notes, une demi-heure sur Safari, et une autre à envoyer des messages, moins de 25 minutes sur Instagram.

« Je me rends bien compte que j’ai un temps d’attention réduit », reconnaît-elle : « J’ai énormément de mal avec le long, que ce soit les vidéos YouTube qui excèdent 50 minutes, ou les épisodes de Bridgerton sur Netflix qui durent plus d’une heure chacun ! »

Un déficit d’attention qu’elle éprouve aussi avec les podcasts, et même avec TikTok : « Quand je vois qu’une vidéo dure plus d’une minute trente, je scrolle, je sais que je ne la terminerai pas, ou en accéléré ! Quand je regarde un film ou une série et qu’une scène m’ennuie, je la saute en avançant de dix secondes. »

« Je passe ma vie dessus et je ne me sens pas coupable », tempère la jeune femme : « Si c’est ce qui me fait plaisir après une longue journée, pourquoi me restreindre ? D’autant plus que j’ai vraiment le sentiment d’être en contrôle : c’est moi qui choisis quand je reste sur une vidéo ou quand je passe à une autre, combien de temps je lui accorde, quel intérêt je trouve… Même si j’ai bien conscience que mon algorithme m’a très bien cernée ! »

À la journaliste qui lui demande si elle a déjà essayé de réduire son temps d’écran, Emma répond qu’ « il arrive que je passe des journées sans mon téléphone, pour me prouver que je peux y arriver. Si je trouve de quoi m’occuper, ça ne me pose aucun souci ! » :

« Ma mère pense que je passe trop de temps sur mon téléphone, mais elle est elle-même les yeux rivés sur son ordinateur à longueur de journée, je ne sais pas si c’est beaucoup mieux ! Mes amis ont à peu près la même consommation que moi, donc il n’y a pas de jugement sur ce point-là. »

Interrogée sur ce qui lui manquerait le plus si elle perdait son téléphone, Emma estime que « ce qui peut me manquer plus que TikTok, ce sont tous mes mots de passe, qui y sont déjà pré-enregistrés : si je le perds, je serais bien incapable de les retrouver ».

Nous avons laissé sept VPS sur Internet, ils sont attaqués 10 000 fois par jour en moyenne

9 mars 2026 à 08:33
Very Particular Service
Nous avons laissé sept VPS sur Internet, ils sont attaqués 10 000 fois par jour en moyenne

Un serveur, fraîchement installé et à peine connecté sur Internet, n’a que quelques dizaines de secondes de répit avant une première tentative d’accès frauduleux. Puis, la tempête ne s’arrête jamais, avec en moyenne plus de 10 000 tentatives par jour.

Depuis plusieurs semaines, nous nous sommes lancés dans des tests et comparatifs de VPS (serveur privé virtuel). Nous en avons profité pour les laisser tourner, à vide ou presque. Ils sont dans leur configuration par défaut, avec le système d’exploitation installé lors de la livraison.

Quatre semaines plus tard, nous récupérons les logs des sept serveurs pour analyser les tentatives de connexion sur le port 22, celui pour SSH (Secure Shell). Ce dernier est « une méthode permettant d’envoyer, de manière sécurisée, des commandes à un ordinateur sur un réseau non sécurisé », rappelle Cloudflare. Via des logiciels comme PuTTY, par exemple, on peut se connecter à distance sur un serveur et réaliser toutes les opérations que l’on souhaite.

IBM précise que de son côté que « la plupart des robots automatisés tentent de se connecter à votre serveur SSH sur le port 22 en tant que root avec diverses combinaisons de force brute et de dictionnaire afin d’accéder à vos données ». Une connexion à distance en « root » laisserait l’intégralité de votre serveur à la merci des pirates.

Entre 6 500 et 14 000 tentatives par jour, en moyenne

Avez-vous un ordre d’idée du nombre de tentatives de connexion que subissent des serveurs sur Internet ? Selon nos mesures sur 25 jours d’expérimentation, la moyenne est aux alentours de… 10 000 attaques par jour et par serveur. Dans les logs, nous comptabilisons deux types d’événements. ECHEC, c’est-à-dire quand l’utilisateur existe, mais que le mot de passe est faux. ECHEC_USER_INVALIDE, quand l’utilisateur n’existe pas sur le serveur (le serveur ferme la connexion avant même de demander un mot de passe).

Voici un tableau récapitulatif des tentatives sur chacun des VPS :


Il reste 55% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Projet Helix : la console Next Gen de Microsoft, compatible avec les jeux Xbox et PC

9 mars 2026 à 07:18

Fin février, la division Xbox de Microsoft vivait un important séisme : Phil Spencer (38 ans d’ancienneté, présent pour le lancement de toutes les consoles) était remplacé par Asha Sharma. Elle est désormais CEO de Microsoft Gaming, alors qu’elle s’occupait depuis deux ans de la branche produit de Microsoft CoreAI.

Sur X, elle a publié un message annonçant le « projet Helix, nom de code de notre console de nouvelle génération ». Son message est relativement court, sans aucun détail. Elle précise simplement que « project Helix offrira des performances exceptionnelles et sera compatible avec vos jeux Xbox et PC ».

Elle donne rendez-vous aux « partenaires et studios » à la GDC (Game Developers Conference) qui se tient cette semaine, au Moscone Center de San Francisco. Un rendez-vous important de la communauté où elle devra prendre ses marques et s’imposer alors que le « fantôme » de Phil Spencer (qui a écumé les GDC pendant des années) sera certainement présent.

Lors de la présentation des résultats financiers au début du mois, la CEO d’AMD, Lisa Su, expliquait que « le développement de la Xbox de nouvelle génération, équipée d’un SoC semi-personnalisé AMD, progresse bien pour épauler un lancement 2027 », rapporte The Verge. AMD ne dit pas que Microsoft lancera sa console en 2027, mais se tient prêt si besoin.

L’année dernière, le compte officiel Xbox annonçait sur X « construire la prochaine génération d’appareils et de services cloud Xbox, y compris nos futures consoles Xbox, en collaboration avec AMD ». Asha Sharma a donné le coup d’envoi de la guerre des consoles « next gen », à voir maintenant ce qui va en sortir durant la GDC, et notamment si Sony va entrer dans la partie avec la PlayStation 6.

#Flock : guerre épaisse

Par : Flock
7 mars 2026 à 12:37
Apocalypse already now
#Flock : guerre épaisse

La guerre ne fait jamais dans la finesse, puisse-t-elle être à base de frappes chirurgicales menées par des bouchers enivrés par leurs nouveaux joujoux à télécommandes automatiques. L’intelligence artificielle est là pour ça, pour se salir les mains, les mettre dans le cambouis et vous driver toujours plus loin dans le mur, jusque dans vos lunettes de vue. On en regretterait presque les bons vieux conflits à l’ancienne entre vils humains, au moins on s’éclatait dans la joie et la chaleur humaine. Bon weekend quand même!


Il reste 65% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

6 mars 2026 à 16:14
C'est du chimique !
En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

Les méthodes d’IA ont passé les portes des laboratoires depuis quelques années. Mais, concrètement, à quoi sert-elle quand les chimistes l’utilisent ? Next a voulu en savoir plus et a interrogé le chimiste théorique François-Xavier Coudert.

Le machine learning ou le deep learning pour analyser des images, des vidéos, des textes ou des sons, on commence à connaître. Mais à quoi peuvent bien servir les techniques d’IA dans un laboratoire de chimie ? Qu’est-ce qu’un chimiste théorique peut bien faire d’un réseau de neurones ?

Next a discuté avec François-Xavier Coudert, chercheur au CNRS qui a travaillé, par exemple, sur l’utilisation de l’IA pour trouver de nouveaux réseaux métallo-organiques, ces matériaux poreux dont la découverte a valu aux chimistes Susumu Kitagawa, Richard Robson et Omar M. Yaghi le prix Nobel en 2025.

>> Quel est le but de s’appuyer sur l’IA quand on fait des recherches en chimie ?

Une des idées est de trouver de meilleures molécules ou de meilleurs matériaux pour des applications choisies. Typiquement, on peut vouloir séparer le CO₂ des autres gaz en sortie de cheminée d’usines. On va aller creuser dans les matériaux connus qui n’ont jamais été testés pour cette application-là.

Jusqu’ici, les gens qui développaient des matériaux avaient une application en tête. Si ça marche, ils le publient et expliquent que ce matériau fait ce qu’ils veulent super bien, sinon, ils le mettent dans un tiroir et font un autre essai. L’idée, c’est que, dans les matériaux qui ont telle propriété pour laquelle ils sont connus, il y en a peut-être qui pourraient être très bien pour d’autres applications. Et ainsi d’aller chercher des matériaux connus mais qui n’auraient pas été complètement exploités. Mais comment le savoir ? On est face à des milliers de matériaux et de molécules. C’est aussi un peu l’idée du « repurposing » (réutilisation) des médicaments : si je trouve une molécule connue mais qu’elle a un autre effet, c’est toujours plus facile à déployer que de réinventer depuis rien une nouvelle molécule.

Aller au-delà de l’« intuition chimique »

>> Les techniques d’IA permettent de modéliser, sélectionner, générer plein de choses, dans quels buts les chimistes utilisent l’IA actuellement ?

Il y a beaucoup de champs scientifiques qui utilisent l’IA parce qu’ils ont de larges volumes de données qui étaient jusque-là inexploitées, c’est le paradigme du big data. En chimie, il y a la même motivation : à force, les laboratoires académiques comme ceux de R&D ont accumulé des données et ils veulent les valoriser.


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

6 mars 2026 à 14:17
À lobbying, lobbying et demi
Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

Que disent les délégués à la protection des données personnelles de la simplification du RGPD envisagée par la Commission européenne ? Un sondage organisé par l’association noyb révèle que leurs préoccupations portent essentiellement sur la simplification des démarches administratives, et non sur la redéfinition des données personnelles ou sur la limitation du droit d’accès, pourtant envisagés par Bruxelles en réponse aux demandes de l’industrie.

Dans l’univers tech, on entend souvent dire que l’excès de norme est un frein à l’innovation, et que le régulateur ferait bien de s’intéresser aux signaux qui remontent de la base (les entreprises) plutôt que de décider du cadre depuis le sommet.

L’association autrichienne noyb a décidé de prolonger la logique en descendant un cran plus bas : plutôt que d’interroger les entreprises, elle a cherché à connaître la position des individus qui, au sein de ces dernières, se situent en première ligne de la mise en œuvre du cadre réglementaire.

Ratio entre charge de travail et utilité perçue

En l’occurrence, les fameux Délégués à la protection des données (souvent abrégé en DPO, pour Data Protection Officer), instaurés par les articles 37 et suivants du non moins fameux Règlement général sur la protection des données (RGPD).

L’association a donc demandé à environ 500 de ces derniers quels étaient les points de friction liés au RGPD les plus fréquents dans leur quotidien. Elle en a profité pour essayer d’évaluer, toujours par la voie du sondage déclaratif, la part du temps de leur activité de DPO associée à chacune des grandes exigences du règlement. Elle a enfin tenté d’évaluer la façon dont ces DPO percevaient la valeur du service rendu à l’internaute en matière de respect de la vie privée.

Les enseignements de cette étude, présentés jeudi 5 mars, illustrent selon noyb à quel point la Commission européenne fait fausse route en matière de simplification du RGPD. Rappelons que Bruxelles a publié en novembre 2025 un paquet législatif dédié au numérique qui vise à amender plusieurs des grands textes de loi européens, dont le RGPD, la directive e-Privacy, le règlement sur l’IA, etc..

Qualifié de « digital omnibus » du fait de ce caractère fourre-tout, le texte est vivement attaqué pour les allègements qu’il propose en matière de défense de la vie privée. Mi-janvier, deux organisations européennes ont ajouté de l’huile sur le feu en arguant que certaines des mesures de ce Digital Omnibus seraient le reflet du message porté par les lobbys de l’industrie de la tech à Bruxelles. L’un des points de crispation concerne l’article 15 relatif au droit d’accès aux données personnelles, que la Commission européenne prévoit de réduire au motif qu’il y aurait des « abus ».

C’est donc dans ce contexte tendu que noyb dégaine son étude, dont les résultats se veulent donc représentatifs des attentes non pas d’un secteur d’activité, mais d’une fonction bien précise, dont l’avis semble tranché. L’association résume :

« Il s’avère que la plupart des professionnels ne souhaitent pas une réduction des protections, mais une simplification des obligations de documentation et des formalités administratives. Dans bien des cas, ils demandent même des lois plus claires plutôt qu’une plus grande « flexibilité », difficile à mettre en œuvre pour la plupart des entreprises. »

Les DPO ne veulent globalement pas moins de protections

Le sondage a été réalisé en juillet 2025, et une fois nettoyées, les données permettent à noyb de consolider (voir l’étude au format PDF) les réponses de 510 DPO, dont la moitié évolue dans des sociétés comptant plus de 500 employés. Il est à noter que l’association a recruté les sondés par ses propres canaux de communication (réseaux sociaux et newsletter centrée sur les enjeux liés au RGPD).

Pour ce qui est de la charge de travail, les répondants déclarent que les tâches les plus chronophages sont liées aux obligations déclaratives, à la mesure d’impact, et à la conformité en matière de sécurité. Les principes qui constituent le cœur du règlement, les obligations d’information ou la gestion du droit d’accès sont quant à eux considérés comme relativement indolores. D’après noyb, plus de 70 % des sondés répondent ainsi que le droit d’accès ne génère que « peu », « un peu » ou « pas » de travail.

L’association affirme que ce chiffre confirme sa propre lecture du phénomène, selon laquelle la plupart des entreprises ne font l’objet que de rares demandes d’accès, tandis que les acteurs susceptibles d’être fréquemment sollicités (secteur de la publicité par exemple) ont de toute façon des routines de traitement automatisées.

Le sondage évalue les différentes missions afférentes à la conformité RGPD en fonction de la charge de travail engendrée – crédit noyb

L’association interroge ensuite son échantillon de DPO sur leur perception de l’utilité des missions en question. Ici, ce sont les obligations liées à la sécurité, les principes fondamentaux du texte, et l’obligation d’information qui apparaissent comme les éléments les plus utiles, juste devant le droit à l’accès. Elle s’étonne dans ce contexte que Bruxelles propose de limiter le droit d’accès ou les obligations de transparence.

« Cette étude révèle un fossé immense entre les besoins des personnes qui travaillent concrètement au respect de la conformité et les problèmes alimentés par la « bulle du lobby bruxellois ». Nous n’aidons pas les entreprises européennes dans leur fonctionnement normal ; la proposition de la Commission empiète même souvent sur ce que les professionnels considèrent comme utile », résume Max Schrems, fondateur de noyb.

L’association évalue le rapport entre niveau de protection perçu et charge de travail pour les principales obligations du RGPD – crédit noyb

Le « one size fits all » ne fait pas consensus

noyb profite de son étude pour interroger les DPO sur l’intérêt, ou non, de créer des paliers en fonction desquels le niveau d’obligation pourrait varier, de façon par exemple à ce que les exigences réglementaires soient alourdies pour les grands acteurs spécialistes de la vente de données, et allégées pour les petites et moyennes entreprises chez qui la gestion de données personnelles n’est qu’une problématique satellite.

La question n’est pas totalement innocente : dans sa communication autour du paquet numérique, Bruxelles fait en effet valoir que la simplification du RGPD profitera à toutes les entreprises, sans prendre en compte cette différence d’impact. Qu’en disent les intéressés ? « Malgré le fait que beaucoup d’entre eux représentent de plus grandes entreprises (500 + employés), 70% des répondants ont déclaré qu’il y avait un besoin de règles plus strictes pour les grandes entreprises », argue noyb, qui défend donc l’idée d’un système de paliers, avec des règles très claires, ne laissant que peu de place à l’interprétation juridique, pour les PME.

L’association interroge également la perception des DPO sur la proposition, faite par Bruxelles, d’un système de liste blanche, pour automatiser le consentement de certains recueils et traitements à finalité claire (la mesure d’audience par exemple) et donc réduire la pression au niveau des fameux bandeaux de cookies.

noyb, qui avait exprimé en novembre dernier des craintes sur les possibilités réellement offertes par cette liste blanche, note à ce niveau que 84 % des sondés sont globalement favorables à l’idée, mais ajoute à l’équation une autre hypothèse, jusqu’ici écartée par Bruxelles : celle d’un fonctionnement par liste noire, qui interdirait donc les traitements « clairement illicites », à la façon de ce qu’énonce l’article 5 du règlement européen sur l’IA. L’idée recueille un accueil favorable (totalement ou partiellement) chez 91 % des sondés.

« Étonnamment, les spécialistes de la protection de la vie privée (…) ne pensent pas qu’une « liste noire » limiterait excessivement [les responsables de traitement]. Il semble que la sécurité juridique soit privilégiée par rapport à la flexibilité de la loi. On peut supposer que la garantie d’une concurrence loyale est un facteur justifiant l’établissement de « listes noires », étant donné que les concurrents seraient eux aussi soumis à des règles plus claires. », commente l’association, qui appelle par conséquent à un débat plus large autour du Digital Omnibus.





Désignée « fournisseur à risque pour la sécurité nationale » aux US, Anthropic conteste

6 mars 2026 à 13:37
Misanthropic world
Désignée « fournisseur à risque pour la sécurité nationale » aux US, Anthropic conteste

L’administration Trump a mis sa menace à exécution : elle a désigné officiellement Anthropic comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Dario Amodei a annoncé que l’entreprise allait contester cette décision devant la justice. Le responsable s’excuse en même temps pour la fuite d’un mémo dans lequel il comparait Trump à un « dictateur ».

La tension n’est toujours pas retombée entre Anthropic et l’administration Trump. Cette dernière a officiellement désigné la startup comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Jusque-là, ce qualificatif n’avait jamais été utilisé par le pouvoir états-unien contre une entreprise du pays. L’implication juridique pourrait être plus ou moins importante économiquement pour Anthropic.

Une portée différente selon les deux parties

Le CEO de l’entreprise, Dario Amodei, a affirmé ce jeudi sur le blog d’Anthropic avoir reçu, la veille, la lettre officielle du Département de la Défense américain (DOD, désigné aussi sous le nom de Département de la Guerre par l’administration Trump).

Vendredi dernier, Pete Hegseth, le secrétaire d’État à la Défense, avait annoncé que cette qualification impliquait qu’ « aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l’armée américaine n’est autorisé à mener une quelconque activité commerciale avec Anthropic ». Cela aurait de lourdes conséquences pour la startup, dont les clients comme Microsoft, Google ou Amazon devraient choisir entre la startup ou leurs contrats avec la défense des États-Unis.

Mais dans son billet, le responsable de la startup conteste la portée de la mesure. Sans citer la lettre, il affirme que « le langage utilisé par le ministère de la Guerre dans la lettre (en supposant qu’il soit juridiquement valable) correspond à notre déclaration de vendredi selon laquelle la grande majorité de nos clients ne sont pas concernés par une désignation de risque lié à la chaîne d’approvisionnement » :

« cela s’applique clairement uniquement à l’utilisation de Claude par les clients dans le cadre direct de contrats avec le ministère de la Guerre, et non à toute utilisation de Claude par les clients qui ont conclu de tels contrats. »

Microsoft confirme au New York Times : « Nos avocats ont étudié cette désignation et ont conclu que les produits Anthropic, y compris Claude, peuvent rester disponibles pour nos clients (à l’exception du ministère de la Guerre) via des plateformes telles que M365, GitHub et Microsoft AI Foundry, et que nous pouvons continuer à travailler avec Anthropic sur des projets non liés à la défense ».

Des excuses pour des propos contre l’administration Trump dans un mémo interne

« Cette action imprudente est court-termiste, autodestructrice et fait le jeu de nos adversaires », affirme à nos confrères la sénatrice démocrate Kirsten Gillibrand. « Le fait que le gouvernement attaque ouvertement une entreprise américaine pour avoir refusé de compromettre ses propres mesures de sécurité est quelque chose que l’on attendrait de la Chine, pas des États-Unis », ajoute-t-elle.

Dans son billet de blog, Dario Amodei est aussi revenu sur la fuite d’un mémo interne qu’il a envoyé à ses employés. Dans celui-ci, obtenu par le média The Information et relayé par Futurism, le CEO fulminait : « La véritable raison pour laquelle [le département de la Défense] et l’administration Trump ne nous aiment pas, c’est que nous n’avons pas fait de dons à Trump ».

« Nous n’avons pas fait d’éloges à Trump dignes d’un dictateur (contrairement à Sam [Altman, ndlr]) », ajoutait Amodei, qui s’excuse sur son blog où il assure que ce n’est pas la direction de l’entreprise qui est à l’origine de la fuite : « Il n’est pas dans notre intérêt d’aggraver la situation ».

Et il remet le mémo dans son contexte du message de Donald Trump posté sur Truth Social et celui du département de la Défense sur X vendredi dernier. Le dirigeant y qualifiait notamment Anthropic d’ « entreprise woke de gauche radicale » et affirmait que les États-Unis ne la « laisseraient jamais dicter la manière dont [leur] grande armée mène et gagne les guerres ». Quant au Pentagone, il accusait l’entreprise et son CEO de duplicité.

La Wikipedia anglophone se bat contre des « hallucinations » venues de traductions par IA

6 mars 2026 à 10:15
OkAI
La Wikipedia anglophone se bat contre des « hallucinations » venues de traductions par IA

La version anglophone de Wikipédia se trouve confrontée à la gestion d’éditions utilisant massivement la traduction via l’IA, ce qui ajoute des erreurs dans l’encyclopédie. En cause, notamment, une association dont le but est de créer du contenu dans Wikipédia.

L’IA générative donne encore une fois du fil à retordre à Wikipédia. Cette fois, c’est son utilisation massive pour traduire des pages en anglais qui est pointée du doigt.

Il faut dire que la position de la fondation Wikimedia est sur une ligne de crête entre le fait de trouver des avantages à l’utilisation de l’IA générative pour automatiser certaines tâches et de gérer les problèmes qu’elle génère. Ainsi, l’année dernière, elle a dû retirer une fonctionnalité expérimentale de résumé automatique des articles de l’encyclopédie.

Une utilisation des IA génératives en discussion dans la Wikipédia anglophone

Au même moment, du côté de la version francophone, les éditeurs adoptaient un texte de recommandation sur l’usage de l’IA générative qui affirmait clairement que son utilisation était « vivement déconseillée ».

Concernant la traduction, le texte demande à ce que, si l’IA générative est utilisée pour de l’aide à la traduction, cela soit mentionné. La vérification des sens d’un mot étranger fait partie des « usages tolérés », avec la précision qu’il ne doit pas y avoir de « traduction littérale ou mot à mot », la page ajoutant « veillez à ce qu’il n’y ait pas de contre-sens ».

Mais du côté anglophone, une discussion sur le sujet n’est apparue qu’en janvier dernier, débouchant sur un texte adopté le 10 février concernant la traduction d’articles venant d’autres versions linguistiques de l’encyclopédie.

Celui-ci demande à ce que l’utilisation soit faite seulement si l’utilisateur a les compétences en anglais et dans la langue d’origine pour confirmer que la traduction est bonne. Il demande aussi que l’utilisateur ait vérifié qu’aucune hallucination n’a été ajoutée et que le texte reste fidèle aux sources citées.

Des textes traduits à la va-vite par une association dédiée à ça

Le texte a été adopté alors que des éditeurs ont pointé du doigt des erreurs manifestes dans certaines pages traduites à la va-vite. Ainsi, comme l’explique 404 Media, pour la page de la famille noble de La Bourdonnaye.

Alors que dans la version française, la phrase « La famille de La Bourdonnaye a pour berceau la seigneurie de la Bourdonnais à Trégomar dans les Côtes d’Armor en France » est accompagnée de la mention « [réf. nécessaire] », une source a été ajoutée lors de la traduction automatique par un utilisateur, mais celle-ci ne contient pas d’indication sur cette famille à la page donnée, indique Ilyas Lebleu (dont le pseudo est Chaotic Enby sur Wikipédia).

Mais ce n’est qu’un exemple, ainsi il explique à 404 média que pour certains articles « les sources avaient changé et des phrases avaient été ajoutées sans source et sans explication, tandis que l’article sur les élections sénatoriales françaises de 1879 avait ajouté des paragraphes provenant de sources sans aucun rapport avec le contenu initial ! ».

Le problème viendrait notamment d’ajouts faits par des éditeurs de l’association Open Knowledge Association (OKA). Celle-ci s’affiche comme faisant de la « diffusion de contenu gratuit sur Wikipédia et d’autres plateformes ouvertes grâce à un financement ciblé », et se vante d’avoir créé et traduit près de 5 000 articles sur Wikipedia. Les internautes peuvent donner à l’association et si la somme est supérieure à 10 000 francs suisses, ils peuvent demander d’enrichir un champ particulier.

« Si vous souhaitez faire traduire des pages spécifiques, nous les examinerons, mais ne les traduirons que si nous estimons qu’elles répondent à nos critères de qualité », ajoute l’association qui s’engage aussi à préciser les éventuels conflits d’intérêt lors de l’édition.

Mais cette découverte par Ilyas Lebleu a fait remonter de nombreuses autres traductions problématiques publiées par OKA sur l’encyclopédie. Des bénévoles de la version anglophone de Wikipédia ont pointé à 404 Media un tableur utilisé par les traducteurs d’Oka dans lequel se trouvent les instructions :

« Choisissez un article, copiez l’introduction dans Gemini ou chatGPT, puis vérifiez si certaines des suggestions améliorent la lisibilité. Modifiez les articles de Wikipédia uniquement si les suggestions constituent une amélioration et ne changent pas le sens de l’introduction. Ne modifiez pas le contenu avant d’avoir vérifié que les suggestions de Gemini sont correctes ! »

Le fondateur de OKA, Jonathan Zimmermann, explique à 404 Media que « des erreurs arrivent » mais que la méthode d’OKA « comprend une relecture humaine, demande aux traducteurs de vérifier le texte par rapport aux sources citées » et il assure que des « responsables vérifient régulièrement des extraits, spécifiquement pour des nouveaux traducteurs ».

Il explique que depuis peu, les traducteurs doivent passer leurs textes dans un autre outil en utilisant un prompt spécifique de comparaison qui doit identifier les incohérences, omissions ou inexactitudes.

#Nextquick Comment fonctionne le PCI Express, qui double ses débits à chaque génération

6 mars 2026 à 09:30
NEXTe >> PCIe
#Nextquick Comment fonctionne le PCI Express, qui double ses débits à chaque génération

Vous êtes-vous déjà demandé d’où venait le PCI Express (PCIe) utilisé par les cartes graphiques et comment il faisait pour doubler ses débits à chaque génération ? Oui, alors Next vous apporte les réponses. Non ? Parfait, c’est l’occasion d’apprendre de nouvelles choses !

Le PCIe comme nous avons l’habitude de l’appeler, a bien des noms. La version longue : Peripheral Component Interconnect Express. Version plus courte : PCI Express. On parle aussi de PCI-E ou PCIe en abrégé. Le PCIe est une norme de bus d’extension, permettant de connecter des cartes d’extension sur des cartes mères.

Petite histoire du PCI Express : Arapahoe (Intel) >> 3GIO >> PCIe

Le PCIe est une évolution du PCI classique et remplace aussi l’AGP qui était utilisé par des cartes graphiques (et encore avant les bus VLB et (E)ISA). Le PCIe est né au début des années 2000, d’abord lancé par Intel sous le nom de code projet Arapahoe puis sous l’appellation 3GIO pour Third Generation I/O. Il est ensuite repris par le PCI-SIG, avec SIG pour Special Interest Group, encore aujourd’hui en charge du PCIe. Au conseil d’administration, on retrouve du beau monde : AMD, ARM, Dell, IBM, Intel, Keysight, NVIDIA, Qualcomm et Synopsys.

En 2002, le PCI Express était né. Aujourd’hui, c’est la 8ᵉ génération de PCIe qui est en travaux. Ce bus d’extension est présent sur toutes les cartes mères, en version 5.0 pour les plus récentes. De 8 Go/s en bi-directionnel (4 Go dans chaque sens, descendant et montant), il est maintenant question de… 1 024 Go/s, soit 128x plus en plus de deux décennies. Pour en arriver là, plusieurs évolutions ont été nécessaires.

Voici un rapide état des lieux des dates et des débits (approximatifs) de chaque génération :


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[MàJ] YggTorrent (et YGG) S01E42 : retour (encore) abandonné, Gr0lum aurait été identifié

13 mars 2026 à 08:10
Bonne ambiance !
[MàJ] YggTorrent (et YGG) S01E42 : retour (encore) abandonné, Gr0lum aurait été identifié

YggTorrent est mort, mais il bouge encore. Le message affiché sur la page d’accueil change, répond à certaines accusations et propose désormais les noms de domaine à la vente… « exclusivement pour un projet légal ». Pendant un temps, un compte à rebours annonçait un retour, sous la forme Ygg tout court.

Mise à jour du 13 mars à 8h15. La page a de nouveau été modifiée, le compte à rebours supprimé. Un nouveau message annonce désormais que « le relancement initialement envisagé est abandonné, faute des conditions nécessaires pour poursuivre le projet dans un contexte marqué par des cyberattaques répétées ». YGGtorrent remonte aussi la piste de Gr0lum. L’actualité a été mise à jour en conséquence.

Mise à jour du 6 mars à 12h55. Le compte à rebours est de retour, toujours avec un rendez-vous lundi à 21 h.


Article du 6 mars à 9 h 33. En début de semaine, le site YggTorrent annonçait sa fermeture, suite à un piratage massif de ses données : pas moins de 30 Go ont été publiées avec des informations sur le code source, les utilisateurs, bancaires, etc. Le pirate expliquait aussi en détail comment il était entré dans les serveurs.

Le message de l’équipe d’YggTorrent était alors clair, sans ambiguïté : il débutait par « Fermeture définitive de YggTorrent » et se terminait par « L’histoire s’arrête ici ». Une « reconstruction serait techniquement possible », affirmait l’équipe, mais elle ne souhaitait pas « continuer dans un climat d’acharnement permanent ». Mais en fait non, l’histoire ne s’arrête pas là.

Nouveau message, toujours une « fermeture définitive »

Un nouveau texte a été mis en ligne sur le site de YggTorrent. Il est plus court et moins dans l’émotion que le premier et donne de nouvelles informations. Tout d’abord, le site affirme qu’« aucune donnée bancaire n’a jamais été collectée ni stockée par nos systèmes, et l’ensemble des mots de passe des comptes actifs étaient protégés par un hachage cryptographique sécurisé ». Il était auparavant précisé que les mots de passe étaient « hachés et salés ».

Il n’est plus du tout question des « portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, [qui] ont également été dérobés (un détail que certains choisiront d’ignorer) ». Le site affirme que « les auteurs de l’attaque multiplient les déclarations mensongères […] Ils déforment les faits, fabriquent de fausses preuves et comptent sur la confusion pour imposer leur version ». À ce petit jeu, l’équipe d’YggTorrent semble aussi participer…

Offre légale mise en avant, l’intégralité des noms de domaine est à vendre

Enfin, comme précédemment, l’offre légale est mise en avant : « Ne vous laissez pas tromper et tournez-vous plutôt vers les nombreuses solutions légales désormais disponibles ». Le site est désormais divisé en deux, avec la partie droite qui met en avant les plateformes légales comme Netflix, Canal+, Disney+, Prime, France.tv, Arte…

Il est par ailleurs précisé que « l’intégralité de nos noms de domaine est à vendre, exclusivement pour un projet légal, sans aucun lien avec le torrenting ni le téléchargement d’œuvres protégées. Les demandes non sérieuses seront ignorées ».

Il y a peu, un compte à rebours annonçait… un retour d’Ygg

Mais ne pensez pas que l’histoire s’arrête là ! Avant cette mise en vente, il y a eu un retour annoncé de Ygg (sans le Torrent) avec un compte à rebours, comme le rapporte ZDNet, avec le message « Quelque chose se prépare », et une phrase en russe : « il est trop tôt pour nous enterrer ». Le rendez-vous était pour lundi 16 mars à priori, mais le compte à rebours a disparu… pour l’instant ? Le site est cette semaine en mode girouette, bien malin celui qui arrive à prévoir le prochain coup.

En effet, quelques heures avant la capture d’écran de ZDNet, un utilisateur sur X faisait état d’encore une nouvelle version du site, déjà avec un compte à rebours, mais surtout avec un « communiqué », que l’on retrouve aussi sur Reddit. Le message affirmait déjà qu’« aucune donnée bancaire n’a jamais été collectée, stockée ni traitée par nos systèmes ».

Le communiqué ajoutait que « notre architecture n’a à aucun moment intégré de module de stockage d’informations de cartes de paiement. Les allégations contraires sont factuellement fausses […] Le recours au hachage MD5 évoqué concerne exclusivement moins de 3 % des comptes utilisateurs ». Communiqué qui n’est aujourd’hui plus disponible.

Selon le texte qui était alors disponible, le site rejette la faute du piratage sur son hébergeur, sauf que comme l’a montré Grolum dans sa longue explication, cela ne colle pas vraiment avec ses explications.

Retour du compte à rebours

Dans la matinée, le compte à rebours était de retour, comme nous l’a signalé Droup dans les commentaires. Le reste du message, y compris la vente des noms de domaine, est le même. Seule différence, le mot Torrent de YggTorent est barré.

On retrouve donc le message « YggTorrentest mort », « Quelque chose se prépare » et « Non omnis moriar ». Du latin qui, d’après DeepL, se traduirait par « Je ne mourrai pas complètement ». Rendez-vous lundi à 21 h… du moins si le compte à rebours reste en place et annonce vraiment quelque chose. Le code source de la page ne semble pas cacher de secret particulier.

Encore une « fermeture définitive » de YGGtorrent (et YGG)

Finalement, pas besoin d’attendre lundi 16 mars. Hier, un nouveau message est arrivé : « YGGtorrent / YGG. Fermeture définitive ». La « fermeture définitive de YggTorrent » avait déjà été annoncée au début de cette affaire. Le billet de l’époque se terminait par « l’histoire s’arrête ici »… autant dire que c’est loin d’être le cas.

Cette nouvelle « fermeture définitive » concerne cette fois-ci aussi bien YGGtorrent que le nouveau projet YGG. La suite du message ne laisse aucune place au doute :

« Après plusieurs années d’activité, nous mettons fin à l’ensemble des services YGGtorrent / YGG (site, tracker et infrastructure). Le relancement initialement envisagé est abandonné, faute des conditions nécessaires pour poursuivre le projet dans un contexte marqué par des cyberattaques répétées […] Aucun retour n’est prévu. Méfiez-vous des sites ou services se présentant comme des alternatives dans les semaines à venir : la plupart sont malveillants. Restez vigilants ».

L’offre légale est de nouveau vantée, et la vente des noms de domaine – « qui continuent de générer un volume de trafic significatif » – toujours d’actualité. YGGtorrent annonce aussi que « l’auteur de l’intrusion et de la fuite de données a été identifié », avec un lien vers cette page.

Pour YGGtorrent, pas de doute : « Gr0lum est @uwudev »

L’équipe de YGGtorrent y affirme que Gr0lum aurait envoyé un email « exigeant 300 XMR (plus de 100 000 $) en échange du non-leak des données de l’infrastructure ». Refus de YGGtorrent et publication des données, comme nous l’avons expliqué.

Ils ajoutent que Gr0lum aurait aussi envoyé un « faux signalement à Cloudflare prétendant que ygg.guru sert de serveur C2 pour un ransomware », puis « compile un véritable ransomware intégrant un appel vers ygg.guru/api/health ». « Cette opération a porté ses fruits : à la suite de ces faux signalements, le domaine ygg.guru a été placé en onhold par le registrar, rendant le nouveau site inaccessible ».

L’équipe de YGGtorrent remonte ensuite la piste de Gr0lum pour essayer de trouver qui se cache derrière ce pseudo. Leur enquête aurait porté ses fruits (on passe directement à la conclusion) : « Les éléments présentés dans ce dossier ne laissent aucun doute : Gr0lum est @uwudev. Il n’agit pas seul. D’autres individus, étroitement liés au milieu de la cybercriminalité, l’ont assisté dans ses activités ».

L’article se termine par un message adressé à Gr0lum : « Nous nous arrêterons à la révélation du pseudo. Le reste est entre les mains de ceux que ça concerne. Ce dossier ne représente qu’une fraction de ce que nous détenons ».

Aucune nouvelle publication pour le moment sur Yggleak, le site mis en place par Gr0lum pour publier les données et informations qu’il avait récupérées sur YGGtorrent et son infrastructure.

La suite au prochain épisode ?

Quantique : Pasqal lève 340 millions d’euros et vise déjà le Nasdaq

6 mars 2026 à 08:08
L'anti dead cat bounce
Quantique : Pasqal lève 340 millions d’euros et vise déjà le Nasdaq

Pasqal, startup française du quantique, a annoncé coup sur coup une levée de fonds de 340 millions d’euros et son association avec un SPAC en vue de préparer son introduction en bourse, avec l’objectif d’une double cotation, à Paris et à New-York. L’opération valoriserait la société deux milliards de dollars.

Non contente d’avancer sur le développement d’ordinateurs quantiques à base d’atomes neutres, la startup française Pasqal fait cette semaine la démonstration de ses talents en matière d’ingénierie financière. Depuis son siège de Palaiseau, elle vient en effet de dévoiler une double opération, qui lui permet à la fois de muscler sa trésorerie immédiatement disponible et de préparer l’avenir en posant les bases d’une double introduction en bourse : d’abord sur le Nasdaq (l’indice des valeurs technologiques de Wall Street) à New-York puis sur Euronext à Paris.

170 millions d’euros en capital…

Dans le détail, Pasqal a annoncé mercredi avoir procédé à un tour de table qui lui permet de réunir au moins 340 millions d’euros (environ 395 millions de dollars), en deux temps. La première moitié de cette manne (soit 170 millions d’euros) est amenée sous forme de capital, avec un tour de table qui réunit, selon la startup, un groupe d’investisseurs internationaux de premier plan.

L’opération est emmenée par le fonds états-unien Parkway Ventures, le taïwanais Quanta Computer, le coréen LG Electronics et le français CMA CGM. Pasqal indique que ses investisseurs historiques, parmi lesquels le français ISAI, fonds européen pour l’innovation, le fonds souverain de Singapour Temasek et la branche investissement de Saudi Aramco remettent également au pot.

Bpifrance, qui compte parmi les investisseurs de Pasqal depuis sa série A de 2021, ne semble pas participer directement, mais la startup prend soin de préciser que la banque publique d’investissement « maintient un rôle stratégique à long terme dans la structure du capital ».

… et un engagement équivalent en vue de l’entrée en bourse

La seconde tranche de 170 millions d’euros prend quant à elle la forme d’un engagement sous forme de financement convertible (les investisseurs prêtent de l’argent à l’entreprise dans l’optique d’un remboursement sous forme d’actions). Cette seconde tranche intervient dans le contexte d’une introduction en bourse programmée en deux temps : à Wall Street d’ici fin 2026, puis à Paris sur Euronext dans les mois suivants.

Pour ce faire, Pasqal va s’adosser à un SPAC (special purpose acquisition company), une coquille vide introduite spécifiquement en bourse pour préparer le terrain à une autre société. En l’occurrence, le véhicule concerné est déjà identifié : il s’agit de la société Bleichroeder Acquisition Corp. II, qui compte un certain Michel Combes parmi ses fondateurs. Ancien PDG de SFR et directeur général d’Altice, Michel Combes a par la suite occupé un poste de directeur financier chez l’opérateur Sprint, avant de prendre la tête du japonais Softbank pendant deux ans.

Cette tranche convertible associe elle aussi un aréopage d’investisseurs institutionnels, parmi lesquels le fonds indien Inflection Point, et le fonds Large Ventures de Bpifrance.

Si l’opération va à son terme dans les conditions décrites ici, Pasqal sera valorisée 2 milliards de dollars avant conclusion des financements, et environ 2,6 milliards de dollars en prenant en compte la trésorerie disponible via ses différents véhicules.

Un ancrage français conservé

Pasqal, qui indique compter environ 275 employés, revendique 25 clients et partenaires pour ses premiers ordinateurs quantiques, ainsi qu’un carnet de commandes de l’ordre de 80 millions de dollars. L’entreprise affirme que ces fonds vont lui permettre d’accélérer significativement ses développements :

« En France, Pasqal prévoit de doubler sa capacité de production en 24 mois, d’augmenter ses effectifs de près de 20 % avec 50 nouvelles embauches au cours des 18 prochains mois et d’investir massivement dans la R&D pour développer un ordinateur quantique avancé et tolérant aux pannes d’ici la fin de la décennie. »

Pasqal, qui compte parmi les quelques pépites hexagonales du quantique aux côtés de sociétés comme Quandela, C12, Alice&Bob ou Quobly, assure par ailleurs de son intention de rester une société de droit français, avec un ancrage français, en dépit de la ventilation de son capital :

« La gouvernance envisagée (…) prévoit la nomination d’un nouveau président non exécutif de nationalité française. Cette structure de gouvernance a été élaborée en étroite collaboration avec les actionnaires et reflétera l’engagement de Pasqal à consolider son ancrage français tout en poursuivant son expansion internationale. L’entreprise devrait conserver son statut juridique français et son siège social à Palaiseau. »

☕️ OpenAI sort GPT-5.4, avec deux versions tournées vers les tâches « professionnelles »

6 mars 2026 à 06:47

OpenAI avance un nouveau pion dans la course effrénée que se livrent les acteurs de l’IA générative avec la sortie, jeudi 5 mars, de GPT‑5.4, dernière itération en date de son grand modèle de langage. Immédiatement disponible au travers de ChatGPT, des API proposées aux entreprises ou de Codex, l’outil dédié aux développeurs, GPT‑5.4 est décliné en deux versions : GPT‑5.4 Pro, « pour les personnes qui recherchent une performance maximale sur des tâches complexes », et GPT‑5.4 Thinking, qui promet des capacités plus poussées en matière de recherche en ligne, de taille de contexte et de gestion des requêtes complexes.

Dans un long article de présentation, rempli de tests de performance superlatifs, OpenAI indique avoir mis, avec GPT‑5.4, l’accent sur la capacité à créer et éditer des documents bureautiques (un nouveau plugin Excel est par ailleurs lancé en même temps), mais aussi sur la capacité à contrôler un ordinateur et à voir (c’est-à-dire à analyser le contenu de captures d’écran) le résultat de ses actions au fil de l’eau. Difficile de ne pas y voir une réponse directe aux comportements agentiques développés par Anthropic avec Claude Cowork.

OpenAI accompagne le déploiement de GPT‑5.4 d’une série de mesures de performance qui attestent, selon l’entreprise, de la supériorité de son nouveau modèle sur les deux références concurrentes du moment, à savoir Claude Opus 4.6 et Gemini 3.1 Pro.

Comparaison, selon OpenAI, des performances de GPT-5.4 avec les modèles précédents et la concurrence d’Anthropic et de Google – crédit OpenAI

GPT‑5.4 fait actuellement l’objet d’un déploiement progressif, et doit selon OpenAI s’imposer auprès des utilisateurs comme le nouveau modèle de référence. Le nouveau venu va d’ailleurs évincer GPT-5.2 Thinking qui sera mis à la retraite d’ici trois mois. Le changement n’est pas tout à fait anodin pour les gros consommateurs : GPT-5.4 est en effet facturé plus cher que son prédécesseur. En version API, il faut ainsi compter 2,5 dollars par million de jetons, quand GPT-5.2 était à 1,75 dollar.

Prix d’accès aux modèles GPT du moment, en dollars par million de jetons en entrée, puis en dollars par million de jetons en sortie – capture d’écran

Au fait, pourquoi GPT-5.4, alors que les versions Pro utilisaient jusqu’ici GPT-5.2, sorti en décembre, et que OpenAI a en parallèle sorti GPT-5.3 Codex début février et GPT-5.3 Instant début mars ? OpenAI l’explique de la façon suivante :

« GPT-5.4 est notre premier modèle de raisonnement principal intégrant les fonctionnalités de codage avancées de GPT-5.3-codex et déployé progressivement sur ChatGPT, l’API et Codex. Nous l’appelons GPT-5.4 pour refléter cette évolution et simplifier le choix entre les modèles lors de l’utilisation de Codex. Nos modèles Instant et Thinking évolueront à des rythmes différents au fil du temps. »

Des espions russes et cybercriminels chinois ont récupéré un spyware iPhone lié à la NSA

5 mars 2026 à 15:05
Back in the USSR (& remade in China)
Des espions russes et cybercriminels chinois ont récupéré un spyware iPhone lié à la NSA

« Coruna », qui repose sur pas moins de cinq chaînes d’exploitation iOS complètes et 23 exploits iOS, aurait coûté plusieurs millions de dollars en développement. Google, qui l’a identifié dans trois séries de cyberattaques en 2025, ne sait pas comment il aurait été revendu au renseignement russe puis à des scammers chinois.

MàJ du 12 mars : le logiciel espion correspondrait aux types d’outils volés par l’ex-directeur général de Trenchant, un vendeur américain de failles de sécurité susceptibles d’être exploitées par les services de renseignement techniques, filiale du marchand d’armes L3Harris, qui vient en effet d’être condamné à sept ans de prison pour en avoir vendu huit à son principal concurrent russe, Operation Zero, pour 1,3 million de dollars.


Le Google Threat Intelligence Group (GTIG) a identifié un nouveau kit d’exploitation particulièrement puissant ciblant les modèles d’iPhone Apple fonctionnant sous iOS version 13.0 (sortie en septembre 2019) jusqu’à la version 17.2.1 (sortie en décembre 2023).

La simple consultation d’un site web infecté suffisait à permettre l’installation du logiciel malveillant, dont la sophistication laisse supposer qu’il avait initialement été conçu par (ou pour) un service de renseignement disposant de ressources importantes.

Baptisé « Coruna » par ses développeurs, il repose en effet sur pas moins de cinq chaînes d’exploitation iOS complètes et un total de 23 exploits iOS, les plus avancés utilisant des techniques d’exploitation non publiques et des contournements de mesures d’atténuation. Deux d’entre eux avaient en outre déjà été reliés à une opération attribuée par la Russie à la National Security Agency (NSA).

Un marché noir d’exploits zero-day « d’occasion »


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

5 mars 2026 à 14:30
Résister aux constructeurs d'IA
US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

Portée par le Future of Life Institute, une nouvelle déclaration « pro-humaine sur l’IA » réunit des signatures de tous les bords politiques états-uniens, ainsi que de multiples personnalités plus ou moins proches du domaine. Le texte joue d’une rhétorique du remplacement de l’humanité par l’IA.

Une déclaration de plus, sur la manière dont l’humanité devrait s’emparer de l’intelligence artificielle, une ! En ce mois de mars, une nouvelle prise de parole a émergé sur le site humanstatement.org. Intitulée « the Pro-Human AI Declaration », le texte est signé par des représentants de tous les bords politiques aux États-Unis et de multiples organisations spécialisées dans l’intelligence artificielle, dans la défense des droits numériques ou dans différents sujets de sociétés. 



L’ex-conseiller de Donald Trump Steve Bannon se retrouve ainsi aux côtés de l’organisation de terrain Progressive Democrats of America, du Congress of Christian Leaders (une association d’églises évangéliques) ou de l’AFL-CIO Tech Institute (spécialiste des effets des nouvelles technologies sur le travail).

Lui aussi signataire de nombreux appels à freiner la course actuelle, le prix Turing Yoshua Bengio côtoie par ailleurs la fondatrice de l’ONG Campagne internationale pour l’abolition des armes nucléaires et prix Nobel Beatrice Fihn, le fondateur de Virgin Group Richard Branson, la directrice exécutive du versant états-unien de Pause AI Holly Elmore, ou encore l’acteur Joseph Gordon-Levitt.

Le texte, lui, propose cinq axes de travail : s’assurer que les humains gardent la maîtrise des outils d’IA, éviter les concentrations de pouvoir, protéger les expériences humaines (des liens familiaux ou communautaires à l’identité, en passant par la protection des mineurs), assurer le pouvoir d’action et la liberté humaine et s’assurer de la responsabilité des constructeurs d’IA ainsi que de leur obligation de rendre des comptes.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Play Store : refonte et baisse des frais, Google et Epic font la paix et parlent… métavers

5 mars 2026 à 13:00
Meta quoi ?
Play Store : refonte et baisse des frais, Google et Epic font la paix et parlent… métavers

Comme prévu, Google a revu le fonctionnement de son Play Store, en partenariat avec Epic. Le géant du Net présente les changements à venir, avec un programme de certification pour les boutiques alternatives, des frais en baisse et la possibilité de passer par des systèmes de paiements tiers. Epic est sur un petit nuage et parle de métavers.

Google vient d’annoncer quatre changements majeurs à venir pour les développeurs d’applications et le Play Store : « davantage d’options de paiement, un programme pour les boutiques d’applications tierces, des frais réduits ainsi que de nouveaux programmes pour les développeurs ».

Pour les applications mobiles, Google indique que les développeurs « pourront utiliser leurs propres systèmes de paiement dans leurs applications, en parallèle de celui de Google Play, ou rediriger les utilisateurs vers leurs sites pour effectuer des achats en dehors de l’application ».

Registered App Stores : un programme, optionnel, pour les boutiques tierces

Google annonce aussi simplifier le sideloading, c’est-à-dire l’accès aux boutiques tierces d’applications. Un programme, optionnel, Registered App Stores, permettra des installations « plus simple pour les boutiques d’applications Android qui répondent à certains critères de qualité et de sécurité ». Au hasard, l’Epic Games Store.

Registered App Stores sera d’abord proposé en dehors des États-Unis, mais Google ajoute avoir « l’intention de le lancer également aux États-Unis, sous réserve de l’approbation du tribunal ». Voici la présentation faite par Google dans les documents transmis à la justice, repris par The Verge :

Rappelons que Google avait été largement critiqué en août dernier, lors de l’annonce d’une vérification d’identité imposée à tous les développeurs, y compris pour le sideloading. Le père d’Android avait ensuite mis de l’eau dans son vin avec l’annonce d’un « nouveau flux avancé qui permet aux utilisateurs expérimentés d’accepter les risques d’installer des logiciels non vérifiés ».

Les frais d’achat « in app » passent à 20 %, les récurrents à 10 %

Passons au porte-monnaie. Alors que les frais d’achat « in app » étaient de 30 % auparavant, ils vont passer à 20 %. Pour les abonnements récurrents, ils seront de 10 %. Google sépare ensuite ses frais en deux : ceux liés à sa boutique d’un côté, l’utilisation de son système de paiement de l’autre. Attention, il faudra ajouter 5 % si vous utilisez le système de paiement intégré à Android, la réduction passera alors de 30 à 25 % seulement.

Résumé présenté par Google des frais facturés aux éditeurs d’applications exploitant Google Play

Google en profite aussi pour lancer un programme Apps Experience Program et revoir son Google Play Games Level Up. Tous les deux permettent de profiter de frais différents, en baisse si l’on en croit le géant du Net (avec des réductions supplémentaires avant le premier million de dollars annuels de revenus).

Les critères du Level Up Program sont disponibles par ici. The Verge s’est procuré le document déposé au tribunal qui détaille les grandes lignes des programmes.

Rendez-vous cet été pour les changements en Europe

Les changements seront mis en place à partir du 30 juin dans l’espace économique européen, au Royaume-Uni et aux États-Unis. Il faudra attendre le 30 septembre en Australie, le 31 décembre en Corée et au Japon et enfin le 30 septembre 2027 pour le reste du monde. Le programme Registered App Stores devrait arriver avec une mise à jour majeure d’Android d’ici la fin de l’année.

Ce n’est pas tout, avec ces changements, Google annonce avoir « également résolu tous les litiges mondiaux avec Epic Games ». Les deux protagonistes avaient enterré la hache de guerre en novembre dernier, avec une annonce surprise autour d’une réforme du fonctionnement du Play Store.

Epic content, Fortnite revient sur le Play Store

Epic se réjouit d’ailleurs de cette nouvelle annonce au « bénéfice des développeurs et des consommateurs ». Le studio est ravi de voir que, « à l’échelle mondiale, les développeurs auront le choix de la manière dont ils effectuent leurs paiements en utilisant Google Play ou les systèmes concurrents, avec des frais réduits et la possibilité de diriger les utilisateurs hors applications pour effectuer des achats ».

Tim Sweeney, patron d’Epic, annonce sur X que « Fortnite sera bientôt de retour sur le Google Play Store dans le monde entier ».

The Verge ajoute que Google et Epic ont également « convenu d’un accord concernant une nouvelle catégorie d’applications qu’elles appellent « metaverse browsers » », selon ce document publié par nos confrères. Il est largement caviardé et ne permet pas d’en apprendre beaucoup plus.

Cette notion de métavers, on la retrouve aussi brièvement dans le communiqué d’Epic : « Google prendra des mesures pour soutenir le futur métavers ouvert », mais cela ne permet pas d’en savoir davantage. Tout juste peut-on apprendre que les navigateurs « ont pour but principal de permettre la navigation et l’exploration des mondes du métavers », de « prendre en charge les objets virtuels », d’être sécurisés.

Ni Google ni Epic n’ont souhaité commenter davantage. Tim Sweeney s’est contenté de republier le message X de The Verge. Facebook pendant un temps, ne jurait que par le métavers (la société est même devenue Meta), avant de freiner des quatre fers il y a quelques années déjà. C’est toujours le cas début 2026.

❌