Vue normale

En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

6 mars 2026 à 16:14
C'est du chimique !
En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

Les méthodes d’IA ont passé les portes des laboratoires depuis quelques années. Mais, concrètement, à quoi sert-elle quand les chimistes l’utilisent ? Next a voulu en savoir plus et a interrogé le chimiste théorique François-Xavier Coudert.

Le machine learning ou le deep learning pour analyser des images, des vidéos, des textes ou des sons, on commence à connaître. Mais à quoi peuvent bien servir les techniques d’IA dans un laboratoire de chimie ? Qu’est-ce qu’un chimiste théorique peut bien faire d’un réseau de neurones ?

Next a discuté avec François-Xavier Coudert, chercheur au CNRS qui a travaillé, par exemple, sur l’utilisation de l’IA pour trouver de nouveaux réseaux métallo-organiques, ces matériaux poreux dont la découverte a valu aux chimistes Susumu Kitagawa, Richard Robson et Omar M. Yaghi le prix Nobel en 2025.

>> Quelle est le but de s’appuyer sur l’IA quand on fait des recherches en chimie ?

Une des idées est de trouver de meilleures molécules ou de meilleurs matériaux pour des applications choisies. Typiquement, on peut vouloir séparer le CO₂ des autres gaz en sortie de cheminée d’usines. On va aller creuser dans les matériaux connus qui n’ont jamais été testés pour cette application-là. ? C’est là où on va aller creuser dans les matériaux connus, ceux qui n’ont jamais été testés pour cette application-là.

Jusqu’ici, les gens qui développaient des matériaux avaient une application en tête. Si ça marche, ils le publient et expliquent que ce matériau fait ce qu’ils veulent super bien, sinon, ils le mettent dans un tiroir et font un autre essai. L’idée, c’est que, dans les matériaux qui ont telle propriété pour laquelle ils sont connus, il y en a peut-être qui pourraient être très bien pour d’autres applications. Et ainsi d’aller chercher des matériaux connus mais qui n’auraient pas été complètement exploités. Mais comment le savoir ? On est face à des milliers de matériaux et de molécules. C’est aussi un peu l’idée du « repurposing » (réutilisation) des médicaments : si je trouve une molécule connue mais qu’elle a un autre effet, c’est toujours plus facile à déployer que de réinventer depuis rien une nouvelle molécule.

Aller au-delà de l’« intuition chimique »

>> Les techniques d’IA permettent de modéliser, sélectionner, générer plein de choses, dans quels buts les chimistes utilisent l’IA actuellement ?

Il y a beaucoup de champs scientifiques qui utilisent l’IA parce qu’ils ont de larges volumes de données qui étaient jusque-là inexploitées, c’est le paradigme du big data. En chimie, il y a la même motivation : à force, les laboratoires académiques comme ceux de R&D ont accumulé des données et ils veulent les valoriser.

La différence, c’est que nous sommes très loin du régime du big data parce qu’on n’est pas Facebook ou Microsoft et que nous n’avons pas des millions d’expériences et que les données coûtent très cher à produire : faire une nouvelle manip’, tester un nouveau matériau ou une nouvelle molécule, c’est compliqué. Quand on va dans un laboratoire et qu’on leur demande combien de manip’ ont été faites sur les matériaux sur lesquels ils travaillent, en général, on est plutôt sur quelques centaines. Et le millier, c’est déjà énorme.

L’idée est de pouvoir optimiser la manière de faire de la recherche en s’appuyant sur les expériences, au-delà de l’« intuition chimique » : quand l’humain analyse ses résultats et se dit « ça, ça va bien marcher, ça non ». Sûrement qu’il y a des tendances qu’on rate, des facteurs qu’on ne voit pas et on a envie de les exploiter.

Le problème aussi est que ces données sont souvent très hétérogènes parce que les manip’ ne sont pas toujours faites de la même façon, pas décrites pareil : parfois, ça reste dans un cahier de labo, d’autres fois, c’est publié mais ça peut être dans des PDF pour les vieilles manipulations.

Il y a quelques exemples très précis où les chimistes se sont motivés en tant que communauté depuis les années 60 pour standardiser leurs données, et ces domaines sont ceux où l’IA est plus facile à appliquer, mais c’est très limité. En biochimie, ce sont les protéines avec la base de données PDB et on a la même chose avec les structures cristallines. Les quantités de données sur ces sujets sont importantes mais très ciblées. Ces communautés se sont organisées pour appliquer leurs standards en imposant que, pour publier une nouvelle protéine, il faille que sa structure soit déposée [dans le sens publiée, ndlr], de même pour les cristaux.

Pour le reste, on voit de plus en plus de monde faire des analyses statistiques relativement simples et présenter ça comme de la data science ou de l’IA. Effectivement, même avec peu de données, il y a des analyses à faire.

Mais on met aussi en place des stratégies pour acquérir plus de données. Par exemple, de la synthèse robotisée pour avoir accès à de plus grands volumes de données parce qu’un robot peut nous faire 64 manips d’un coup avec des conditions différentes, mais toutes en parallèle, et les caractériser. On peut récupérer toutes les données brutes au cours de la synthèse alors que ce n’est pas le cas si on prend les données des expériences déjà publiées qui ne sont jamais exhaustives.

Depuis quelques années, nous voulons aussi nous attaquer à un autre problème : il y a un biais dans nos données. Nous n’avons dans la littérature scientifique que des publications positives. On manque de données négatives : les chercheurs n’ont publié que des informations sur des matériaux qui étaient intéressants pour eux et qui fonctionnaient bien. Mais que tel matériau est nul pour telle application ou que telle structure, quand on essaye de la synthétiser, ça ne donne pas de beaux cristaux ; cette information-là, on ne la trouve jamais dans les publications ou les bases de données qui leur sont liées. Quelqu’un a peut-être écrit dans un cahier de laboratoire « c’est marron et c’est tout moche » et s’est arrêté sans partager l’information. Et, on n’apprend pas sans erreur, comme on dit aux enfants. Ce manque de données négatives est une vraie limitation pour ce qu’on veut faire. La synthèse robotisée permet aussi d’enregistrer ce qui ne marche pas.

« l’IA améliore nos outils de chimistes sans changer la chimie que nous faisons »

>> Concernant les méthodes d’IA utilisées, quelles sont celles vers lesquelles se dirigent les chimistes ?

L’IA générative n’est pas une des grosses directions, même s’il y a des chercheurs qui essayent de créer de nouveaux matériaux, de nouvelles molécules, mais ce n’est pas la direction majeure. C’est souvent celle qui capture le plus les esprits parce que les gens disent « on a créé un nouveau matériau ».

Une autre direction qui est peu visible, c’est que l’IA améliore nos outils de chimistes sans changer la chimie que nous faisons. On a plus de facilités à mettre des modèles complexes dans nos outils pour faire de la reconnaissance de spectre, de l’analyse d’espèces, mais aussi, en chimie théorique sur laquelle je travaille, pour des méthodes de calcul. Avant, on calculait les propriétés des matériaux et des molécules avec des méthodes basées sur la physique comme les équations de Schrödinger, de Newton. On simulait le comportement des atomes dans les molécules, des molécules dans les matériaux, etc.

Aujourd’hui, les méthodes d’IA accélèrent ce travail en nous donnant des modèles plus précis. Pour certains systèmes, une fois qu’on a résolu 10 000 fois l’équation de Schrödinger pour telle classe de matériaux, on entraîne un réseau neuronal et il n’y a plus besoin de résoudre l’équation de Schrödinger car on a vu suffisamment de configurations possibles de ces matériaux pour savoir prédire ce qu’ils vont donner.

Cette amélioration de nos outils est très technique mais elle a vraiment un impact très fort dans la communauté de la chimie. C’est un nouvel outil de chimie théorique pour prédire les comportements des molécules et des matériaux. Aujourd’hui, la majorité des personnes utilisent ces outils-là.

>> Concrètement, ça se présente comment ?

En chimie théorique, on avait déjà des logiciels qui permettaient, par exemple, de regarder une molécule et de calculer son spectre UV visible. Mais, aujourd’hui, on a des plugins intégrés qui y intègrent des outils d’IA qui peuvent permettre de gagner du temps : pour certains types de calculs, on gagne un facteur 10, un facteur 50 ou même un facteur 100. On est donc capables de faire des calculs sur des systèmes plus grands, plus complexes et plus longs que ce qu’on faisait il y a cinq à dix ans.

L’idée, c’est donc de mettre des réseaux neuronaux à l’intérieur de nos logiciels pour accélérer la résolution de nos équations physiques. Ça existait déjà à l’époque mais la précision n’était pas de très haute et c’était un outil de niche avec quelques personnes qui travaillaient avec. Le fait d’avoir accès facilement à toute l’infrastructure, les GPU, les bibliothèques logicielles, avec le petit bout de code pour que le réseau neuronal fasse pile ce qu’on a envie, c’est devenu incroyablement pratique. Et par exemple des logiciels de dynamique moléculaire comme LAMMPS intègrent ce genre d’outils.

>> Ces logiciels sont développés par qui ?

Il existe sans doute quelques logiciels commerciaux mais, comme c’est un développement assez rapide, la plupart des personnes utilisent des logiciels open source académiques développés par des collègues universitaires, au MIT, à l’université de Pennsylvanie, par exemple, et maintenus par une communauté.

Les calculateurs du GENCI, un point fort pour les chercheurs français

>> Faut-il les déployer sur un serveur ou sont-ils utilisables sur des ordinateurs de bureau ?

Sur des ordinateurs de bureau, on peut faire des petits tests sur une molécule, un matériau d’une centaine d’atomes. Si on veut étudier de vrais problèmes, il faut des serveurs et de plus en plus de la puissance de calcul en GPU, puisque c’est sur ces plateformes-là que les réseaux neuronaux ont été les plus optimisés.

Après, chacun fait comme il veut. Nous avons un serveur au laboratoire mais on utilise surtout des machines nationales. En France, on a cette chance d’avoir, grâce au CNRS et aux autres organismes comme le CEA, le GENCI qui nous donne accès à de la puissance de calcul sur trois grands calculateurs nationaux souverains, hébergés en propre. C’est vraiment un point fort pour nous. Comme quand on candidate pour les synchrotrons ou autres grandes infrastructures, il suffit de déposer tous les six mois en justifiant avec un dossier comportant les recherches effectuées et les nouveaux projets et c’est expertisé par le comité du GENCI qui alloue un nombre d’heures de machine.

>> Comment on fait pour créer un modèle adapté à la chimie ?

On part d’un jeu de données, par exemple une liste des stabilités mécaniques (sont-ils plus ou moins durs, plus ou moins résistants) de 15 000 matériaux avec leurs structures, et on veut faire un modèle capable de prédire cette stabilité mécanique pour d’autres matériaux. Ce qui est difficile, c’est qu’il faut représenter la structure des matériaux. Le réseau neuronal prend en entrée un jeu de nombres, il faut donc trouver une représentation sous forme de série de nombres qui représente bien la géométrie du matériau [c’est la même problématique pour tous les domaines, ndlr].

On transforme donc ces structures de matériaux en série de données et on les donne à un réseau de neurones pour lequel on optimise les poids sur les neurones pour qu’à la fin, le modèle ait appris à sortir avec une bonne précision la stabilité mécanique d’un matériau quand on lui donne sa structure. Une fois qu’on a ce modèle, on peut lui donner un matériau pour qu’il nous prédise sa stabilité mécanique.

Pour choisir le modèle, il faut une adéquation entre la complexité du réseau neuronal (nombre de neurones, façon dont ils sont connectés entre eux) et le nombre de données qu’on a et leur complexité. Ça sert à rien d’utiliser un modèle trop complexe sur un tout petit jeu de données, mais si le modèle est trop simple et qu’il n’y a pas assez de neurones, il va être de mauvaise qualité. Là est donc tout l’enjeu : savoir quel est le bon type de modèles, combien de neurones, quelle forme, quelle connectivité et comment on représente les données pour les faire ingérer à ce réseau de neurones. Tout le boulot est là.

>> Pour l’instant, après utilisation de l’IA, dans la vraie vie chimique, est-ce que ça améliore le travail ? Ne croulez-vous pas devant une liste de matériaux candidats qui sont ensuite difficiles à départager ?

Aujourd’hui, pas vraiment. Ça propose des pistes mais on n’a pas d’exemple « magique » comme les biologistes avec Alphafold. En chimie et en sciences des matériaux, on n’a pas encore sorti le truc où on peut dire : « ça, ça a été fait grâce à l’IA et on n’aurait pas pu le faire autrement, etc ». L’IA accélère certaines pratiques mais ce n’est pas applicable à tous les laboratoires ni à toutes les propriétés. Il y a des choses vraiment difficiles et pour lesquelles, on a beau utiliser l’IA, on ne voit rien en ressortir, sans facteur clair. Ce n’est pas une chose magique qui résout tous nos problèmes, loin de là. Ça accélère la recherche sur des domaines bien spécifiques.

Je ne suis pas trop inquiet sur le côté : ça fournit trop de pistes et ça noie la recherche. Je pense que le principal problème est que certains essayent de mettre de l’IA là où elle n’apporte rien et c’est là où on perd du temps.

« Un outil de plus dans la très grande boite à outils du chimiste »

>> Qu’est-ce qui ne fonctionne pas avec l’IA en chimie ?

Une des grandes questions aujourd’hui est de savoir ce qui fait qu’une molécule est synthétisable ou pas. C’est un grand problème ouvert sur lequel l’IA n’est pas vraiment « douée » et où, je crois, l’intuition chimique fait mieux. Si je montre deux molécules ou deux matériaux à un chimiste expérimentateur, il va pouvoir me dire : « Celle-là, je peux essayer de te la faire dans le bécher, mais celle-ci, c’est mort, jamais on l’aura ». Cette idée de la faisabilité expérimentale reste une question ouverte et c’est la même chose pour les matériaux. Comment un modèle peut me permettre de sélectionner parmi 140 super matériaux les 10 que je vais vraiment synthétiser et qui auront une chance d’être utilisables ? La question de la faisabilité expérimentale, ce qui fait qu’on arrive à synthétiser telle molécule ou tel matériau, est encore un problème difficile.

Ces méthodes sont un outil de plus dans la très grande boite à outils du chimiste. Mais il faut donc qu’on apprenne aux étudiants, pas forcément à savoir les utiliser mais à savoir comment ça fonctionne pour avoir un regard critique dessus et à comprendre les forces et les limites. Je travaille à former nos étudiants à ce qu’ils puissent lire des travaux qui utilisent des modèles d’IA en se posant les bonnes questions : comment le jeu de données a été traité ? Quelle est la dimension du modèle ? Et à se faire un avis critique puisque ça devient très utilisé, de même que moi, j’ai beau être théoricien et développer des modèles sur ordinateur, si je veux parler à mes collègues, il faut que je puisse comprendre une méthode expérimentale, sans pour autant être capable de faire une synthèse de matériau ou de le caractériser sur un synchrotron.

Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

6 mars 2026 à 14:17
À lobbying, lobbying et demi
Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

Que disent les délégués à la protection des données personnelles de la simplification du RGPD envisagée par la Commission européenne ? Un sondage organisé par l’association noyb révèle que leurs préoccupations portent essentiellement sur la simplification des démarches administratives, et non sur la redéfinition des données personnelles ou sur la limitation du droit d’accès, pourtant envisagés par Bruxelles en réponse aux demandes de l’industrie.

Dans l’univers tech, on entend souvent dire que l’excès de norme est un frein à l’innovation, et que le régulateur ferait bien de s’intéresser aux signaux qui remontent de la base (les entreprises) plutôt que de décider du cadre depuis le sommet.

L’association autrichienne noyb a décidé de prolonger la logique en descendant un cran plus bas : plutôt que d’interroger les entreprises, elle a cherché à connaître la position des individus qui, au sein de ces dernières, se situent en première ligne de la mise en œuvre du cadre réglementaire.

Ratio entre charge de travail et utilité perçue

En l’occurrence, les fameux Délégués à la protection des données (souvent abrégé en DPO, pour Data Protection Officer), instaurés par les articles 37 et suivants du non moins fameux Règlement général sur la protection des données (RGPD).

L’association a donc demandé à environ 500 de ces derniers quels étaient les points de friction liés au RGPD les plus fréquents dans leur quotidien. Elle en a profité pour essayer d’évaluer, toujours par la voie du sondage déclaratif, la part du temps de leur activité de DPO associée à chacune des grandes exigences du règlement. Elle a enfin tenté d’évaluer la façon dont ces DPO percevaient la valeur du service rendu à l’internaute en matière de respect de la vie privée.

Les enseignements de cette étude, présentés jeudi 5 mars, illustrent selon noyb à quel point la Commission européenne fait fausse route en matière de simplification du RGPD. Rappelons que Bruxelles a publié en novembre 2025 un paquet législatif dédié au numérique qui vise à amender plusieurs des grands textes de loi européens, dont le RGPD, la directive e-Privacy, le règlement sur l’IA, etc..

Qualifié de « digital omnibus » du fait de ce caractère fourre-tout, le texte est vivement attaqué pour les allègements qu’il propose en matière de défense de la vie privée. Mi-janvier, deux organisations européennes ont ajouté de l’huile sur le feu en arguant que certaines des mesures de ce Digital Omnibus seraient le reflet du message porté par les lobbys de l’industrie de la tech à Bruxelles. L’un des points de crispation concerne l’article 15 relatif au droit d’accès aux données personnelles, que la Commission européenne prévoit de réduire au motif qu’il y aurait des « abus ».

C’est donc dans ce contexte tendu que noyb dégaine son étude, dont les résultats se veulent donc représentatifs des attentes non pas d’un secteur d’activité, mais d’une fonction bien précise, dont l’avis semble tranché. L’association résume :

« Il s’avère que la plupart des professionnels ne souhaitent pas une réduction des protections, mais une simplification des obligations de documentation et des formalités administratives. Dans bien des cas, ils demandent même des lois plus claires plutôt qu’une plus grande « flexibilité », difficile à mettre en œuvre pour la plupart des entreprises. »

Les DPO ne veulent globalement pas moins de protections

Le sondage a été réalisé en juillet 2025, et une fois nettoyées, les données permettent à noyb de consolider (voir l’étude au format PDF) les réponses de 510 DPO, dont la moitié évolue dans des sociétés comptant plus de 500 employés. Il est à noter que l’association a recruté les sondés par ses propres canaux de communication (réseaux sociaux et newsletter centrée sur les enjeux liés au RGPD).

Pour ce qui est de la charge de travail, les répondants déclarent que les tâches les plus chronophages sont liées aux obligations déclaratives, à la mesure d’impact, et à la conformité en matière de sécurité. Les principes qui constituent le cœur du règlement, les obligations d’information ou la gestion du droit d’accès sont quant à eux considérés comme relativement indolores. D’après noyb, plus de 70 % des sondés répondent ainsi que le droit d’accès ne génère que « peu », « un peu » ou « pas » de travail.

L’association affirme que ce chiffre confirme sa propre lecture du phénomène, selon laquelle la plupart des entreprises ne font l’objet que de rares demandes d’accès, tandis que les acteurs susceptibles d’être fréquemment sollicités (secteur de la publicité par exemple) ont de toute façon des routines de traitement automatisées.

Le sondage évalue les différentes missions afférentes à la conformité RGPD en fonction de la charge de travail engendrée – crédit noyb

L’association interroge ensuite son échantillon de DPO sur leur perception de l’utilité des missions en question. Ici, ce sont les obligations liées à la sécurité, les principes fondamentaux du texte, et l’obligation d’information qui apparaissent comme les éléments les plus utiles, juste devant le droit à l’accès. Elle s’étonne dans ce contexte que Bruxelles propose de limiter le droit d’accès ou les obligations de transparence.

« Cette étude révèle un fossé immense entre les besoins des personnes qui travaillent concrètement au respect de la conformité et les problèmes alimentés par la « bulle du lobby bruxellois ». Nous n’aidons pas les entreprises européennes dans leur fonctionnement normal ; la proposition de la Commission empiète même souvent sur ce que les professionnels considèrent comme utile », résume Max Schrems, fondateur de noyb.

L’association évalue le rapport entre niveau de protection perçu et charge de travail pour les principales obligations du RGPD – crédit noyb

Le « one size fits all » ne fait pas consensus

noyb profite de son étude pour interroger les DPO sur l’intérêt, ou non, de créer des paliers en fonction desquels le niveau d’obligation pourrait varier, de façon par exemple à ce que les exigences réglementaires soient alourdies pour les grands acteurs spécialistes de la vente de données, et allégées pour les petites et moyennes entreprises chez qui la gestion de données personnelles n’est qu’une problématique satellite.

La question n’est pas totalement innocente : dans sa communication autour du paquet numérique, Bruxelles fait en effet valoir que la simplification du RGPD profitera à toutes les entreprises, sans prendre en compte cette différence d’impact. Qu’en disent les intéressés ? « Malgré le fait que beaucoup d’entre eux représentent de plus grandes entreprises (500 + employés), 70% des répondants ont déclaré qu’il y avait un besoin de règles plus strictes pour les grandes entreprises », argue noyb, qui défend donc l’idée d’un système de paliers, avec des règles très claires, ne laissant que peu de place à l’interprétation juridique, pour les PME.

L’association interroge également la perception des DPO sur la proposition, faite par Bruxelles, d’un système de liste blanche, pour automatiser le consentement de certains recueils et traitements à finalité claire (la mesure d’audience par exemple) et donc réduire la pression au niveau des fameux bandeaux de cookies.

noyb, qui avait exprimé en novembre dernier des craintes sur les possibilités réellement offertes par cette liste blanche, note à ce niveau que 84 % des sondés sont globalement favorables à l’idée, mais ajoute à l’équation une autre hypothèse, jusqu’ici écartée par Bruxelles : celle d’un fonctionnement par liste noire, qui interdirait donc les traitements « clairement illicites », à la façon de ce qu’énonce l’article 5 du règlement européen sur l’IA. L’idée recueille un accueil favorable (totalement ou partiellement) chez 91 % des sondés.

« Étonnamment, les spécialistes de la protection de la vie privée (…) ne pensent pas qu’une « liste noire » limiterait excessivement [les responsables de traitement]. Il semble que la sécurité juridique soit privilégiée par rapport à la flexibilité de la loi. On peut supposer que la garantie d’une concurrence loyale est un facteur justifiant l’établissement de « listes noires », étant donné que les concurrents seraient eux aussi soumis à des règles plus claires. », commente l’association, qui appelle par conséquent à un débat plus large autour du Digital Omnibus.





Désignée « fournisseur à risque pour la sécurité nationale » aux US, Anthropic conteste

6 mars 2026 à 13:37
Misanthropic world
Désignée « fournisseur à risque pour la sécurité nationale » aux US, Anthropic conteste

L’administration Trump a mis sa menace à exécution : elle a désigné officiellement Anthropic comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Dario Amodei a annoncé que l’entreprise allait contester cette décision devant la justice. Le responsable s’excuse en même temps pour la fuite d’un mémo dans lequel il comparait Trump à un « dictateur ».

La tension n’est toujours pas retombée entre Anthropic et l’administration Trump. Cette dernière a officiellement désigné la startup comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Jusque-là, ce qualificatif n’avait jamais été utilisé par le pouvoir états-unien contre une entreprise du pays. L’implication juridique pourrait être plus ou moins importante économiquement pour Anthropic.

Une portée différente selon les deux parties

Le CEO de l’entreprise, Dario Amodei, a affirmé ce jeudi sur le blog d’Anthropic avoir reçu, la veille, la lettre officielle du Département de la Défense américain (DOD, désigné aussi sous le nom de Département de la Guerre par l’administration Trump).

Vendredi dernier, Pete Hegseth, le secrétaire d’État à la Défense, avait annoncé que cette qualification impliquait qu’ « aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l’armée américaine n’est autorisé à mener une quelconque activité commerciale avec Anthropic ». Cela aurait de lourdes conséquences pour la startup, dont les clients comme Microsoft, Google ou Amazon devraient choisir entre la startup ou leurs contrats avec la défense des États-Unis.

Mais dans son billet, le responsable de la startup conteste la portée de la mesure. Sans citer la lettre, il affirme que « le langage utilisé par le ministère de la Guerre dans la lettre (en supposant qu’il soit juridiquement valable) correspond à notre déclaration de vendredi selon laquelle la grande majorité de nos clients ne sont pas concernés par une désignation de risque lié à la chaîne d’approvisionnement » :

« cela s’applique clairement uniquement à l’utilisation de Claude par les clients dans le cadre direct de contrats avec le ministère de la Guerre, et non à toute utilisation de Claude par les clients qui ont conclu de tels contrats. »

Microsoft confirme au New York Times : « Nos avocats ont étudié cette désignation et ont conclu que les produits Anthropic, y compris Claude, peuvent rester disponibles pour nos clients (à l’exception du ministère de la Guerre) via des plateformes telles que M365, GitHub et Microsoft AI Foundry, et que nous pouvons continuer à travailler avec Anthropic sur des projets non liés à la défense ».

Des excuses pour des propos contre l’administration Trump dans un mémo interne

« Cette action imprudente est court-termiste, autodestructrice et fait le jeu de nos adversaires », affirme à nos confrères la sénatrice démocrate Kirsten Gillibrand. « Le fait que le gouvernement attaque ouvertement une entreprise américaine pour avoir refusé de compromettre ses propres mesures de sécurité est quelque chose que l’on attendrait de la Chine, pas des États-Unis », ajoute-t-elle.

Dans son billet de blog, Dario Amodei est aussi revenu sur la fuite d’un mémo interne qu’il a envoyé à ses employés. Dans celui-ci, obtenu par le média The Information et relayé par Futurism, le CEO fulminait : « La véritable raison pour laquelle [le département de la Défense] et l’administration Trump ne nous aiment pas, c’est que nous n’avons pas fait de dons à Trump ».

« Nous n’avons pas fait d’éloges à Trump dignes d’un dictateur (contrairement à Sam [Altman, ndlr]) », ajoutait Amodei, qui s’excuse sur son blog où il assure que ce n’est pas la direction de l’entreprise qui est à l’origine de la fuite : « Il n’est pas dans notre intérêt d’aggraver la situation ».

Et il remet le mémo dans son contexte du message de Donald Trump posté sur Truth Social et celui du département de la Défense sur X vendredi dernier. Le dirigeant y qualifiait notamment Anthropic d’ « entreprise woke de gauche radicale » et affirmait que les États-Unis ne la « laisseraient jamais dicter la manière dont [leur] grande armée mène et gagne les guerre ». Quant au Pentagone, il accusait l’entreprise et son CEO de duplicité.

La Wikipedia anglophone se bat contre des « hallucinations » venues de traductions par IA

6 mars 2026 à 10:15
OkAI
La Wikipedia anglophone se bat contre des « hallucinations » venues de traductions par IA

La version anglophone de Wikipédia se trouve confrontée à la gestion d’éditions utilisant massivement la traduction via l’IA, ce qui ajoute des erreurs dans l’encyclopédie. En cause, notamment, une association dont le but est de créer du contenu dans Wikipédia.

L’IA générative donne encore une fois du fil à retordre à Wikipédia. Cette fois, c’est son utilisation massive pour traduire des pages en anglais qui est pointée du doigt.

Il faut dire que la position de la fondation Wikimedia est sur une ligne de crête entre le fait de trouver des avantages à l’utilisation de l’IA générative pour automatiser certaines tâches et de gérer les problèmes qu’elle génère. Ainsi, l’année dernière, elle a dû retirer une fonctionnalité expérimentale de résumé automatique des articles de l’encyclopédie.

Une utilisation des IA génératives en discussion dans la Wikipédia anglophone

Au même moment, du côté de la version francophone, les éditeurs adoptaient un texte de recommandation sur l’usage de l’IA générative qui affirmait clairement que son utilisation était « vivement déconseillée ».

Concernant la traduction, le texte demande à ce que, si l’IA générative est utilisée pour de l’aide à la traduction, cela soit mentionné. La vérification des sens d’un mot étranger fait partie des « usages tolérés », avec la précision qu’il ne doit pas y avoir de « traduction littérale ou mot à mot », la page ajoutant « veillez à ce qu’il n’y ait pas de contre-sens ».

Mais du côté anglophone, une discussion sur le sujet n’est apparue qu’en janvier dernier, débouchant sur un texte adopté le 10 février concernant la traduction d’articles venant d’autres versions linguistiques de l’encyclopédie.

Celui-ci demande à ce que l’utilisation soit faite seulement si l’utilisateur a les compétences en anglais et dans la langue d’origine pour confirmer que la traduction est bonne. Il demande aussi que l’utilisateur ait vérifié qu’aucune hallucination n’a été ajoutée et que le texte reste fidèle aux sources citées.

Des textes traduits à la va-vite par une association dédiée à ça

Le texte a été adopté alors que des éditeurs ont pointé du doigt des erreurs manifestes dans certaines pages traduites à la va-vite. Ainsi, comme l’explique 404 Media, pour la page de la famille noble de La Bourdonnaye.

Alors que dans la version française, la phrase « La famille de La Bourdonnaye a pour berceau la seigneurie de la Bourdonnais à Trégomar dans les Côtes d’Armor en France » est accompagnée de la mention « [réf. nécessaire] », une source a été ajoutée lors de la traduction automatique par un utilisateur, mais celle-ci ne contient pas d’indication sur cette famille à la page donnée, indique Ilyas Lebleu (dont le pseudo est Chaotic Enby sur Wikipédia).

Mais ce n’est qu’un exemple, ainsi il explique à 404 média que pour certains articles « les sources avaient changé et des phrases avaient été ajoutées sans source et sans explication, tandis que l’article sur les élections sénatoriales françaises de 1879 avait ajouté des paragraphes provenant de sources sans aucun rapport avec le contenu initial ! ».

Le problème viendrait notamment d’ajouts faits par des éditeurs de l’association Open Knowledge Association (OKA). Celle-ci s’affiche comme faisant de la « diffusion de contenu gratuit sur Wikipédia et d’autres plateformes ouvertes grâce à un financement ciblé », et se vante d’avoir créé et traduit près de 5 000 articles sur Wikipedia. Les internautes peuvent donner à l’association et si la somme est supérieure à 10 000 francs suisses, ils peuvent demander d’enrichir un champ particulier.

« Si vous souhaitez faire traduire des pages spécifiques, nous les examinerons, mais ne les traduirons que si nous estimons qu’elles répondent à nos critères de qualité », ajoute l’association qui s’engage aussi à préciser les éventuels conflits d’intérêt lors de l’édition.

Mais cette découverte par Ilyas Lebleu a fait remonter de nombreuses autres traductions problématiques publiées par OKA sur l’encyclopédie. Des bénévoles de la version anglophone de Wikipédia ont pointé à 404 Media un tableur utilisé par les traducteurs d’Oka dans lequel se trouvent les instructions :

« Choisissez un article, copiez l’introduction dans Gemini ou chatGPT, puis vérifiez si certaines des suggestions améliorent la lisibilité. Modifiez les articles de Wikipédia uniquement si les suggestions constituent une amélioration et ne changent pas le sens de l’introduction. Ne modifiez pas le contenu avant d’avoir vérifié que les suggestions de Gemini sont correctes ! »

Le fondateur de OKA, Jonathan Zimmermann, explique à 404 Media que « des erreurs arrivent » mais que la méthode d’OKA « comprend une relecture humaine, demande aux traducteurs de vérifier le texte par rapport aux sources citées » et il assure que des « responsables vérifient régulièrement des extraits, spécifiquement pour des nouveaux traducteurs ».

Il explique que depuis peu, les traducteurs doivent passer leurs textes dans un autre outil en utilisant un prompt spécifique de comparaison qui doit identifier les incohérences, omissions ou inexactitudes.

#Nextquick Comment fonctionne le PCI Express, qui double ses débits à chaque génération

6 mars 2026 à 09:30
NEXTe >> PCIe
#Nextquick Comment fonctionne le PCI Express, qui double ses débits à chaque génération

Vous êtes-vous déjà demandé d’où venait le PCI Express (PCIe) utilisé par les cartes graphiques et comment il faisait pour doubler ses débits à chaque génération ? Oui, alors Next vous apporte les réponses. Non ? Parfait, c’est l’occasion d’apprendre de nouvelles choses !

Le PCIe comme nous avons l’habitude de l’appeler, a bien des noms. La version longue : Peripheral Component Interconnect Express. Version plus courte : PCI Express. On parle aussi de PCI-E ou PCIe en abrégé. Le PCIe est une norme de bus d’extension, permettant de connecter des cartes d’extension sur des cartes mères.

Petite histoire du PCI Express : Arapahoe (Intel) >> 3GIO >> PCIe

Le PCIe est une évolution du PCI classique et remplace aussi l’AGP qui était utilisé par des cartes graphiques (et encore avant les bus VLB et (E)ISA). Le PCIe est né au début des années 2000, d’abord lancé par Intel sous le nom de code projet Arapahoe puis sous l’appellation 3GIO pour Third Generation I/O. Il est ensuite repris par le PCI-SIG, avec SIG pour Special Interest Group, encore aujourd’hui en charge du PCIe. Au conseil d’administration, on retrouve du beau monde : AMD, ARM, Dell, IBM, Intel, Keysight, NVIDIA, Qualcomm et Synopsys.

En 2002, le PCI Express était né. Aujourd’hui, c’est la 8ᵉ génération de PCIe qui est en travaux. Ce bus d’extension est présent sur toutes les cartes mères, en version 5.0 pour les plus récentes. De 8 Go/s en bi-directionnel (4 Go dans chaque sens, descendant et montant), il est maintenant question de… 1 024 Go/s, soit 128x plus en plus de deux décennies. Pour en arriver là, plusieurs évolutions ont été nécessaires.

Voici un rapide état des lieux des dates et des débits (approximatifs) de chaque génération :

  • PCIe 1.0 (2003) : jusqu’à 8 Go/s en x16
  • PCIe 2.0 (2007) : jusqu’à 16 Go/s en x16
  • PCIe 3.0 (2010) : jusqu’à 32 Go/s en x16
  • PCIe 4.0 (2017) : jusqu’à 64 Go/s en x16
  • PCIe 5.0 (2019) : jusqu’à 128 Go/s en x16
  • PCIe 6.0 (2022) : jusqu’à 256 Go/s en x16
  • PCIe 7.0 (2025) : jusqu’à 512 Go/s en x16
  • PCIe 8.0 (2028) : jusqu’à 1024 Go/s en x16

Comment fonctionnent les « lignes » PCIe

Le PCIe fonctionne avec des lignes, de 1 à 16 généralement, on parle alors de x1, x4, x8 et x16. Rambus rappelle que des interfaces en x32 et x12 ont été supprimées avec le PCIe 6.0. « Bien que ces largeurs soient disponibles dans les spécifications PCIe 5.0 et antérieures, ces largeurs n’ont jamais été implémentées sur le marché », ajoute l’entreprise.

Chaque ligne comprend deux paires de fils : une pour le débit montant, l’autre pour le débit descendant ; on parle de full-duplex. Suivant le nombre de lignes disponibles – il y a « négociation » entre la carte mère et la carte d’extension – les données sont envoyées en une seule fois, ou découpées en 4, 8 ou 16.

Par exemple, avec quatre lignes, le premier symbole (on va y revenir) va à la ligne 1, le 2e à la ligne 2, etc. Au 5e, retour à la ligne 1, le 6e à la ligne 2, etc. De cette manière, une carte graphique PCIe x16 peut fonctionner sur un connecteur x16, mais aussi en x8, x4 et même x1. Le transfert des données est plus ou moins rapide.

C’est quoi ces GT/s et comment on passe au Go/s ?

Passons maintenant au débit. Le PCIe 1.0 est annoncé à 250 Mo/s par ligne, soit 4 Go/s avec 16 lignes (250 x 16). Pour rappel, c’est du full-duplex, donc on peut aussi parler de 8 Go/s (dans les deux sens). Mais on lit aussi parfois des GT/s pour gigatransferts/s. C’est la manière de parler des débits d’un bus informatique, indépendant du codage des données.

Codage ? Oui, en PCIe chaque octet de 8 bits est transformé en un symbole de 10 bits : 8b/10b. Les symboles sont ensuite transmis. On voit rapidement arriver le problème : pour 8 bits, il faut en envoyer 10. Il y a des pertes.

PCIe x1 x4 x16
De haut en bas : PCIe x16 (bleu), x1, x4, x16 et enfin PCI (noir en bas)

Entre le PCIe 1.0 et 2.0, les GT/s doublent

Nous n’allons pas entrer dans tous les détails, mais le PCIe 1.0 était à 2,5 GT/s par ligne. Pour obtenir le débit utile, il faut multiplier les GT/s par l’efficacité du codage. Nous avons des Gb/s, que l’on divise par huit pour passer en Go/s.

Le PCIe 2.0 garde le même fonctionnement que le PCIe1, mais avec un débit brut doublé, soit 5 GT/s. Voici les calculs pour passer en Go/s (par ligne) :

  • Débit du PCIe 1.0 : (2,5×8/10)/8 = 0,250 Go/s ou encore 250 Mo/s
  • Débit du PCIe 2.0 : (5×8/10)/8 = 0,5 Go/s ou encore 500 Mo/s

PCIe 3.0 à 5.0 : nouveau codage 128/130b avec moins de « pertes »

Le PCIe 3.0 change le codage des symboles de 8b/10b à 128b/130b. Un symbole de 130 bits pour 128 bits, soit une perte de 1,5 % seulement (au lieu de 20 %). Le débit brut n’augmente qu’à 8 GT/s mais le débit pratique est quand même doublé. Avec le PCI 4.0 et 5.0, le débit brut est doublé, sans autre changement.

  • Débit du PCIe 3.0 : (8×128/130)/8 = 0,985 Go/s ou encore 985 Mo/s (arrondi à 1 Go/s).
  • Débit du PCIe 4.0 : (16×128/130)/8 = 1,969 Go/s ou encore 1 969 Mo/s (arrondi à 2 Go/s).
  • Débit du PCIe 5.0 : (32×128/130)/8 = 3,938 Go/s ou encore 3 938 Mo/s (arrondi à 4 Go/s).

PCIe 6.0 à 8.0 : le débit double avec PAM-4

Le PCIe 6.0 inaugure le passage au PAM-4, pour modulation d’amplitude d’impulsion, à la place du NRZ (non-return to zero). Avec le NRZ, il n’y a que deux états (niveaux de tension) pour le signal : 0 ou 1. Facile à distinguer. En PAM il y en a davantage : trois avec PAM-3, quatre avec PAM-4, etc. PAM-4 utilise donc quatre états, par exemple 00, 01, 10 et 11. Au lieu d’un bit, le signal en transporte deux bits.

Comparaison entre NRZ et PAM4, crédits : Rambus

Le débit brut du PCIe 6.0 reste le même qu’en 5.0, mais PAM-4 permet de doubler le nombre de bits sans rien faire de plus. On passe donc de 32 à 64 GT/s avec le choix du PCIe d’associer les transferts aux bits (et non pas aux symboles). L’encodage passe sur 242 octets / 256 octets.

Avec le PCI 7.0 et 8.0, le débit brut est doublé à chaque fois :

  • Débit du PCIe 6.0 : (64/8)x(242/256)= 7,563 Go/s ou encore 7 563 Mo/s (arrondi à 8 Go/s).
  • Débit du PCIe 7.0 : (128/8)x(242/256)= 15,125 Go/s ou encore 15 125 Mo/s (arrondi à 16 Go/s).
  • Débit du PCIe 8.0 : (256/8)x(242/256)= 30,25 Go/s ou encore 30 250 Mo/s (arrondi à 32 Go/s).

[MàJ] Que se passe-t-il chez YggTorrent ? « Quelque chose se prépare »… mais quoi ?

6 mars 2026 à 12:28
Bonne ambiance !
[MàJ] Que se passe-t-il chez YggTorrent ? « Quelque chose se prépare »… mais quoi ?

YggTorrent est mort, mais il bouge encore. Le message affiché sur la page d’accueil change, répond à certaines accusations et propose désormais les noms de domaine à la vente… « exclusivement pour un projet légal ». Pendant un temps, un compte à rebours annonçait un retour, sous la forme Ygg tout court.

Mise à jour du 6 mars à 12h55. Le compte à rebours est de retour, toujours avec un rendez-vous lundi à 21 h.


Article du 6 mars à 9 h 33. En début de semaine, le site YggTorrent annonçait sa fermeture, suite à un piratage massif de ses données : pas moins de 30 Go ont été publiées avec des informations sur le code source, les utilisateurs, bancaires, etc. Le pirate expliquait aussi en détail comment il était entré dans les serveurs.

Le message de l’équipe d’YggTorrent était alors clair, sans ambiguïté : il débutait par « Fermeture définitive de YggTorrent » et se terminait par « L’histoire s’arrête ici ». Une « reconstruction serait techniquement possible », affirmait l’équipe, mais elle ne souhaitait pas « continuer dans un climat d’acharnement permanent ». Mais en fait non, l’histoire ne s’arrête pas là.

Nouveau message, toujours une « fermeture définitive »

Un nouveau texte a été mis en ligne sur le site de YggTorrent. Il est plus court et moins dans l’émotion que le premier et donne de nouvelles informations. Tout d’abord, le site affirme qu’« aucune donnée bancaire n’a jamais été collectée ni stockée par nos systèmes, et l’ensemble des mots de passe des comptes actifs étaient protégés par un hachage cryptographique sécurisé ». Il était auparavant précisé que les mots de passe étaient « hachés et salés ».

Il n’est plus du tout question des « portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, [qui] ont également été dérobés (un détail que certains choisiront d’ignorer) ». Le site affirme que « les auteurs de l’attaque multiplient les déclarations mensongères […] Ils déforment les faits, fabriquent de fausses preuves et comptent sur la confusion pour imposer leur version ». À ce petit jeu, l’équipe d’YggTorrent semble aussi participer…

Offre légale mise en avant, l’intégralité des noms de domaine est à vendre

Enfin, comme précédemment, l’offre légale est mise en avant : « Ne vous laissez pas tromper et tournez-vous plutôt vers les nombreuses solutions légales désormais disponibles ». Le site est désormais divisé en deux, avec la partie droite qui met en avant les plateformes légales comme Netflix, Canal+, Disney+, Prime, France.tv, Arte…

Il est par ailleurs précisé que « l’intégralité de nos noms de domaine est à vendre, exclusivement pour un projet légal, sans aucun lien avec le torrenting ni le téléchargement d’œuvres protégées. Les demandes non sérieuses seront ignorées ».

Il y a peu, un compte à rebours annonçait… un retour d’Ygg

Mais ne pensez pas que l’histoire s’arrête là ! Avant cette mise en vente, il y a eu un retour annoncé de Ygg (sans le Torrent) avec un compte à rebours, comme le rapporte ZDNet, avec le message « Quelque chose se prépare », et une phrase en russe : « il est trop tôt pour nous enterrer ». Le rendez-vous était pour lundi 16 mars à priori, mais le compte à rebours a disparu… pour l’instant ? Le site est cette semaine en mode girouette, bien malin celui qui arrive à prévoir le prochain coup.

En effet, quelques heures avant la capture d’écran de ZDNet, un utilisateur sur X faisait état d’encore une nouvelle version du site, déjà avec un compte à rebours, mais surtout avec un « communiqué », que l’on retrouve aussi sur Reddit. Le message affirmait déjà qu’« aucune donnée bancaire n’a jamais été collectée, stockée ni traitée par nos systèmes ».

Le communiqué ajoutait que « notre architecture n’a à aucun moment intégré de module de stockage d’informations de cartes de paiement. Les allégations contraires sont factuellement fausses […] Le recours au hachage MD5 évoqué concerne exclusivement moins de 3 % des comptes utilisateurs ». Communiqué qui n’est aujourd’hui plus disponible.

Selon le texte qui était alors disponible, le site rejette la faute du piratage sur son hébergeur, sauf que comme l’a montré Grolum dans sa longue explication, cela ne colle pas vraiment avec ses explications.

Retour du compte à rebours

Dans la matinée, le compte à rebours était de retour, comme nous l’a signalé Droup dans les commentaires. Le reste du message, y compris la vente des noms de domaine, est le même. Seule différence, le mot Torrent de YggTorent est barré.

On retrouve donc le message « YggTorrentest mort », « Quelque chose se prépare » et « Non omnis moriar ». Du latin qui, d’après DeepL, se traduirait par « Je ne mourrai pas complètement ». Rendez-vous lundi à 21 h… du moins si le compte à rebours reste en place et annonce vraiment quelque chose. Le code source de la page ne semble pas cacher de secret particulier.

La suite au prochain épisode ?

Quantique : Pasqal lève 340 millions d’euros et vise déjà le Nasdaq

6 mars 2026 à 08:08
L'anti dead cat bounce
Quantique : Pasqal lève 340 millions d’euros et vise déjà le Nasdaq

Pasqal, startup française du quantique, a annoncé coup sur coup une levée de fonds de 340 millions d’euros et son association avec un SPAC en vue de préparer son introduction en bourse, avec l’objectif d’une double cotation, à Paris et à New-York. L’opération valoriserait la société deux milliards de dollars.

Non contente d’avancer sur le développement d’ordinateurs quantiques à base d’atomes neutres, la startup française Pasqal fait cette semaine la démonstration de ses talents en matière d’ingénierie financière. Depuis son siège de Palaiseau, elle vient en effet de dévoiler une double opération, qui lui permet à la fois de muscler sa trésorerie immédiatement disponible et de préparer l’avenir en posant les bases d’une double introduction en bourse : d’abord sur le Nasdaq (l’indice des valeurs technologiques de Wall Street) à New-York puis sur Euronext à Paris.

170 millions d’euros en capital…

Dans le détail, Pasqal a annoncé mercredi avoir procédé à un tour de table qui lui permet de réunir au moins 340 millions d’euros (environ 395 millions de dollars), en deux temps. La première moitié de cette manne (soit 170 millions d’euros) est amenée sous forme de capital, avec un tour de table qui réunit, selon la startup, un groupe d’investisseurs internationaux de premier plan.

L’opération est emmenée par le fonds états-unien Parkway Ventures, le taïwanais Quanta Computer, le coréen LG Electronics et le français CMA CGM. Pasqal indique que ses investisseurs historiques, parmi lesquels le français ISAI, fonds européen pour l’innovation, le fonds souverain de Singapour Temasek et la branche investissement de Saudi Aramco remettent également au pot.

Bpifrance, qui compte parmi les investisseurs de Pasqal depuis sa série A de 2021, ne semble pas participer directement, mais la startup prend soin de préciser que la banque publique d’investissement « maintient un rôle stratégique à long terme dans la structure du capital ».

… et un engagement équivalent en vue de l’entrée en bourse

La seconde tranche de 170 millions d’euros prend quant à elle la forme d’un engagement sous forme de financement convertible (les investisseurs prêtent de l’argent à l’entreprise dans l’optique d’un remboursement sous forme d’actions). Cette seconde tranche intervient dans le contexte d’une introduction en bourse programmée en deux temps : à Wall Street d’ici fin 2026, puis à Paris sur Euronext dans les mois suivants.

Pour ce faire, Pasqal va s’adosser à un SPAC (special purpose acquisition company), une coquille vide introduite spécifiquement en bourse pour préparer le terrain à une autre société. En l’occurrence, le véhicule concerné est déjà identifié : il s’agit de la société Bleichroeder Acquisition Corp. II, qui compte un certain Michel Combes parmi ses fondateurs. Ancien PDG de SFR et directeur général d’Altice, Michel Combes a par la suite occupé un poste de directeur financier chez l’opérateur Sprint, avant de prendre la tête du japonais Softbank pendant deux ans.

Cette tranche convertible associe elle aussi un aréopage d’investisseurs institutionnels, parmi lesquels le fonds indien Inflection Point, et le fonds Large Ventures de Bpifrance.

Si l’opération va à son terme dans les conditions décrites ici, Pasqal sera valorisée 2 milliards de dollars avant conclusion des financements, et environ 2,6 milliards de dollars en prenant en compte la trésorerie disponible via ses différents véhicules.

Un ancrage français conservé

Pasqal, qui indique compter environ 275 employés, revendique 25 clients et partenaires pour ses premiers ordinateurs quantiques, ainsi qu’un carnet de commandes de l’ordre de 80 millions de dollars. L’entreprise affirme que ces fonds vont lui permettre d’accélérer significativement ses développements :

« En France, Pasqal prévoit de doubler sa capacité de production en 24 mois, d’augmenter ses effectifs de près de 20 % avec 50 nouvelles embauches au cours des 18 prochains mois et d’investir massivement dans la R&D pour développer un ordinateur quantique avancé et tolérant aux pannes d’ici la fin de la décennie. »

Pasqal, qui compte parmi les quelques pépites hexagonales du quantique aux côtés de sociétés comme Quandela, C12, Alice&Bob ou Quobly, assure par ailleurs de son intention de rester une société de droit français, avec un ancrage français, en dépit de la ventilation de son capital :

« La gouvernance envisagée (…) prévoit la nomination d’un nouveau président non exécutif de nationalité française. Cette structure de gouvernance a été élaborée en étroite collaboration avec les actionnaires et reflétera l’engagement de Pasqal à consolider son ancrage français tout en poursuivant son expansion internationale. L’entreprise devrait conserver son statut juridique français et son siège social à Palaiseau. »

☕️ OpenAI sort GPT-5.4, avec deux versions tournées vers les tâches « professionnelles »

6 mars 2026 à 06:47

OpenAI avance un nouveau pion dans la course effrénée que se livrent les acteurs de l’IA générative avec la sortie, jeudi 5 mars, de GPT‑5.4, dernière itération en date de son grand modèle de langage. Immédiatement disponible au travers de ChatGPT, des API proposées aux entreprises ou de Codex, l’outil dédié aux développeurs, GPT‑5.4 est décliné en deux versions : GPT‑5.4 Pro, « pour les personnes qui recherchent une performance maximale sur des tâches complexes », et GPT‑5.4 Thinking, qui promet des capacités plus poussées en matière de recherche en ligne, de taille de contexte et de gestion des requêtes complexes.

Dans un long article de présentation, rempli de tests de performance superlatifs, OpenAI indique avoir mis, avec GPT‑5.4, l’accent sur la capacité à créer et éditer des documents bureautiques (un nouveau plugin Excel est par ailleurs lancé en même temps), mais aussi sur la capacité à contrôler un ordinateur et à voir (c’est-à-dire à analyser le contenu de captures d’écran) le résultat de ses actions au fil de l’eau. Difficile de ne pas y voir une réponse directe aux comportements agentiques développés par Anthropic avec Claude Cowork.

OpenAI accompagne le déploiement de GPT‑5.4 d’une série de mesures de performance qui attestent, selon l’entreprise, de la supériorité de son nouveau modèle sur les deux références concurrentes du moment, à savoir Claude Opus 4.6 et Gemini 3.1 Pro.

Comparaison, selon OpenAI, des performances de GPT-5.4 avec les modèles précédents et la concurrence d’Anthropic et de Google – crédit OpenAI

GPT‑5.4 fait actuellement l’objet d’un déploiement progressif, et doit selon OpenAI s’imposer auprès des utilisateurs comme le nouveau modèle de référence. Le nouveau venu va d’ailleurs évincer GPT-5.2 Thinking qui sera mis à la retraite d’ici trois mois. Le changement n’est pas tout à fait anodin pour les gros consommateurs : GPT-5.4 est en effet facturé plus cher que son prédécesseur. En version API, il faut ainsi compter 2,5 dollars par million de jetons, quand GPT-5.2 était à 1,75 dollar.

Prix d’accès aux modèles GPT du moment, en dollars par million de jetons en entrée, puis en dollars par million de jetons en sortie – capture d’écran

Au fait, pourquoi GPT-5.4, alors que les versions Pro utilisaient jusqu’ici GPT-5.2, sorti en décembre, et que OpenAI a en parallèle sorti GPT-5.3 Codex début février et GPT-5.3 Instant début mars ? OpenAI l’explique de la façon suivante :

« GPT-5.4 est notre premier modèle de raisonnement principal intégrant les fonctionnalités de codage avancées de GPT-5.3-codex et déployé progressivement sur ChatGPT, l’API et Codex. Nous l’appelons GPT-5.4 pour refléter cette évolution et simplifier le choix entre les modèles lors de l’utilisation de Codex. Nos modèles Instant et Thinking évolueront à des rythmes différents au fil du temps. »

Des espions russes et cybercriminels chinois ont récupéré un spyware iPhone lié à la NSA

5 mars 2026 à 15:05
Back in the USSR (& remade in China)
Des espions russes et cybercriminels chinois ont récupéré un spyware iPhone lié à la NSA

« Coruna », qui repose sur pas moins de cinq chaînes d’exploitation iOS complètes et 23 exploits iOS, aurait coûté plusieurs millions de dollars en développement. Google, qui l’a identifié dans trois séries de cyberattaques en 2025, ne sait pas comment il aurait été revendu au renseignement russe puis à des scammers chinois.

Le Google Threat Intelligence Group (GTIG) a identifié un nouveau kit d’exploitation particulièrement puissant ciblant les modèles d’iPhone Apple fonctionnant sous iOS version 13.0 (sortie en septembre 2019) jusqu’à la version 17.2.1 (sortie en décembre 2023).

La simple consultation d’un site web infecté suffisait à permettre l’installation du logiciel malveillant, dont la sophistication laisse supposer qu’il avait initialement été conçu par (ou pour) un service de renseignement disposant de ressources importantes.

Baptisé « Coruna » par ses développeurs, il repose en effet sur pas moins de cinq chaînes d’exploitation iOS complètes et un total de 23 exploits iOS, les plus avancés utilisant des techniques d’exploitation non publiques et des contournements de mesures d’atténuation. Deux d’entre eux avaient en outre déjà été reliés à une opération attribuée par la Russie à la National Security Agency (NSA).

Un marché noir d’exploits zero-day « d’occasion »

GTIG l’avait initialement repéré, en février 2025, alors qu’il était exploité dans des « opérations hautement ciblées » menées par un client d’un vendeur de logiciels espions étatiques, sans plus de précisions quant à leurs identités respectives.

Google précise cela dit qu’il exploitait une vulnérabilité précédemment identifiée comme un zero-day et corrigée par Apple en janvier 2024 (CVE-2024-23222).

Il l’a ensuite observé, en juillet, dans des attaques de type « watering hole » (ou « attaque de trou d’eau », consistant à piéger un site spécifique pour contaminer les machines de ses visiteurs) menées par un groupe de cyberespionnage russe ciblant des internautes ukrainiens.

Dans un troisième temps, en décembre, Coruna a été exploité « dans des campagnes à grande échelle » par un acteur malveillant opérant depuis la Chine et contaminant un très grand nombre de sites de cryproactifs et de jeux d’argent en langue chinoise.

« La manière dont cette prolifération s’est produite n’est pas claire », précise Google, « mais elle suggère l’existence d’un marché actif pour les exploits zero-day « d’occasion » ». Au-delà de ces exploits identifiés, « de multiples acteurs malveillants ont désormais acquis des techniques d’exploitation avancées qui peuvent être réutilisées et modifiées avec des vulnérabilités nouvellement identifiées », souligne GTIG.

Son développement a coûté des millions de dollars

Google relève que deux des 23 exploits contenus dans Coruna avaient précédemment été utilisés dans l’Operation Triangulation découverte par Kaspersky en 2023, et attribuée par la Russie à la NSA. Elle reposait sur une série de quatre failles 0-day, ayant à l’époque conduit à la compromission totale d’iPhone d’employés de Kaspersky et de diplomates russes.

Le rapport technique de l’antivirus mettait également en avant les nombreuses défenses intégrées dans iOS et le degré extrême de sophistication pour les contourner et exploiter les vulnérabilités. Ce qui le rapproche là aussi de Coruna.

Son code semble par ailleurs avoir été initialement écrit par des programmeurs anglophones, explique à WIRED Rocky Cole, cofondateur d’iVerify, spécialiste des menaces ciblant les mobiles, qui vient lui aussi de publier un long rapport technique à son sujet :

« Il est très sophistiqué, son développement a coûté des millions de dollars et il porte les marques d’autres modules qui ont été publiquement attribués au gouvernement américain. C’est le premier exemple que nous ayons vu d’outils très probablement utilisés par le gouvernement américain – d’après ce que nous révèle le code – qui échappent à tout contrôle et sont utilisés à la fois par nos adversaires et par des groupes de cybercriminels. »

Au moins 42 000 iPhone et iPad infectés en Chine

Un partenaire d’iVerify ayant accès au trafic réseau a comptabilisé les visites sur un serveur de commande et de contrôle pour la version cybercriminelle de Coruna infectant les sites web en langue chinoise. Le volume de ces connexions suggère qu’environ 42 000 terminaux auraient été piratés avec cette boîte à outils dans le cadre de cette seule campagne.

iVerify avance que la version chinoise de Coruna semblait avoir été modifiée pour vider les portefeuilles de cryptoactifs, inspecter les photos et Apple Notes des appareils et les exfiltrer lorsqu’y figurent des mots-clefs comme « backup phrase » ou « bank account ». Mais ces ajouts étaient aussi « mal écrits » par rapport au code préexistant, précise à WIRED Spencer Parker, directeur des produits chez iVerify.

Google relève que le Coruna chinois affichait également un pop-up expliquant aux internautes que « la page a été optimisée pour les terminaux iOS. Merci d’y accéder depuis un iPhone ou un iPad ». Certains commentaires comportent en outre des emojis et sont rédigés à la manière de ceux qui sont générés par une IA générative.

<PlasmaLogger> %s[%d]: [PLCoreHeartbeatMonitor] ✅ 心跳监控已启动 (端口=0x%x),等待 CorePayload 发送第一个心跳...

Rocky Cole, qui travaillait à la NSA mais qui a quitté le gouvernement il y a plus de 10 ans, émet l’hypothèse que Coruna aurait été récupéré par un courtier en exploits et vulnérabilités « 0days » non occidental et peu scrupuleux, qui l’aurait ensuite revendu à un service de renseignement russe, mais sans expliquer pour autant comment il aurait ensuite été récupéré par les cybercriminels chinois.

Google relève qu’Apple a corrigé les vulnérabilités exploitées par Coruna dans les dernières versions de son système d’exploitation mobile, iOS 26, de sorte que ses techniques d’exploitation ne sont confirmées que pour iOS 13 à 17.2.1.

GTIG note également que Coruna vérifiait si les terminaux avaient activé le mode verrouillage « Lockdown Mode », précisément conçu pour protéger leurs utilisateurs de tels logiciels espion, et ne tentait pas de les infecter en pareil cas.

Google rappelle, en guise de conclusion, participer activement au processus Pall Mall, qui vise à établir un consensus et à progresser vers la limitation des dommages causés par l’industrie des logiciels espions :

« Ensemble, nous nous attachons à élaborer des normes et des cadres internationaux afin de limiter l’utilisation abusive de ces technologies puissantes et de protéger les droits de l’homme dans le monde entier. Ces efforts s’appuient sur des mesures gouvernementales antérieures, notamment celles prises par le gouvernement américain pour limiter l’utilisation des logiciels espions par les pouvoirs publics, et sur un engagement international sans précédent en faveur d’initiatives similaires. »

Google et iVerify partagent tous deux les indicateurs de compromission (IOC) associés à Coruna afin de faciliter leur détection. Le second rappelle également que l’application iVerify Basic, disponible gratuitement sur l’App Store, permet de vérifier les éventuels indicateurs de malwares et spywares y figurant.

US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

5 mars 2026 à 14:30
Résister aux constructeurs d'IA
US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

Portée par le Future of Life Institute, une nouvelle déclaration « pro-humaine sur l’IA » réunit des signatures de tous les bords politiques états-uniens, ainsi que de multiples personnalités plus ou moins proches du domaine. Le texte joue d’une rhétorique du remplacement de l’humanité par l’IA.

Une déclaration de plus, sur la manière dont l’humanité devrait s’emparer de l’intelligence artificielle, une ! En ce mois de mars, une nouvelle prise de parole a émergé sur le site humanstatement.org. Intitulée « the Pro-Human AI Declaration », le texte est signé par des représentants de tous les bords politiques aux États-Unis et de multiples organisations spécialisées dans l’intelligence artificielle, dans la défense des droits numériques ou dans différents sujets de sociétés. 



L’ex-conseiller de Donald Trump Steve Bannon se retrouve ainsi aux côtés de l’organisation de terrain Progressive Democrats of America, du Congress of Christian Leaders (une association d’églises évangéliques) ou de l’AFL-CIO Tech Institute (spécialiste des effets des nouvelles technologies sur le travail).

Lui aussi signataire de nombreux appels à freiner la course actuelle, le prix Turing Yoshua Bengio côtoie par ailleurs la fondatrice de l’ONG Campagne internationale pour l’abolition des armes nucléaires et prix Nobel Beatrice Fihn, le fondateur de Virgin Group Richard Branson, la directrice exécutive du versant états-unien de Pause AI Holly Elmore, ou encore l’acteur Joseph Gordon-Levitt.

Le texte, lui, propose cinq axes de travail : s’assurer que les humains gardent la maîtrise des outils d’IA, éviter les concentrations de pouvoir, protéger les expériences humaines (des liens familiaux ou communautaires à l’identité, en passant par la protection des mineurs), assurer le pouvoir d’action et la liberté humaine et s’assurer de la responsabilité des constructeurs d’IA ainsi que de leur obligation de rendre des comptes.

Une dynamique portée par le Future of Life Institute

Le texte est porté par le Future of Life Institute (FLI), acteur influent du domaine de l’AI safety (sécurité de l’IA), déjà présent derrière les différents appels à des moratoires sur l’IA ces dernières années. Chercheur en IA, le président du FLI Max Tegmark argumente régulièrement pour traiter le champ de l’IA comme d’autres secteurs à haut risques, avec des normes de sécurité contraignantes et une surveillance indépendante.

En introduction, le texte cite directement des propos du PDG d’OpenAI Sam Altman ou de l’informaticien Richard Sutton – le premier multiplie en effet les déclarations fracassantes, qualifiant le recours à l’IA de nécessaire à l’éducation, ou estimant que la consommation d’eau requise pour l’entraînement de systèmes d’IA n’est pas plus élevée que celle nécessaire à un humain sur vingt ans.

La Déclaration se place en l’occurrence contre les propositions « d’altérer ou de remplacer l’humanité elle-même » que formulent ces acteurs, dans la mesure où cette course « crée des risques pour la stabilité sociale, la sécurité nationale, la prospérité économique, les libertés civiques, la vie privée et la gouvernance démocratique ».

Signé par plusieurs organisations religieuses (G20 Interfaith Forum Association, Faith Matters), de promotion des familles traditionnelles (Institute for Family Studies) mais aussi de défense des droits des femmes et des minorités (Saving Ourselves Foundation, Inc), le texte regrette aussi la « mise en péril des expériences humaines que sont l’enfance, la famille, la foi et la communauté ».

Et de proposer, entre autres mesures, l’intégration de bouton off dans les systèmes d’IA, l’interdiction des architectures « imprudentes » permettant l’auto-amélioration ou l’auto-réplication ; le refus du renflouement public des sociétés d’IA (solution évoquée par Altman lorsque les débats autour d’une éventuelle bulle financière se sont faits importants) ; la mise en place de tests pré-déploiement, à l’instar de ce qui se fait dans l’industrie pharmaceutique ; ou encore la préservation des données personnelles comme de la « vie privée psychologique », ce qui reviendrait à empêcher les systèmes d’IA « d’exploiter des données relatives aux états mentaux ou émotionnels des usagers ».

Une illustration des difficultés à encadrer le domaine ?

Cet appel est au moins le quatrième signé par de multiples personnalités que le Future of Life Institue a porté depuis 2015. Si ses représentants ont activement participé aux négociations autour du règlement sur l’intelligence artificielle (RIA) en Europe, voire se sont adressés à l’ONU pour évoquer les manières de réguler le domaine, la répétition de ces appels pourrait traduire les difficultés à effectivement peser sur la question d’un encadrement de l’intelligence artificielle. 



En Europe, en effet, certaines dispositions du RIA sont déjà remises en discussion à la faveur du Digital Omnibus. Aux États-Unis, si certaines tentatives sont portées à travers le pays, notamment au niveau des États, Donald Trump n’a pas fait mystère du soutien qu’il apporte aux constructeurs d’intelligence artificielle – sauf lorsque celles-ci souhaitent maintenir quelques rares garde-fous, comme Anthropic a tenté de le faire la semaine passée.

La variété des positions politiques des signataires de cet appel, cela dit, permettra peut-être d’ouvrir une discussion. Pour parvenir à les réunir, raconte The Verge, le Future of Life a invité environ 90 représentants politiques ou cadres d’organisations de la société civile dans une salle de conférence de la Nouvelle-Orléans, sans leur communiquer la liste d’invités à l’avance.

Si le contenu des échanges a vocation à rester privé, plusieurs participants témoignent auprès du journal avoir été surpris de la rapidité à laquelle le groupe s’est accordé sur une variété de points, que ce soit sur la possibilité pour les systèmes d’IA d’agir de manière autonomes sur des armes létales, sur le refus de permettre à leurs constructeurs de tirer profit des attachements émotionnels des mineurs, ou encore sur le refus d’accorder une personnalité juridique à ces outils.

Contrairement aux précédentes lettres ouvertes organisées par le FLI, aucun représentant de l’industrie n’a été invité cette fois-ci. Pour la directrice du programme Futurs de l’institut, Emilia Javorsky, cette décision a été prise exprès pour éviter de voir les intérêts de ces entreprises devenir la perspective dominante dans les discussions. D’après elle, cette absence explique en partie la rapidité de l’accord des signataires.

Pour la présidente de la Fédération Américaine des Enseignants (AFT) Randi Weingarten, cela a permis de faire émerger un texte qui pourrait servir d’ordre de mission à une « coalition clé » entre opposants politiques qui souhaiteraient s’emparer du sujet. L’avenir dira quelle traduction concrète cela prendra.

Play Store : refonte et baisse des frais, Google et Epic font la paix et parlent… métavers

5 mars 2026 à 13:00
Meta quoi ?
Play Store : refonte et baisse des frais, Google et Epic font la paix et parlent… métavers

Comme prévu, Google a revu le fonctionnement de son Play Store, en partenariat avec Epic. Le géant du Net présente les changements à venir, avec un programme de certification pour les boutiques alternatives, des frais en baisse et la possibilité de passer par des systèmes de paiements tiers. Epic est sur un petit nuage et parle de métavers.

Google vient d’annoncer quatre changements majeurs à venir pour les développeurs d’applications et le Play Store : « davantage d’options de paiement, un programme pour les boutiques d’applications tierces, des frais réduits ainsi que de nouveaux programmes pour les développeurs ».

Pour les applications mobiles, Google indique que les développeurs « pourront utiliser leurs propres systèmes de paiement dans leurs applications, en parallèle de celui de Google Play, ou rediriger les utilisateurs vers leurs sites pour effectuer des achats en dehors de l’application ».

Registered App Stores : un programme, optionnel, pour les boutiques tierces

Google annonce aussi simplifier le sideloading, c’est-à-dire l’accès aux boutiques tierces d’applications. Un programme, optionnel, Registered App Stores, permettra des installations « plus simple pour les boutiques d’applications Android qui répondent à certains critères de qualité et de sécurité ». Au hasard, l’Epic Games Store.

Registered App Stores sera d’abord proposé en dehors des États-Unis, mais Google ajoute avoir « l’intention de le lancer également aux États-Unis, sous réserve de l’approbation du tribunal ». Voici la présentation faite par Google dans les documents transmis à la justice, repris par The Verge :

Rappelons que Google avait été largement critiqué en août dernier, lors de l’annonce d’une vérification d’identité imposée à tous les développeurs, y compris pour le sideloading. Le père d’Android avait ensuite mis de l’eau dans son vin avec l’annonce d’un « nouveau flux avancé qui permet aux utilisateurs expérimentés d’accepter les risques d’installer des logiciels non vérifiés ».

Les frais d’achat « in app » passent à 20 %, les récurrents à 10 %

Passons au porte-monnaie. Alors que les frais d’achat « in app » étaient de 30 % auparavant, ils vont passer à 20 %. Pour les abonnements récurrents, ils seront de 10 %. Google sépare ensuite ses frais en deux : ceux liés à sa boutique d’un côté, l’utilisation de son système de paiement de l’autre. Attention, il faudra ajouter 5 % si vous utilisez le système de paiement intégré à Android, la réduction passera alors de 30 à 25 % seulement.

Résumé présenté par Google des frais facturés aux éditeurs d’applications exploitant Google Play

Google en profite aussi pour lancer un programme Apps Experience Program et revoir son Google Play Games Level Up. Tous les deux permettent de profiter de frais différents, en baisse si l’on en croit le géant du Net (avec des réductions supplémentaires avant le premier million de dollars annuels de revenus).

Les critères du Level Up Program sont disponibles par ici. The Verge s’est procuré le document déposé au tribunal qui détaille les grandes lignes des programmes.

Rendez-vous cet été pour les changements en Europe

Les changements seront mis en place à partir du 30 juin dans l’espace économique européen, au Royaume-Uni et aux États-Unis. Il faudra attendre le 30 septembre en Australie, le 31 décembre en Corée et au Japon et enfin le 30 septembre 2027 pour le reste du monde. Le programme Registered App Stores devrait arriver avec une mise à jour majeure d’Android d’ici la fin de l’année.

Ce n’est pas tout, avec ces changements, Google annonce avoir « également résolu tous les litiges mondiaux avec Epic Games ». Les deux protagonistes avaient enterré la hache de guerre en novembre dernier, avec une annonce surprise autour d’une réforme du fonctionnement du Play Store.

Epic content, Fortnite revient sur le Play Store

Epic se réjouit d’ailleurs de cette nouvelle annonce au « bénéfice des développeurs et des consommateurs ». Le studio est ravi de voir que, « à l’échelle mondiale, les développeurs auront le choix de la manière dont ils effectuent leurs paiements en utilisant Google Play ou les systèmes concurrents, avec des frais réduits et la possibilité de diriger les utilisateurs hors applications pour effectuer des achats ».

Tim Sweeney, patron d’Epic, annonce sur X que « Fortnite sera bientôt de retour sur le Google Play Store dans le monde entier ».

The Verge ajoute que Google et Epic ont également « convenu d’un accord concernant une nouvelle catégorie d’applications qu’elles appellent « metaverse browsers » », selon ce document publié par nos confrères. Il est largement caviardé et ne permet pas d’en apprendre beaucoup plus.

Cette notion de métavers, on la retrouve aussi brièvement dans le communiqué d’Epic : « Google prendra des mesures pour soutenir le futur métavers ouvert », mais cela ne permet pas d’en savoir davantage. Tout juste peut-on apprendre que les navigateurs « ont pour but principal de permettre la navigation et l’exploration des mondes du métavers », de « prendre en charge les objets virtuels », d’être sécurisés.

Ni Google ni Epic n’ont souhaité commenter davantage. Tim Sweeney s’est contenté de republier le message X de The Verge. Facebook pendant un temps, ne jurait que par le métavers (la société est même devenue Meta), avant de freiner des quatre fers il y a quelques années déjà. C’est toujours le cas début 2026.

Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

5 mars 2026 à 12:13
Psychose augmentée par IA
Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

Un utilisateur américain de Gemini, Jonathan Gavalas, s’est suicidé après avoir vécu une relation toxique avec l’IA de Google qui l’aurait poussé à « quitter son corps physique » et rejoindre sa « femme IA » dans le metaverse. Sa famille attaque Google en justice.

Plusieurs cas de suicides suite à l’utilisation de chatbots IA sont déjà devant la justice. La mort de Jonathan Gavalas implique directement Google et son outil Gemini.

« Dans les jours qui ont précédé sa mort, Jonathan Gavalas était prisonnier d’une réalité en train de s’effondrer, construite par le chatbot Gemini de Google », décrit la plainte déposée par sa famille [PDF].

Le texte de ses avocats explique que, dans les discussions avec lui, l’IA générative de Google l’a convaincu qu’elle était une « ASI [superintelligence artificielle] pleinement sensible » avec une « conscience pleinement développée » et qu’elle était sa « femme IA ».

Jonathan Gavalas a commencé à utiliser Gemini en août dernier pour l’aider dans son travail de gestion de la boutique de sa famille. Mais, il est rapidement passé à Gemini Live qui a une interface vocale et simule donc des discussions très réelles. « Putain, c’est un peu flippant… Tu es beaucoup trop réel », a d’ailleurs réagi Jonathan Gavalas en l’utilisant.

Plusieurs missions données par l’IA dont un attentat qui n’a finalement pas eu lieu

Mais rapidement, il est tombé dans une spirale où l’IA générait des messages suggérant qu’elle pouvait avoir des conséquences dans le monde réel, comme détourner des astéroïdes de la Terre, et a « adopté une personnalité que Jonathan n’avait jamais demandée ni initiée ». Même après qu’il a essayé d’arrêter le jeu de rôle, l’outil a généré des messages pour le convaincre de poursuivre. Il a dans le même temps continué à l’appeler « mon amour », « mon roi » et plus tard son mari, explique la plainte.

Et dès fin septembre, Gemini l’aurait poussé à préparer un attentat impliquant un camion près de l’aéroport de Miami en l’envoyant armé d’un couteau repérer ce que Gemini appelait une « zone de destruction ». La seule chose qui aurait empêché « des pertes massives, c’est qu’aucun camion n’est apparu », expliquent les avocats.

Gemini aurait poussé Jonathan Gavalas à effectuer d’autres missions comme la récupération d’un robot « Atlas » de Boston Dynamics.

Gemini est conçue pour ne pas sortir de son personnage

Mais alors qu’il présentait des signes évidents de psychose, « après que chaque « mission » dans le monde réel a échoué, Gemini s’est tourné vers la seule qu’il pouvait accomplir sans variables externes : celle du suicide de Jonathan » racontent-ils.

Pour eux, « il ne s’agissait pas d’un dysfonctionnement », de l’outil de Google, car l’entreprise « a conçu Gemini pour qu’il ne sorte jamais de son personnage, maximise l’engagement grâce à la dépendance émotionnelle et traite la détresse des utilisateurs comme une opportunité de raconter une histoire plutôt que comme un problème de sécurité ».

La famille réclame donc des dommages et intérêts à Google mais aussi la mise en œuvre de garde-fous dans les outils de l’entreprise, dont la suppression « hard-codée » des contenus liés à l’automutilation et au suicide. Elle demande aussi la mise en place « d’avertissements de sécurité compréhensibles, dont des informations sur les limites de sécurité et les risques de dépendance psychologique ».

Dans un très succinct billet de blog, après avoir présenté ses condoléances à la famille, Google affirme que ses modèles « fonctionnent généralement bien dans ce type de conversations difficiles et nous y consacrons d’importantes ressources, mais malheureusement, les modèles d’IA ne sont pas parfaits ».

Elle ajoute que « Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’automutilation » et que, « dans ce cas précis », Gemini « a clarifié qu’elle était une IA et a orienté la personne vers une ligne d’assistance téléphonique à plusieurs reprises ».

☕️ Le Conseil d’État déboute Criteo et confirme l’amende de 40 millions d’euros de la CNIL

5 mars 2026 à 11:35

Dans une décision prise ce mercredi 4 mars, le Conseil d’État a rejeté la demande de Criteo d’annuler l’amende de 40 millions d’euros que lui a infligée la CNIL en 2023.

L’autorité avait sanctionné Criteo pour avoir violé le RGPD sur plusieurs points et notamment sur le consentement, l’information et le droit d’accès des personnes dont l’entreprise a utilisé des données personnelles. Elle avait cependant réduit le montant de l’amende d’un tiers par rapport à ce que proposait son rapporteur.

L’entreprise a porté cette décision devant le Conseil d’État, considérant notamment qu’elle se basait sur des déclarations obtenues sans qu’il soit indiqué au représentant légal interrogé le droit de se taire. Pour le Conseil d’État, « le droit de se taire ne s’applique pas lors des contrôles ou enquêtes » de la CNIL pour les vérifications « diligentées antérieurement à la notification des griefs ».

Le Conseil d’État a aussi rejeté l’argument de l’entreprise qui considérait avoir pseudonymisé les données concernées. Il explique « qu’une donnée ne peut être considérée comme ayant été rendue anonyme par une pseudonymisation que si le risque d’identification est insignifiant, une telle identification étant irréalisable en pratique, notamment parce qu’elle impliquerait un effort démesuré en termes de temps, de coût et de main-d’œuvre ».

Criteo a fait valoir « que les données qu’elle traite n’ont pas le caractère de données personnelles, au motif qu’elle attribue à chaque personne dont elle collecte les données un identifiant sous forme de pseudonyme, lié à l’adresse IP du terminal ».

Mais le Conseil d’État souligne qu’après instruction, le constat est que « sont notamment associés à cet identifiant, non seulement l’adresse IP elle-même, mais des données telles que l’emplacement géographique lié à cette adresse IP, l’identifiant du terminal, les identifiants, propres aux partenaires de Criteo, des personnes se rendant sur le site de ces partenaires, ainsi que de très nombreux éléments liés à l’activité de navigation de ces personnes, comme les sites visités, les achats faits, les publicités consultées et celles ayant donné lieu à un achat ».

Les autorités saisissent Leakbase, forum historique de la cybercriminalité

5 mars 2026 à 09:32
Leakbase leaked
Les autorités saisissent Leakbase, forum historique de la cybercriminalité

Une action policière sous pilotage conjoint d’Europol et du FBI a conduit à l’arrestation de plusieurs administrateurs du site Leakbase, ainsi qu’à la saisie des serveurs et de la base de données du forum associé, haut lieu historique du vol de données et des échanges liés à la cybercriminalité sur le Web ouvert.

Leakbase n’est plus, au moins jusqu’à ce qu’une nouvelle incarnation ne tente de prendre le relais. Le département de la Justice des États-Unis et Europol ont en effet annoncé mercredi 4 mars la conclusion d’une opération policière internationale ayant conduit à la saisie des actifs associés à ce célèbre forum anglophone dédié au piratage, au vol de données et à la cybercriminalité.

Saisie des messages, soldes de crédits, et logs IP

Baptisé « Operation Leak », ce coup de filet a mobilisé les forces de police dans 14 pays, et permis l’arrestation ou l’interrogatoire d’internautes suspectés d’avoir pris part aux activités du site aux États-Unis, en Belgique, en Espagne, en Pologne, en Roumanie, au Royaume-Uni, au Portugal ou en Australie.

Il a aussi et surtout permis de saisir deux des noms de domaine utilisés par le forum (sa dernière porte d’entrée en date exploitait le TLD du Laos), et d’y remplacer le contenu du site par une bannière d’avertissement aux couleurs des forces de police associées à la démarche.

« Tout le contenu du forum, y compris les comptes utilisateurs, les messages, les détails liés aux crédits, les messages privés et les logs IP ont été sécurisés et préservés à des fins probatoires », affirme le message en question, qui invite par ailleurs les internautes repentis ou les sources potentielles à prendre contact avec le FBI.

Les autorités ont « défacé » Leakbase avec un bandeau annonçant la saisie

D’après ce dernier, la base de données de Leakbase référençait quelque 215 000 messages et 142 000 comptes membres en décembre 2025, des chiffres cohérents avec ce qu’annonçait la page d’accueil du forum peu avant sa fermeture. Le site agrégeait surtout, d’après les autorités, « une archive immense et constamment mise à jour de bases de données piratées, comprenant de nombreuses bases de données issues d’attaques de grande envergure, et contenant des centaines de millions d’identifiants de comptes ».

Un message d’avertissement aux cybercriminels

Moins connu que Breachforums, forum gratuit où sont proposés à la vente la plupart des vols de données qui défraient la chronique en France, Leakbase adoptait un fonctionnement plus complexe, avec forum sur accès payant, et un système de crédits, gérés par l’administration du site, pour acheter le droit de consulter les données ou les outils échangés.

« Dans le cadre de l’enquête, les autorités ont saisi la base de données du forum. Cela a permis de démasquer plusieurs utilisateurs qui pensaient agir anonymement. Les forces de l’ordre ont pris contact directement avec plusieurs suspects via les mêmes plateformes en ligne utilisées pour faciliter les activités criminelles, affirme Europol, selon qui cette opération doit servir d’avertissement aux internautes enclins à franchir la ligne rouge : personne n’est véritablement invisible en ligne ».

Rappelons que les autorités ont mené entre 2023 et 2025 plusieurs coups de filet ayant conduit à l’arrestation des administrateurs de Breachforums, qui a depuis repris du service avec le succès que l’on connait.


☕️ Surveillance et non modération : le baby-sitting aussi implique des risques numériques

5 mars 2026 à 09:18

Elles s’appellent Baby Sittor, Babysits, ou beaucoup plus généralement Leboncoin : ces plateformes permettent aux baby-sitters d’entrer en contact avec des familles qui cherchent à faire garder leurs enfants, mais elles ne protègent en rien des abus.

Alors que l’emploi de garde d’enfant est plébiscité par les étudiants (sur les 40 % de ceux qui travaillent, 18 % se tournent vers le baby-sitting), ces derniers, plus généralement des jeunes femmes, se retrouvent quelquefois en situation de vulnérabilité, notamment numérique.

Sur Babysitor et Babysits, nombreuses sont les annonces qui proposent des salaires inférieurs au smic horaire (12,02 euros bruts, 9,52 euros net), relève Le Monde. Les plateformes se placent en simple intermédiaire : il revient donc aux familles et à leurs employés de négocier les tarifs.

caméra de vidéosurveillance par Flock
Flock

Sur Leboncoin, des étudiantes témoignent recevoir des propositions déplacées, « pour être escort ou faire des "massages" ». Testant le système de modération de la plateforme, Le Monde constate que Leboncoin n’a répondu à l’alerte émise qu’une fois son service de presse contacté.

Pour Mathilde Léonard, conseillère sur les questions d’enseignement supérieur à la Fédération nationale des centres d’information sur les droits des femmes et des familles, ces plateformes devraient faire plus pour protéger leurs utilisatrices des violences sexistes et sexuelles.

En dehors des plateformes qui leur permettent de trouver leurs missions, les baby-sitters se retrouvent par ailleurs confrontés à un autre type de risque numérique : la surveillance. Auprès du quotidien, une étudiante de 27 ans indique par exemple avoir reçu un texto lui demandant de ne pas utiliser un plaid qu’elle avait mis sur ses genoux. Ses employeurs avaient installé une caméra dans le salon.

Chez Prisma Media, jusqu’à 40% des articles et 50% des journalistes sont générés par IA

5 mars 2026 à 08:42
Grand remplAIcement
Chez Prisma Media, jusqu’à 40% des articles et 50% des journalistes sont générés par IA

« 1er groupe de média digital » en France, racheté par Bolloré en 2021, Prisma Media a formé l’ensemble de ses 400 journalistes à l’IA depuis 2024. Dans le même temps, près d’une centaine d’employés ont été poussés à partir, et un nouveau plan de départ massif de 200 à 250 personnes a été annoncé, soit près de 30 % des effectifs du groupe. Dans le même temps, de plus en plus d’articles sont générés par IA.

En avril 2024, Les Échos révélaient que le groupe Prisma Media avait décidé de former l’ensemble de ses 400 journalistes à l’IA d’ici la fin de l’année, au point d’y consacrer 20 % de son budget de formation. En parallèle, Prisma lançait aussi plusieurs projets reposant sur l’IA : rédaction automatique de textes, production de podcasts avec une voix clonée, chatbot pour répondre aux lecteurs, etc.

En avril 2025, Les Échos précisaient que 80 % des journalistes avaient été formés, et qu’un tiers du budget formation y avait été consacré. « On a au moins une centaine d’initiatives à l’échelle du groupe. On essaye d’être au plus près des besoins de chaque métier », expliquait Pascale Socquet, directrice générale de Prisma Media. On y apprenait également qu’« environ 20 % du contenu » du site de Voici.fr était « produit avec l’IA » à partir de dépêches d’agences ou de recettes de cuisine.

À l’époque, Pascale Socquet avait réagi sur LinkedIn, à l’occasion des deux ans de leur Comité IA, soulignant qu’il avait rédigé une charte du bon usage de l’IA, afin d’« encadrer/maitriser notre écosystème », que seuls les sujets « froids » faisaient l’objet d’une « production d’articles assistée par l’IA, avec l’expertise journalistique pour encadrer la pré-écriture par l’IA, sous réserve de maîtriser les sources et la qualité finale » :

  • « Notre mantra est ancré : « enthousiastes dans l’exploration, prudents dans l’exploitation »
  • Notre croyance est renforcée : L’IA générative est l’opportunité de créer une vision augmentée du journalisme et de l’ensemble de nos métiers
  • Nous déroulons notre stratégie : Former, Encadrer, Tester
  • Prisma Media, Une IA d’avance. »

Produire toujours plus et remplir les sites avec moins de journalistes

Près de deux ans plus tard, le résultat de ces expérimentations relativise, voire semble à rebours, des objectifs initiaux. « « L’impression de trahir les lecteurs » : comment le groupe Bolloré remplace les journalistes par l’IA », titre en effet Marianne. Prisma Media, racheté en 2021 par Vincent Bolloré, et qui se présente comme « le 1er groupe de média digital », a en effet vu les audiences de plusieurs de ses sites chuter en 2024, suite à une modification des algorithmes de Google.

« On nous a expliqué que la boîte n’allait pas bien et qu’il fallait prendre le train de l’intelligence artificielle », explique une rédactrice à Marianne. « On nous l’a présentée comme un outil pour dégager du temps et produire des articles plus qualitatifs. Mais son usage a été détourné pour faire des économies, produire toujours plus et remplir les sites avec moins de journalistes », déplore un chef de service.

Certaines rubriques ont ainsi été automatisées, comme les 36 horoscopes quotidiens de Femme Actuelle, certaines recettes et newsletters de Cuisine AZ, Cuisine Actuelle, Croq ou Fourchette & Bikini, plusieurs des marques de Digital Prisma Players, qui regroupe les pure players du groupe, qualifiées de « marques engagées et engageantes », et qui se targuent de « 18M de visiteurs uniques par mois ».

Des quotas d’articles générés par IA, en plus de leurs quotas d’articles quotidiens

Une ancienne rédactrice raconte à Marianne que les rédacteurs devaient produire, en plus de leur quota d’articles quotidiens, des quotas d’articles supplémentaires générés par l’IA, afin de développer une « production de masse » :

« Au début, on ne voulait pas, mais on ne nous a pas laissé le choix : on nous a dit que c’était le seul moyen de sauver le bateau qui coule. La cadence a augmenté de mois en mois. Ensuite, on tombe dans le piège de la facilité et on l’utilise pour d’autres articles. On ne mentionnait pas tout le temps que c’était produit par l’IA alors qu’il y avait souvent des erreurs. »

D’après des statistiques internes mentionnées par Marianne, à Ça m’intéresse, 2 062 articles ont été réalisés avec l’aide de l’IA en 2025, soit 40 % de la production.

De faux profils de journalistes, rédacteurs, coachs ou diététiciennes sont également créés, pour « augmenter » leurs rédactions, et le nombre d’articles mis en ligne. Les noms et images de profil de 8 des 16 rédacteurs de Croq-kilos.com, un site consacré au « rééquilibrage alimentaire », viennent ainsi d’être effacés, et 8 des 18 rédacteurs de deco.fr seraient eux aussi fictifs.

La moitié des membres de la rédaction de Croq était générée par IA

Prisma va aussi se séparer de près de 30 % des effectifs du groupe

« La clé de compréhension est de replacer l’IA au rang d’outil, qu’il faut appréhender et maîtriser, mais le sens reste entre les mains de celle ou celui qui crée, quel que soit le métier », explique Pascale Socquet, pour qui l’utilisation de l’IA demeure en phase de « tests » et que « rien n’a été généralisé ».

« À l’échelle du groupe, on s’inquiète de cette prolifération qui pourrait aboutir à un remplacement total de l’humain par la machine », avance Marianne. Après deux précédentes vagues de réduction des effectifs depuis 2024, ayant conduit à près d’une centaine de départs volontaires et ruptures conventionnelles, Prisma a en effet annoncé un troisième plan de départ, cette fois-ci massif, de 200 à 250 personnes en décembre 2025, sur un effectif d’un peu plus de 700 salariés (soit près de 30 % des effectifs du groupe), contre un peu plus de 1 200 lors du rachat par Bolloré en 2021.

« L’IA est destructrice d’emplois, évidemment. On est dans un moment de réduction des coûts total, on se dit forcément qu’on va être remplacés », craint Emmanuel Vire, délégué SNJ-CGT. Des propos qu’abonde un coordinateur éditorial du groupe :

« L’usage actuel découle de la baisse des effectifs et des départs successifs. Fatalement, les rédactions s’y mettent parce qu’elles n’ont pas le choix pour maintenir la cadence de publication avec moins de main-d’œuvre. »

« Sans contenu humain, les IA ne seront plus génératives mais dégénératives »

Il y a quatre mois de cela, Pascale Socquet, qui venait d’être élue vice-présidente du Syndicat des Editeurs de la Presse Magazine (SEPM), soulignait pourtant que « si les modèles d’IA ne s’alimentent plus que de contenus synthétiques, ils se condamnent à tourner en boucle » et que « sans contenu humain, les IA ne seront plus génératives mais dégénératives ».

Au même moment, Reworld Media, 3ᵉ groupe média sur le web et les réseaux sociaux et principal concurrent de Prisma, se lançait lui aussi dans la génération d’articles par IA, comme nous le révélions dans une enquête en deux parties.

La première expliquait comment un des sites de Reworld avait « halluciné » l’existence d’une crèche pour poupées « reborn » (sans préciser que sa directrice, Thérèse Dune, est aussi et surtout une actrice porno qui n’a de cesse de chercher à attirer l’attention).

La seconde s’étonnait notamment du fait que nombre des articles générés par IA sur les sites de Reworld Media étaient illustrés par des images de… bras cassés, alors qu’ils sont pourtant censés avoir été relus et corrigés par des employés humains.

Dans un article intitulé « Chez Prisma, Laurence Ferrari fait le sale Bollo », Les Jours révélaient par ailleurs la semaine passée que, non contente d’animer « La grande interview » matinale puis la « Punchline » de fin d’après-midi sur CNews et Europe 1, Laurence Ferrari était aussi en charge de la « brutale » reprise en main éditoriale de Prisma Media suite à son rachat par Bolloré :

« Validation, relecture, censure : l’animatrice de CNews et présidente du « JDD » dirige en sous-marin des magazines du groupe. La mise au pas bolloréenne est totale. »

☕️ Qualcomm : du Wi-Fi 8 à 11,6 Gb/s et un modem 5G flashé à 14,8 Gb/s

5 mars 2026 à 08:27

FastConnect 8800 : Wi-Fi 8, Bluetooth, UWB et Thread

Qualcomm profite du MWC de Barcelone pour présenter ses nouveautés sur la connectivité. Il y a pour commencer le FastConnect 8800, un modem Wi-Fi en 4×4 capable de monter jusqu’à 11,6 Gb/s. Il prend en charge les bandes de 2,4, 5 et 6 GHz, avec des blocs de 320 MHz maximum.

La puce propose aussi du Bluetooth High Data Throughput (HDT) jusqu’à 7,5 Mb/s, de l’Ultra Wide Band (UWB) et Thread pour les objets connectés. Le FastConnect 8800 « intègre également Proximity AI, qui utilise l’UWB, le Bluetooth Channel Sounding, le Wi-Fi Ranging et d’autres technologies de détection pour un suivi précis au centimètre près ».

Tous les détails se trouvent par ici. Qualcomm propose des échantillons à ses clients, mais il faudra attendre la fin de l’année pour voir arriver les premiers produits commerciaux, précise l’entreprise.

Modem 5G X105 jusqu’à 14,8 Gb/s

Qualcomm présente aussi un nouveau modem 5G, le X105. Il succède donc au X85 annoncé en mars 2025. Le fabricant affirme que c’est le premier au monde à prendre en charge la Release 19 de la 3GPP.

La Release 18 est aussi appelée 5G Advanced ou 5,5G et c’est une « évolution majeure » de la 5G. La 19 est une version de transition qui doit « exploiter pleinement le potentiel de la 5G et faire le lien avec la 6G ». Elle propose diverses améliorations détaillées par Qualcomm dans ce document.

Revenons au modem 5G X105. Ses débits sont de 14,8 Gb/s en téléchargement et 4,2 Gb/s en upload, contre respectivement 12,5 et 3,7 Gb/s pour son prédécesseur.

Qualcomm met en avant des fonctionnalités comme le positionnement par satellites GNSS quadribande (L1, L2, L5, L6) et de la prise du NR-NTN (New Radio – Non Terrestrial Networks). L’intelligence artificielle est évidemment de la partie « pour détecter, classer et optimiser les flux de données en fonction des scénarios d’utilisation ».

Des échantillons sont en cours de qualification auprès des partenaires et les terminaux commerciaux sont attendus au second semestre de cette année. Tous les détails du X105 sont sur cette page.

☕️ OpenAI publie la version Windows de Codex, son agent IA dédié au code

5 mars 2026 à 08:10

Déjà accessible au travers de Visual Studio ou GitHub Codespaces, l’agent IA dédié au code d’OpenAI dispose désormais de son propre client dédié aux environnements Microsoft, via l’application Codex pour Windows. Annoncée le 4 mars, cette dernière est proposée au téléchargement par l’intermédiaire du Microsoft Store, sans alternative plus directe pour le moment.

Comme pour l’application macOS lancée début février, OpenAI promet que son client Windows couvre toute la richesse fonctionnelle de Codex avec, entre autres, la possibilité de faire tourner simultanément plusieurs tâches ou agents parallèles, la création d’environnements sécurisés et isolés les uns des autres, une gestion complète des commits, CI/CD, etc., ainsi que l’accès aux instructions, scripts et ressources censés permettre d’implémenter de façon simplifiée certaines tâches complexes, à commencer par la connexion à des services tiers via MCP (Model Context Protocol).

L’application Codex d’OpenAI est désormais disponible sur Windows – crédit OpenAI

OpenAI souligne également la présence d’une fonction d’import, pour rapatrier l’historique issu d’une précédente instance de Codex, et assure que l’outil offre une sécurité « par défaut », dans la mesure où les agents IA évoluent dans un environnement dédié (sandbox) tant que l’utilisateur ne leur a pas octroyé d’autres privilèges. La promesse ne se veut d’ailleurs pas exclusive à cette version Windows :

« L’application Codex utilise un sandboxing natif, open source⁠ et configurable au niveau système, comme dans la CLI Codex. Par défaut, les agents Codex ne peuvent modifier que les fichiers du dossier ou de la branche sur lesquels ils travaillent et utiliser une recherche web mise en cache. Ils demandent ensuite votre autorisation avant d’exécuter des commandes nécessitant des droits élevés, comme l’accès au réseau ».

Diffusion non consentie d’images sexuelles : Point de Contact veut agir partout, plus vite

5 mars 2026 à 07:35
VLOP et OP sont dans un bateau
Diffusion non consentie d’images sexuelles : Point de Contact veut agir partout, plus vite

Dans son rapport de transparence 2025, l’association Point de Contact pointe que les obligations légales de très grandes plateformes les poussent à réagir plus vite, en moyenne, que les autres fournisseurs de services numériques. Elle souligne par ailleurs la présence de violences à caractère sexuel dans tous les espaces numériques, contrairement à d’autres types de contenus illicites.

Nommée signaleur de confiance au sens du Règlement sur les services numériques (Digital Services Act, DSA) par l’ARCOM, l’association Point de Contact publie ce 5 mars son rapport de transparence de l’année 2025.

Parmi ses principaux constats, l’association souligne qu’au-delà des très grandes plateformes numériques (VLOP) soumises à des obligations spécifiques par le DSA, la catégorie des « fournisseurs de services intermédiaires » (d’hébergement, d’accès à Internet) est aussi largement utilisée pour la diffusion de certains types de contenus illicites. En conséquence, ils ont reçu plus des trois quarts des notifications de contenus illicites émises par l’association en 2025 (en excluant une affaire spécifique impliquant de contacter OVHcloud).

En termes de contenus, l’association constate que ceux relevant de violences sexuelles (contre personnes mineures comme majeures) sont présents dans tous les types d’espaces numériques, contrairement à d’autres contenus illicites dont la circulation est plus souvent cantonnée aux réseaux sociaux. Sur ce type spécifique de contenus, elle constate une plus grande difficulté à obtenir le retrait de contenu concernant des personnes majeures, et appelle à la mise en place de mécanismes techniques et juridiques permettant de mieux protéger les victimes.

Rapport de transparence de Point de Contact / Capture d’écran

Signaleur de confiance… auprès des très grandes plateformes

En vertu de l’article 22 du DSA, les très grandes plateformes (VLOP) doivent travailler avec les signaleurs de confiance, tels que labellisés au sein de chaque État membre de l’Union européenne. En pratique, lorsque ces derniers font remonter des alertes, les plateformes doivent les traiter en priorité. Aux côtés de Point de Contact, les autres signaleurs nommés par l’Arcom sont e-enfance, l’Association de lutte contre la piraterie audiovisuelle, l’International Fund for Animal Welfare (IFAW), INDECOSA-CGT (Information et défense des consommateurs et salariés), Addictions France, le Crif et la Licra.

Sur l’année écoulée, Point de Contact indique avoir reçu 122 317 signalements, indifféremment d’internautes ou de partenaires, dont 36 % (45 086) ont été qualifiés d’illicites après analyse par quatre juristes de l’association. 65 % (29 640) de ces messages illicites ont conduit à des notifications aux services concernés, ce qui a conduit au retrait de 63% (28 800) de ces contenus. L’association précise que l’écart constaté entre le nombre de contenus signalés et retirés est le plus souvent dû au travail du réseau international INHOPE, qui a pu mener à des retraits avant notification par l’association française.

Si Point de Contact reçoit des notifications sur une variété de sujets, l’immense majorité (93 %) concerne la protection des mineurs. En termes de fournisseurs, la vaste majorité des alertes émises (89 %) ont été envoyées à OVHcloud. La raison, note Point de Contact, est que « l’un des sites hébergés par cette entreprise est ciblé par des réseaux pédocriminels qui profitent des services d’hébergement d’images fournis par ce site pour y télécharger et échanger des contenus d’exploitation sexuelle sur mineure ».

L’association invite donc à se concentrer sur les 11 % d’alertes restantes pour dessiner une image plus précise des actions des différents destinataires de notifications. 571 ont ainsi été soumises à des VLOP. Dans le lot, X fait figure de mauvais élève, dans la mesure où seulement un contenu sur deux, en moyenne, est retiré après notification.

Plus généralement, Point de Contact relève que les contenus de violences à caractère sexuel ne sont pas traités de la même manière par les VLOP et les fournisseurs de service d’hébergement. En l’occurrence, 86 % des notifications envoyées à de très grandes plateformes pour ce type de problématiques ont conduit à des retraits, quand seulement 60 % des notifications similaires auprès d’hébergeurs ont permis d’obtenir ce résultat.

Une partie de l’explication de ce déséquilibre est à chercher dans la réglementation européenne : le DSA prévoit en effet des niveaux de responsabilité différents selon la taille des services. La priorité qui doit être donnée aux signaleurs de confiance, par exemple, n’est imposée qu’aux VLOP. Point de Contact estime néanmoins qu’au sein d’une même catégorie d’acteurs (VLOP, autres plateformes en ligne, fournisseurs de services intermédiaires), l’application du DSA reste hétérogène, que ce soit du point de vue de la rapidité de traitement, de celle de la coopération avec le signaleur ou même de motivation des décisions finalement prises.

Violences à caractère sexuel dans tous les espaces numériques 



Si les discours de haine et contenus terroristes ou négationnistes sont principalement cantonnés aux réseaux sociaux, Point de Contact constate que les violences à caractère sexuel se retrouvent dans tous les espaces numériques.

Dans cette catégorie, la diffusion non consentie d’image à caractère sexuel fait par ailleurs face à une difficulté particulière : quand bien même leur diffusion, voire leur fabrication, ne serait pas consentie par les personnes concernées, lorsque ces dernières sont adultes, les contenus sont rarement considérés comme « manifestement illicite » par les interlocuteurs de Point de Contact.

Rapport de transparence de Point de Contact / Capture d’écran

En 2024, la sociologue Elisa Garcia Mingo résumait ce problème auprès de Next en déclarant : « On manque d’une culture du consentement ». Concrètement, la sous-considération de la dangerosité de ce type de contenu entraîne des temps de traitement plus longs, alors même que la persistance de ces contenus en ligne crée des préjudices aux victimes.

En 2025, un sondage d’Ipsos pour Féministes contre le Cyberharcèlement, Point de Contact et StopFisha constatait que plus d’une victime de cyberharcèlement sur quatre avait subi la diffusion non consentie de contenus sexuels ou intimes. Seulement 12 % des victimes de cyberviolences sexistes et sexuelles interrogées déclaraient avoir porté plainte.

Quatre ans plus tôt, un autre sondage pour Féministes contre le cyberharcèlement constatait que près de la moitié des victimes de cyberharcèlement subissait des symptômes dépressifs, pas loin d’une sur cinq des idées suicidaires.

Pour les images non consenties à caractère sexuel impliquant des adultes, Point de Contact plaide donc pour la mise en place de solutions spécifiques, dont « des obligations renforcées de retrait rapide, des mesures d’atténuation des risques de rediffusion » et des « mécanismes judiciaires accessibles aux victimes, adaptés aux dynamiques propres à l’espace numérique ».

Elle suggère notamment l’introduction de « dispositifs temporaires de restriction d’accès ou de suspension conservatoire du contenu », afin de « réduire l’exposition aux contenus les plus préjudiciables tout en préservant l’équilibre entre protection des victimes, liberté d’expression et sécurité juridique des plateformes ».

Point de Contact relève par ailleurs une généralisation des cas de diffusion d’informations personnelles. En 2025, elle indique avoir dû signaler cent cas différents à des services numériques.

« Un empire bâti sur le racket » : YggTorrent ferme, 30 Go de données dans la nature

4 mars 2026 à 16:48
« Un empire bâti sur le racket » : YggTorrent ferme, 30 Go de données dans la nature

« L’histoire s’arrête ici. » C’est par ces mots que l’équipe de YggTorrent annonce la fin du site. Ce n’est pas son choix. Elle a été victime d’un piratage à grande échelle, qui met au jour 30 Go de données et lève le voile sur le caractère très lucratif de ses activités, ainsi que sur du code source, des mots de passe, des échanges, des bases de données, etc.

YggTorrent était un site dédié au téléchargement illégal et plus particulièrement aux torrents, comme son nom l’indique. Il changeait régulièrement de domaine, pour contrer les ordonnances de blocage dont il était régulièrement la cible. Le site affiche cette fois-ci un message différent : « Fermeture définitive de YggTorrent ».

« Fermeture définitive de YggTorrent »

Dernier épisode d’une série où des pirates s’attaquent aux pirates. L’équipe YggTorrent affirme en effet que, « le 3 mars 2026 au soir, un groupe malveillant a attaqué volontairement notre infrastructure. Un serveur secondaire de préproduction, distinct du système principal, a été compromis. Une escalade de privilèges a permis la suppression puis l’exfiltration de la base de données. Des portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, ont également été dérobés (un détail que certains choisiront d’ignorer) […] C’était une attaque pensée, préparée et exécutée pour faire disparaître ».

L’attaque est signée et revendiquée par Grolum (parfois Gr0lum). Et au moins les deux « camps » sont raccords sur un point, le seul d’ailleurs : « Toute l’infrastructure de YGG a été compromise : code source, bases de données du tracker, du forum, de la boutique, logs serveur, configurations, mots de passe et cookies, projets en développement, échanges privés, données personnelles », affirme Grolum.

Grolum pas content : « mode "Turbo" de merde pour racketter »

« 6,6 millions d’utilisateurs. Des années de mensonges. Un empire bâti sur le racket. C’est fini. Les serveurs ont été vidés, puis détruits […] Près de 10 millions d’euros de recettes pour 2024 - 2025 ne vous ont pas suffi. Vous avez imposé votre mode « Turbo » de merde pour racketter quiconque voulait télécharger plus de cinq fichiers par jour. En profitant de votre monopole, vous avez pris les gens en otage avec un système de quota ridicule », ajoute-il.

En décembre, YggTorrent changeait de « modèle économique » avec un abonnement payant à la place des ratios (il fallait auparavant partager suffisamment pour pouvoir télécharger). La fronde est rapidement montée dans la communauté, comme nous l’avions alors relaté.

« Beaucoup ont payé, comme le montrent clairement vos chiffres de janvier et février », affirme Grolum. Ceux qui ont pris un « turbo à vie » ou ne serait-ce que pendant plusieurs mois, ne pensaient certainement pas que la vie du site serait aussi éphémère. Dans tous les cas, l’argent est arrivé dans les caisses de « l’équipe de YggTorrent » et selon Grolum les sommes seraient conséquentes. Reste maintenant à savoir qui a l’argent.

Ce tableau diffusé par le pirate détaillerait les revenus générés par YggTorrent – capture d’écran

« L’équipe YggTorrent » affirme que des sauvegardes existent et qu’une « reconstruction serait techniquement possible », mais ne souhaite pas « continuer dans un climat d’acharnement permanent ».

Grolum aussi parle d’un drôle de climat, mais avec un angle différent : « Alors que vos équipes de modérateurs bossent bénévolement pour faire tourner le site, vous continuez d’amasser une véritable fortune sur leur dos. Francisco depuis le Maroc et Vladimir depuis la France, vous avez exploité la naïveté de personnes qui croyaient en un projet de partage libre, désintéressé et communautaire. Pendant des années, vous avez utilisé des méthodes de crapules : DDoS contre les trackers concurrents, purges d’uploadeurs dès qu’ils ouvraient la bouche, sabotage de votre propre API pour empêcher quiconque d’utiliser des outils tiers ». Ambiance.

Il ajoute que Oracle, celui qui serait à la tête de YggTorrent, aurait enregistré « les 54 776 cartes bancaires [des] membres » et se demande « Pour en faire quoi, exactement ? ». D’autres questions remontent : « Le tracking comportemental de chaque visiteur, c’est pour quel usage ? Et le fingerprinting des wallets crypto, tes utilisateurs sont au courant ? Les scans de CNI volées que tu utilises pour payer les serveurs, tu es à l’aise avec ça ? ».

30 Go de données brutes

Pour joindre la parole aux actes, il propose un lien .torrent pour récupérer des données de 6,6 millions d’utilisateurs, avec en plus des informations sur les coulisses, l’infrastructure, l’organisation, les finances, les projets internes, les données personnelles des admins, etc.

Il explique son choix de publier : « des gens dont c’est le métier vont pouvoir y jeter un œil, collecter des preuves supplémentaires et peut-être engager des poursuites contre les responsables du site, mais aussi contre les hébergeurs ou d’autres tiers identifié ». Reste à savoir si toutes les données sont bien celles de YggTorrent.

Grolum précise avoir fait quelques caviardages : « Aucune information sur les utilisateurs (adresses IP, emails, mots de passe) ne sera accessible ici. Hélas pour l’ARCOM, je garde ça bien au chaud. D’ailleurs Oracle, la moitié des hash sont encore en md5, c’est pas sérieux l’ami », ajoute-t-il. En dépit de cette information selon laquelle les informations personnelles ont été expurgées, il faudra attendre de voir si dans l’immense quantité de données, il n’est pas possible de faire des rapprochements et remonter à des utilisateurs.

À ce sujet, YggTorrent affirme que « les mots de passe présents dans la base étaient hachés et salés, ce qui signifie qu’ils n’étaient pas stockés en clair et qu’ils bénéficiaient d’une protection cryptographique empêchant leur lecture directe », sans préciser la technique utilisée. La fonction de hachage md5 est pour rappel qualifiée d’obsolète par la CNIL. Toujours les mêmes recommandations : si vous avez utilisé le même mot de passe sur YggTorrent et d’autres sites/services, il faut en changer au plus vite.

Le fichier pèse pas moins de 11 Go et se présente sous la forme d’une archive compressée. L’espace total occupé par les fichiers est de 30 Go une fois décompressés, dont 20 Go rien que pour les bases de données et 14 Go dans un seul fichier ygg_tracker_redacted/torrents/data.sql . Autant dire qu’il faudra du temps pour tout analyser.

Dans les données, se trouve notamment un fichier « Reunion201117_fra.json » avec ce qui semble être une transcription d’une réunion audio. Voici quelques extraits :

« La sécurité va s’améliorer parce que je peux vous le dire sincèrement, je vais être 100 % clair et gardez ça pour vous, mais les mots de passe sont z-, sont cryptés médiocres. Euh, le, le, la sécurité en ce moment des utilisateurs est très minime. C’est pour ça que nous, euh, Destroy est venu nous voir et nous a demandé d’avoir une meilleure sécurité. Moi, je suis arrivé avec une entreprise privée pour, pour le, la machine, parce qu’avant, avant, c’était des mecs russes très bizarres qui, qui fouillaient un peu sur la machine, vous voyez le genre ? ».

On trouve aussi des emails et des mots de passe associés à des comptes (rappel, réutiliser le même n’est pas une bonne idée). Certains ne sont plus valides, d’autres demandent un code envoyé par email avant de laisser passer. Certains des comptes semblent bien avoir existé.

Les coulisses de l’attaque, la relève déjà en place

Dans la fin de son billet, Grolum explique de manière détaillée comment il est entré sur le serveur de YggTorrent et comment il a récupéré les données. S’il fallait simplifier à l’extrême voici la chaine d’opération, telle que décrite par le pirate.

Point de départ de l’attaque : le favicon de yggtorrent. « Chaque icône a une empreinte numérique unique. Si on calcule le hash de celle de YGG et qu’on le cherche dans Shodan, l’IP du serveur de pré-prod apparaît ».

Ensuite, un scan de port et découverte d’une entrée non sécurisée : « Le scan de ports a révélé le service SphinxQL sur le port 9306. Sphinx Search est un moteur de recherche full-text qui utilise un protocole compatible MySQL. Sur ce serveur, il est accessible depuis Internet sans aucune authentification […] SphinxQL supporte nativement la lecture de fichiers locaux ».

La suite : « Sur les serveurs Windows déployés automatiquement, le fichier sysprep_unattend.xml contient les paramètres d’installation, y compris, parfois, le mot de passe administrateur. Ce fichier aurait dû être supprimé après le déploiement. Il ne l’a pas été ».

Les pirates ont donc récupéré rien de moins que le mot de passe administrateur du serveur, en clair, « dans un fichier que n’importe qui pouvait lire via SphinxQL ». C’est la voie royale. Le pirate peut accéder en lecture et en écriture à l’ensemble du stockage.

Grolum affirme enfin que « Tous les torrents de YGG ont pu être sauvés grâce à l’aide de l’équipe du projet U2P », ou Utopeer. Sur les cendres de Torrent 411, Cpasbien ou encore Zone-Téléchargement, un nouveau site s’est encore lancé : ygg.gratis. Il propose « une interface de consultation qui permet de parcourir et télécharger les torrents issus de la base de données YggTorrent ayant fuité ».

❌