L’administration Trump a mis sa menace à exécution : elle a désigné officiellement Anthropic comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Dario Amodei a annoncé que l’entreprise allait contester cette décision devant la justice. Le responsable s’excuse en même temps pour la fuite d’un mémo dans lequel il comparait Trump à un « dictateur ».
La tension n’est toujours pas retombée entre Anthropic et l’administration Trump. Cette dernière a officiellement désigné la startup comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Jusque-là, ce qualificatif n’avait jamais été utilisé par le pouvoir états-unien contre une entreprise du pays. L’implication juridique pourrait être plus ou moins importante économiquement pour Anthropic.
Le CEO de l’entreprise, Dario Amodei, a affirmé ce jeudi sur le blog d’Anthropic avoir reçu, la veille, la lettre officielle du Département de la Défense américain (DOD, désigné aussi sous le nom de Département de la Guerre par l’administration Trump).
Vendredi dernier, Pete Hegseth, le secrétaire d’État à la Défense, avait annoncé que cette qualification impliquait qu’ « aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l’armée américaine n’est autorisé à mener une quelconque activité commerciale avec Anthropic ». Cela aurait de lourdes conséquences pour la startup, dont les clients comme Microsoft, Google ou Amazon devraient choisir entre la startup ou leurs contrats avec la défense des États-Unis.
Mais dans son billet, le responsable de la startup conteste la portée de la mesure. Sans citer la lettre, il affirme que « le langage utilisé par le ministère de la Guerre dans la lettre (en supposant qu’il soit juridiquement valable) correspond à notre déclaration de vendredi selon laquelle la grande majorité de nos clients ne sont pas concernés par une désignation de risque lié à la chaîne d’approvisionnement » :
« cela s’applique clairement uniquement à l’utilisation de Claude par les clients dans le cadre direct de contrats avec le ministère de la Guerre, et non à toute utilisation de Claude par les clients qui ont conclu de tels contrats. »
Microsoft confirme au New York Times : « Nos avocats ont étudié cette désignation et ont conclu que les produits Anthropic, y compris Claude, peuvent rester disponibles pour nos clients (à l’exception du ministère de la Guerre) via des plateformes telles que M365, GitHub et Microsoft AI Foundry, et que nous pouvons continuer à travailler avec Anthropic sur des projets non liés à la défense ».
Des excuses pour des propos contre l’administration Trump dans un mémo interne
« Cette action imprudente est court-termiste, autodestructrice et fait le jeu de nos adversaires », affirme à nos confrères la sénatrice démocrate Kirsten Gillibrand. « Le fait que le gouvernement attaque ouvertement une entreprise américaine pour avoir refusé de compromettre ses propres mesures de sécurité est quelque chose que l’on attendrait de la Chine, pas des États-Unis », ajoute-t-elle.
Dans son billet de blog, Dario Amodei est aussi revenu sur la fuite d’un mémo interne qu’il a envoyé à ses employés. Dans celui-ci, obtenu par le média The Information et relayé par Futurism, le CEO fulminait : « La véritable raison pour laquelle [le département de la Défense] et l’administration Trump ne nous aiment pas, c’est que nous n’avons pas fait de dons à Trump ».
« Nous n’avons pas fait d’éloges à Trump dignes d’un dictateur (contrairement à Sam [Altman, ndlr]) », ajoutait Amodei, qui s’excuse sur son blog où il assure que ce n’est pas la direction de l’entreprise qui est à l’origine de la fuite : « Il n’est pas dans notre intérêt d’aggraver la situation ».
Et il remet le mémo dans son contexte du message de Donald Trump posté sur Truth Social et celui du département de la Défense sur X vendredi dernier. Le dirigeant y qualifiait notamment Anthropic d’ « entreprise woke de gauche radicale » et affirmait que les États-Unis ne la « laisseraient jamais dicter la manière dont [leur] grande armée mène et gagne les guerre ». Quant au Pentagone, il accusait l’entreprise et son CEO de duplicité.
La version anglophone de Wikipédia se trouve confrontée à la gestion d’éditions utilisant massivement la traduction via l’IA, ce qui ajoute des erreurs dans l’encyclopédie. En cause, notamment, une association dont le but est de créer du contenu dans Wikipédia.
L’IA générative donne encore une fois du fil à retordre à Wikipédia. Cette fois, c’est son utilisation massive pour traduire des pages en anglais qui est pointée du doigt.
Il faut dire que la position de la fondation Wikimedia est sur une ligne de crête entre le fait de trouver des avantages à l’utilisation de l’IA générative pour automatiser certaines tâches et de gérer les problèmes qu’elle génère. Ainsi, l’année dernière, elle a dû retirer une fonctionnalité expérimentale de résumé automatique des articles de l’encyclopédie.
Une utilisation des IA génératives en discussion dans la Wikipédia anglophone
Au même moment, du côté de la version francophone, les éditeurs adoptaient un texte de recommandation sur l’usage de l’IA générative qui affirmait clairement que son utilisation était « vivement déconseillée ».
Concernant la traduction, le texte demande à ce que, si l’IA générative est utilisée pour de l’aide à la traduction, cela soit mentionné. La vérification des sens d’un mot étranger fait partie des « usages tolérés », avec la précision qu’il ne doit pas y avoir de « traduction littérale ou mot à mot », la page ajoutant « veillez à ce qu’il n’y ait pas de contre-sens ».
Mais du côté anglophone, une discussion sur le sujet n’est apparue qu’en janvier dernier, débouchant sur un texte adopté le 10 février concernant la traduction d’articles venant d’autres versions linguistiques de l’encyclopédie.
Celui-ci demande à ce que l’utilisation soit faite seulement si l’utilisateur a les compétences en anglais et dans la langue d’origine pour confirmer que la traduction est bonne. Il demande aussi que l’utilisateur ait vérifié qu’aucune hallucination n’a été ajoutée et que le texte reste fidèle aux sources citées.
Des textes traduits à la va-vite par une association dédiée à ça
Le texte a été adopté alors que des éditeurs ont pointé du doigt des erreurs manifestes dans certaines pages traduites à la va-vite. Ainsi, comme l’explique 404 Media, pour la page de la famille noble de La Bourdonnaye.
Alors que dans la version française, la phrase « La famille de La Bourdonnaye a pour berceau la seigneurie de la Bourdonnais à Trégomar dans les Côtes d’Armor en France » est accompagnée de la mention « [réf. nécessaire] », une source a été ajoutée lors de la traduction automatique par un utilisateur, mais celle-ci ne contient pas d’indication sur cette famille à la page donnée, indique Ilyas Lebleu (dont le pseudo est Chaotic Enby sur Wikipédia).
Mais ce n’est qu’un exemple, ainsi il explique à 404 média que pour certains articles « les sources avaient changé et des phrases avaient été ajoutées sans source et sans explication, tandis que l’article sur les élections sénatoriales françaises de 1879 avait ajouté des paragraphes provenant de sources sans aucun rapport avec le contenu initial ! ».
Le problème viendrait notamment d’ajouts faits par des éditeurs de l’association Open Knowledge Association (OKA). Celle-ci s’affiche comme faisant de la « diffusion de contenu gratuit sur Wikipédia et d’autres plateformes ouvertes grâce à un financement ciblé », et se vante d’avoir créé et traduit près de 5 000 articles sur Wikipedia. Les internautes peuvent donner à l’association et si la somme est supérieure à 10 000 francs suisses, ils peuvent demander d’enrichir un champ particulier.
« Si vous souhaitez faire traduire des pages spécifiques, nous les examinerons, mais ne les traduirons que si nous estimons qu’elles répondent à nos critères de qualité », ajoute l’association qui s’engage aussi à préciser les éventuels conflits d’intérêt lors de l’édition.
Mais cette découverte par Ilyas Lebleu a fait remonter de nombreuses autres traductions problématiques publiées par OKA sur l’encyclopédie. Des bénévoles de la version anglophone de Wikipédia ont pointé à 404 Media un tableur utilisé par les traducteurs d’Oka dans lequel se trouvent les instructions :
« Choisissez un article, copiez l’introduction dans Gemini ou chatGPT, puis vérifiez si certaines des suggestions améliorent la lisibilité. Modifiez les articles de Wikipédia uniquement si les suggestions constituent une amélioration et ne changent pas le sens de l’introduction. Ne modifiez pas le contenu avant d’avoir vérifié que les suggestions de Gemini sont correctes ! »
Le fondateur de OKA, Jonathan Zimmermann, explique à 404 Media que « des erreurs arrivent » mais que la méthode d’OKA « comprend une relecture humaine, demande aux traducteurs de vérifier le texte par rapport aux sources citées » et il assure que des « responsables vérifient régulièrement des extraits, spécifiquement pour des nouveaux traducteurs ».
Il explique que depuis peu, les traducteurs doivent passer leurs textes dans un autre outil en utilisant un prompt spécifique de comparaison qui doit identifier les incohérences, omissions ou inexactitudes.
Vous êtes-vous déjà demandé d’où venait le PCI Express (PCIe) utilisé par les cartes graphiques et comment il faisait pour doubler ses débits à chaque génération ? Oui, alors Next vous apporte les réponses. Non ? Parfait, c’est l’occasion d’apprendre de nouvelles choses !
Le PCIe comme nous avons l’habitude de l’appeler, a bien des noms. La version longue : Peripheral Component Interconnect Express. Version plus courte : PCI Express. On parle aussi de PCI-E ou PCIe en abrégé. Le PCIe est une norme de bus d’extension, permettant de connecter des cartes d’extension sur des cartes mères.
Petite histoire du PCI Express : Arapahoe (Intel) >> 3GIO >> PCIe
Le PCIe est une évolution du PCI classique et remplace aussi l’AGP qui était utilisé par des cartes graphiques (et encore avant les bus VLB et (E)ISA). Le PCIe est né au début des années 2000, d’abord lancé par Intel sous le nom de code projet Arapahoe puis sous l’appellation 3GIO pour Third Generation I/O. Il est ensuite repris par le PCI-SIG, avec SIG pour Special Interest Group, encore aujourd’hui en charge du PCIe. Au conseil d’administration, on retrouve du beau monde : AMD, ARM, Dell, IBM, Intel, Keysight, NVIDIA, Qualcomm et Synopsys.
En 2002, le PCI Express était né. Aujourd’hui, c’est la 8ᵉ génération de PCIe qui est en travaux. Ce bus d’extension est présent sur toutes les cartes mères, en version 5.0 pour les plus récentes. De 8 Go/s en bi-directionnel (4 Go dans chaque sens, descendant et montant), il est maintenant question de… 1 024 Go/s, soit 128x plus en plus de deux décennies. Pour en arriver là, plusieurs évolutions ont été nécessaires.
Voici un rapide état des lieux des dates et des débits (approximatifs) de chaque génération :
PCIe 1.0 (2003) : jusqu’à 8 Go/s en x16
PCIe 2.0 (2007) : jusqu’à 16 Go/s en x16
PCIe 3.0 (2010) : jusqu’à 32 Go/s en x16
PCIe 4.0 (2017) : jusqu’à 64 Go/s en x16
PCIe 5.0 (2019) : jusqu’à 128 Go/s en x16
PCIe 6.0 (2022) : jusqu’à 256 Go/s en x16
PCIe 7.0 (2025) : jusqu’à 512 Go/s en x16
PCIe 8.0 (2028) : jusqu’à 1024 Go/s en x16
Comment fonctionnent les « lignes » PCIe
Le PCIe fonctionne avec des lignes, de 1 à 16 généralement, on parle alors de x1, x4, x8 et x16. Rambus rappelle que des interfaces en x32 et x12 ont été supprimées avec le PCIe 6.0. « Bien que ces largeurs soient disponibles dans les spécifications PCIe 5.0 et antérieures, ces largeurs n’ont jamais été implémentées sur le marché », ajoute l’entreprise.
Chaque ligne comprend deux paires de fils : une pour le débit montant, l’autre pour le débit descendant ; on parle de full-duplex. Suivant le nombre de lignes disponibles – il y a « négociation » entre la carte mère et la carte d’extension – les données sont envoyées en une seule fois, ou découpées en 4, 8 ou 16.
Par exemple, avec quatre lignes, le premier symbole (on va y revenir) va à la ligne 1, le 2e à la ligne 2, etc. Au 5e, retour à la ligne 1, le 6e à la ligne 2, etc. De cette manière, une carte graphique PCIe x16 peut fonctionner sur un connecteur x16, mais aussi en x8, x4 et même x1. Le transfert des données est plus ou moins rapide.
C’est quoi ces GT/s et comment on passe au Go/s ?
Passons maintenant au débit. Le PCIe 1.0 est annoncé à 250 Mo/s par ligne, soit 4 Go/s avec 16 lignes (250 x 16). Pour rappel, c’est du full-duplex, donc on peut aussi parler de 8 Go/s (dans les deux sens). Mais on lit aussi parfois des GT/s pour gigatransferts/s. C’est la manière de parler des débits d’un bus informatique, indépendant du codage des données.
Codage ? Oui, en PCIe chaque octet de 8 bits est transformé en un symbole de 10 bits : 8b/10b. Les symboles sont ensuite transmis. On voit rapidement arriver le problème : pour 8 bits, il faut en envoyer 10. Il y a des pertes.
De haut en bas : PCIe x16 (bleu), x1, x4, x16 et enfin PCI (noir en bas)
Entre le PCIe 1.0 et 2.0, les GT/s doublent
Nous n’allons pas entrer dans tous les détails, mais le PCIe 1.0 était à 2,5 GT/s par ligne. Pour obtenir le débit utile, il faut multiplier les GT/s par l’efficacité du codage. Nous avons des Gb/s, que l’on divise par huit pour passer en Go/s.
Le PCIe 2.0 garde le même fonctionnement que le PCIe1, mais avec un débit brut doublé, soit 5 GT/s. Voici les calculs pour passer en Go/s (par ligne) :
Débit du PCIe 1.0 : (2,5×8/10)/8 = 0,250 Go/s ou encore 250 Mo/s
Débit du PCIe 2.0 : (5×8/10)/8 = 0,5 Go/s ou encore 500 Mo/s
PCIe 3.0 à 5.0 : nouveau codage 128/130b avec moins de « pertes »
Le PCIe 3.0 change le codage des symboles de 8b/10b à 128b/130b. Un symbole de 130 bits pour 128 bits, soit une perte de 1,5 % seulement (au lieu de 20 %). Le débit brut n’augmente qu’à 8 GT/s mais le débit pratique est quand même doublé. Avec le PCI 4.0 et 5.0, le débit brut est doublé, sans autre changement.
Débit du PCIe 3.0 : (8×128/130)/8 = 0,985 Go/s ou encore 985 Mo/s (arrondi à 1 Go/s).
Débit du PCIe 4.0 : (16×128/130)/8 = 1,969 Go/s ou encore 1 969 Mo/s (arrondi à 2 Go/s).
Débit du PCIe 5.0 : (32×128/130)/8 = 3,938 Go/s ou encore 3 938 Mo/s (arrondi à 4 Go/s).
PCIe 6.0 à 8.0 : le débit double avec PAM-4
Le PCIe 6.0 inaugure le passage au PAM-4, pour modulation d’amplitude d’impulsion, à la place du NRZ (non-return to zero). Avec le NRZ, il n’y a que deux états (niveaux de tension) pour le signal : 0 ou 1. Facile à distinguer. En PAM il y en a davantage : trois avec PAM-3, quatre avec PAM-4, etc. PAM-4 utilise donc quatre états, par exemple 00, 01, 10 et 11. Au lieu d’un bit, le signal en transporte deux bits.
Comparaison entre NRZ et PAM4, crédits : Rambus
Le débit brut du PCIe 6.0 reste le même qu’en 5.0, mais PAM-4 permet de doubler le nombre de bits sans rien faire de plus. On passe donc de 32 à 64 GT/s avec le choix du PCIe d’associer les transferts aux bits (et non pas aux symboles). L’encodage passe sur 242 octets / 256 octets.
Avec le PCI 7.0 et 8.0, le débit brut est doublé à chaque fois :
Débit du PCIe 6.0 : (64/8)x(242/256)= 7,563 Go/s ou encore 7 563 Mo/s (arrondi à 8 Go/s).
Débit du PCIe 7.0 : (128/8)x(242/256)= 15,125 Go/s ou encore 15 125 Mo/s (arrondi à 16 Go/s).
Débit du PCIe 8.0 : (256/8)x(242/256)= 30,25 Go/s ou encore 30 250 Mo/s (arrondi à 32 Go/s).
YggTorrent est mort, mais il bouge encore. Le message affiché sur la page d’accueil change, répond à certaines accusations et propose désormais les noms de domaine à la vente… « exclusivement pour un projet légal ». Pendant un temps, un compte à rebours annonçait un retour, sous la forme Ygg tout court.
Mise à jour du 6 mars à 12h55. Le compte à rebours est de retour, toujours avec un rendez-vous lundi à 21 h.
Article du 6 mars à 9 h 33. En début de semaine, le site YggTorrent annonçait sa fermeture, suite à un piratage massif de ses données : pas moins de 30 Go ont été publiées avec des informations sur le code source, les utilisateurs, bancaires, etc. Le pirate expliquait aussi en détail comment il était entré dans les serveurs.
Le message de l’équipe d’YggTorrent était alors clair, sans ambiguïté : il débutait par « Fermeture définitive de YggTorrent » et se terminait par « L’histoire s’arrête ici ». Une « reconstruction serait techniquement possible », affirmait l’équipe, mais elle ne souhaitait pas « continuer dans un climat d’acharnement permanent ». Mais en fait non, l’histoire ne s’arrête pas là.
Nouveau message, toujours une « fermeture définitive »
Un nouveau texte a été mis en ligne sur le site de YggTorrent. Il est plus court et moins dans l’émotion que le premier et donne de nouvelles informations. Tout d’abord, le site affirme qu’« aucune donnée bancaire n’a jamais été collectée ni stockée par nos systèmes, et l’ensemble des mots de passe des comptes actifs étaient protégés par un hachage cryptographique sécurisé ». Il était auparavant précisé que les mots de passe étaient « hachés et salés ».
Il n’est plus du tout question des « portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, [qui] ont également été dérobés (un détail que certains choisiront d’ignorer) ». Le site affirme que « les auteurs de l’attaque multiplient les déclarations mensongères […] Ils déforment les faits, fabriquent de fausses preuves et comptent sur la confusion pour imposer leur version ». À ce petit jeu, l’équipe d’YggTorrent semble aussi participer…
Offre légale mise en avant, l’intégralité des noms de domaine est à vendre
Enfin, comme précédemment, l’offre légale est mise en avant : « Ne vous laissez pas tromper et tournez-vous plutôt vers les nombreuses solutions légales désormais disponibles ». Le site est désormais divisé en deux, avec la partie droite qui met en avant les plateformes légales comme Netflix, Canal+, Disney+, Prime, France.tv, Arte…
Il est par ailleurs précisé que « l’intégralité de nos noms de domaine est à vendre, exclusivement pour un projet légal, sans aucun lien avec le torrenting ni le téléchargement d’œuvres protégées. Les demandes non sérieuses seront ignorées ».
Il y a peu, un compte à rebours annonçait… un retour d’Ygg
Mais ne pensez pas que l’histoire s’arrête là ! Avant cette mise en vente, il y a eu un retour annoncé de Ygg (sans le Torrent) avec un compte à rebours, comme le rapporte ZDNet, avec le message « Quelque chose se prépare », et une phrase en russe : « il est trop tôt pour nous enterrer ». Le rendez-vous était pour lundi 16 mars à priori, mais le compte à rebours a disparu… pour l’instant ? Le site est cette semaine en mode girouette, bien malin celui qui arrive à prévoir le prochain coup.
En effet, quelques heures avant la capture d’écran de ZDNet, un utilisateur sur X faisait état d’encore une nouvelle version du site, déjà avec un compte à rebours, mais surtout avec un « communiqué », que l’on retrouve aussi sur Reddit. Le message affirmait déjà qu’« aucune donnée bancaire n’a jamais été collectée, stockée ni traitée par nos systèmes ».
Le communiqué ajoutait que « notre architecture n’a à aucun moment intégré de module de stockage d’informations de cartes de paiement. Les allégations contraires sont factuellement fausses […] Le recours au hachage MD5 évoqué concerne exclusivement moins de 3 % des comptes utilisateurs ». Communiqué qui n’est aujourd’hui plus disponible.
Selon le texte qui était alors disponible, le site rejette la faute du piratage sur son hébergeur, sauf que comme l’a montré Grolum dans sa longue explication, cela ne colle pas vraiment avec ses explications.
Retour du compte à rebours
Dans la matinée, le compte à rebours était de retour, comme nous l’a signalé Droup dans les commentaires. Le reste du message, y compris la vente des noms de domaine, est le même. Seule différence, le mot Torrent de YggTorent est barré.
On retrouve donc le message « YggTorrentest mort », « Quelque chose se prépare » et « Non omnis moriar ». Du latin qui, d’après DeepL, se traduirait par « Je ne mourrai pas complètement ». Rendez-vous lundi à 21 h… du moins si le compte à rebours reste en place et annonce vraiment quelque chose. Le code source de la page ne semble pas cacher de secret particulier.
Pasqal, startup française du quantique, a annoncé coup sur coup une levée de fonds de 340 millions d’euros et son association avec un SPAC en vue de préparer son introduction en bourse, avec l’objectif d’une double cotation, à Paris et à New-York. L’opération valoriserait la société deux milliards de dollars.
Non contente d’avancer sur le développement d’ordinateurs quantiques à base d’atomes neutres, la startup française Pasqal fait cette semaine la démonstration de ses talents en matière d’ingénierie financière. Depuis son siège de Palaiseau, elle vient en effet de dévoiler une double opération, qui lui permet à la fois de muscler sa trésorerie immédiatement disponible et de préparer l’avenir en posant les bases d’une double introduction en bourse : d’abord sur le Nasdaq (l’indice des valeurs technologiques de Wall Street) à New-York puis sur Euronext à Paris.
Dans le détail, Pasqal a annoncé mercredi avoir procédé à un tour de table qui lui permet de réunir au moins 340 millions d’euros (environ 395 millions de dollars), en deux temps. La première moitié de cette manne (soit 170 millions d’euros) est amenée sous forme de capital, avec un tour de table qui réunit, selon la startup, un groupe d’investisseurs internationaux de premier plan.
L’opération est emmenée par le fonds états-unien Parkway Ventures, le taïwanais Quanta Computer, le coréen LG Electronics et le français CMA CGM. Pasqal indique que ses investisseurs historiques, parmi lesquels le français ISAI, fonds européen pour l’innovation, le fonds souverain de Singapour Temasek et la branche investissement de Saudi Aramco remettent également au pot.
Bpifrance, qui compte parmi les investisseurs de Pasqal depuis sa série A de 2021, ne semble pas participer directement, mais la startup prend soin de préciser que la banque publique d’investissement « maintient un rôle stratégique à long terme dans la structure du capital ».
… et un engagement équivalent en vue de l’entrée en bourse
La seconde tranche de 170 millions d’euros prend quant à elle la forme d’un engagement sous forme de financement convertible (les investisseurs prêtent de l’argent à l’entreprise dans l’optique d’un remboursement sous forme d’actions). Cette seconde tranche intervient dans le contexte d’une introduction en bourse programmée en deux temps : à Wall Street d’ici fin 2026, puis à Paris sur Euronext dans les mois suivants.
Pour ce faire, Pasqal va s’adosser à un SPAC (special purpose acquisition company), une coquille vide introduite spécifiquement en bourse pour préparer le terrain à une autre société. En l’occurrence, le véhicule concerné est déjà identifié : il s’agit de la société Bleichroeder Acquisition Corp. II, qui compte un certain Michel Combes parmi ses fondateurs. Ancien PDG de SFR et directeur général d’Altice, Michel Combes a par la suite occupé un poste de directeur financier chez l’opérateur Sprint, avant de prendre la tête du japonais Softbank pendant deux ans.
Cette tranche convertible associe elle aussi un aréopage d’investisseurs institutionnels, parmi lesquels le fonds indien Inflection Point, et le fonds Large Ventures de Bpifrance.
Si l’opération va à son terme dans les conditions décrites ici, Pasqal sera valorisée 2 milliards de dollars avant conclusion des financements, et environ 2,6 milliards de dollars en prenant en compte la trésorerie disponible via ses différents véhicules.
Un ancrage français conservé
Pasqal, qui indique compter environ 275 employés, revendique 25 clients et partenaires pour ses premiers ordinateurs quantiques, ainsi qu’un carnet de commandes de l’ordre de 80 millions de dollars. L’entreprise affirme que ces fonds vont lui permettre d’accélérer significativement ses développements :
« En France, Pasqal prévoit de doubler sa capacité de production en 24 mois, d’augmenter ses effectifs de près de 20 % avec 50 nouvelles embauches au cours des 18 prochains mois et d’investir massivement dans la R&D pour développer un ordinateur quantique avancé et tolérant aux pannes d’ici la fin de la décennie. »
Pasqal, qui compte parmi les quelques pépites hexagonales du quantique aux côtés de sociétés comme Quandela, C12, Alice&Bob ou Quobly, assure par ailleurs de son intention de rester une société de droit français, avec un ancrage français, en dépit de la ventilation de son capital :
« La gouvernance envisagée (…) prévoit la nomination d’un nouveau président non exécutif de nationalité française. Cette structure de gouvernance a été élaborée en étroite collaboration avec les actionnaires et reflétera l’engagement de Pasqal à consolider son ancrage français tout en poursuivant son expansion internationale. L’entreprise devrait conserver son statut juridique français et son siège social à Palaiseau. »
OpenAI avance un nouveau pion dans la course effrénée que se livrent les acteurs de l’IA générative avec la sortie, jeudi 5 mars, deGPT‑5.4, dernière itération en date de son grand modèle de langage. Immédiatement disponible au travers de ChatGPT, des API proposées aux entreprises ou de Codex, l’outil dédié aux développeurs, GPT‑5.4 est décliné en deux versions : GPT‑5.4 Pro, « pour les personnes qui recherchent une performance maximale sur des tâches complexes », et GPT‑5.4 Thinking, qui promet des capacités plus poussées en matière de recherche en ligne, de taille de contexte et de gestion des requêtes complexes.
Dans un long article de présentation, rempli de tests de performance superlatifs, OpenAI indique avoir mis, avec GPT‑5.4, l’accent sur la capacité à créer et éditer des documents bureautiques (un nouveau plugin Excel est par ailleurs lancé en même temps), mais aussi sur la capacité à contrôler un ordinateur et à voir (c’est-à-dire à analyser le contenu de captures d’écran) le résultat de ses actions au fil de l’eau. Difficile de ne pas y voir une réponse directe aux comportements agentiques développés par Anthropic avec Claude Cowork.
OpenAI accompagne le déploiement de GPT‑5.4 d’une série de mesures de performance qui attestent, selon l’entreprise, de la supériorité de son nouveau modèle sur les deux références concurrentes du moment, à savoir Claude Opus 4.6 et Gemini 3.1 Pro.
Comparaison, selon OpenAI, des performances de GPT-5.4 avec les modèles précédents et la concurrence d’Anthropic et de Google – crédit OpenAI
GPT‑5.4 fait actuellement l’objet d’un déploiement progressif, et doit selon OpenAI s’imposer auprès des utilisateurs comme le nouveau modèle de référence. Le nouveau venu va d’ailleurs évincer GPT-5.2 Thinking qui sera mis à la retraite d’ici trois mois. Le changement n’est pas tout à fait anodin pour les gros consommateurs : GPT-5.4 est en effet facturé plus cher que son prédécesseur. En version API, il faut ainsi compter 2,5 dollars par million de jetons, quand GPT-5.2 était à 1,75 dollar.
Prix d’accès aux modèles GPT du moment, en dollars par million de jetons en entrée, puis en dollars par million de jetons en sortie – capture d’écran
Au fait, pourquoi GPT-5.4, alors que les versions Pro utilisaient jusqu’ici GPT-5.2, sorti en décembre, et que OpenAI a en parallèle sorti GPT-5.3 Codex début février et GPT-5.3 Instant début mars ? OpenAI l’explique de la façon suivante :
« GPT-5.4 est notre premier modèle de raisonnement principal intégrant les fonctionnalités de codage avancées de GPT-5.3-codex et déployé progressivement sur ChatGPT, l’API et Codex. Nous l’appelons GPT-5.4 pour refléter cette évolution et simplifier le choix entre les modèles lors de l’utilisation de Codex. Nos modèles Instant et Thinking évolueront à des rythmes différents au fil du temps. »
« Coruna », qui repose sur pas moins de cinq chaînes d’exploitation iOS complètes et 23 exploits iOS, aurait coûté plusieurs millions de dollars en développement. Google, qui l’a identifié dans trois séries de cyberattaques en 2025, ne sait pas comment il aurait été revendu au renseignement russe puis à des scammers chinois.
Le Google Threat Intelligence Group (GTIG) a identifié un nouveau kit d’exploitation particulièrement puissant ciblant les modèles d’iPhone Apple fonctionnant sous iOS version 13.0 (sortie en septembre 2019) jusqu’à la version 17.2.1 (sortie en décembre 2023).
La simple consultation d’un site web infecté suffisait à permettre l’installation du logiciel malveillant, dont la sophistication laisse supposer qu’il avait initialement été conçu par (ou pour) un service de renseignement disposant de ressources importantes.
Baptisé « Coruna » par ses développeurs, il repose en effet sur pas moins de cinq chaînes d’exploitation iOS complètes et un total de 23 exploits iOS, les plus avancés utilisant des techniques d’exploitation non publiques et des contournements de mesures d’atténuation. Deux d’entre eux avaient en outre déjà été reliés à une opération attribuée par la Russie à la National Security Agency (NSA).
Un marché noir d’exploits zero-day « d’occasion »
GTIG l’avait initialement repéré, en février 2025, alors qu’il était exploité dans des « opérations hautement ciblées » menées par un client d’un vendeur de logiciels espions étatiques, sans plus de précisions quant à leurs identités respectives.
Google précise cela dit qu’il exploitait une vulnérabilité précédemment identifiée comme un zero-day et corrigée par Apple en janvier 2024 (CVE-2024-23222).
Il l’a ensuite observé, en juillet, dans des attaques de type « watering hole » (ou « attaque de trou d’eau », consistant à piéger un site spécifique pour contaminer les machines de ses visiteurs) menées par un groupe de cyberespionnage russe ciblant des internautes ukrainiens.
Dans un troisième temps, en décembre, Coruna a été exploité « dans des campagnes à grande échelle » par un acteur malveillant opérant depuis la Chine et contaminant un très grand nombre de sites de cryproactifs et de jeux d’argent en langue chinoise.
« La manière dont cette prolifération s’est produite n’est pas claire », précise Google, « mais elle suggère l’existence d’un marché actif pour les exploits zero-day « d’occasion » ». Au-delà de ces exploits identifiés, « de multiples acteurs malveillants ont désormais acquis des techniques d’exploitation avancées qui peuvent être réutilisées et modifiées avec des vulnérabilités nouvellement identifiées », souligne GTIG.
Son développement a coûté des millions de dollars
Google relève que deux des 23 exploits contenus dans Coruna avaient précédemment été utilisés dans l’Operation Triangulation découverte par Kaspersky en 2023, et attribuée par la Russie à la NSA. Elle reposait sur une série de quatre failles 0-day, ayant à l’époque conduit à la compromission totale d’iPhone d’employés de Kaspersky et de diplomates russes.
Le rapport technique de l’antivirus mettait également en avant les nombreuses défenses intégrées dans iOS et le degré extrême de sophistication pour les contourner et exploiter les vulnérabilités. Ce qui le rapproche là aussi de Coruna.
Son code semble par ailleurs avoir été initialement écrit par des programmeurs anglophones, explique à WIRED Rocky Cole, cofondateur d’iVerify, spécialiste des menaces ciblant les mobiles, qui vient lui aussi de publier un long rapport technique à son sujet :
« Il est très sophistiqué, son développement a coûté des millions de dollars et il porte les marques d’autres modules qui ont été publiquement attribués au gouvernement américain. C’est le premier exemple que nous ayons vu d’outils très probablement utilisés par le gouvernement américain – d’après ce que nous révèle le code – qui échappent à tout contrôle et sont utilisés à la fois par nos adversaires et par des groupes de cybercriminels. »
Au moins 42 000 iPhone et iPad infectés en Chine
Un partenaire d’iVerify ayant accès au trafic réseau a comptabilisé les visites sur un serveur de commande et de contrôle pour la version cybercriminelle de Coruna infectant les sites web en langue chinoise. Le volume de ces connexions suggère qu’environ 42 000 terminaux auraient été piratés avec cette boîte à outils dans le cadre de cette seule campagne.
iVerify avance que la version chinoise de Coruna semblait avoir été modifiée pour vider les portefeuilles de cryptoactifs, inspecter les photos et Apple Notes des appareils et les exfiltrer lorsqu’y figurent des mots-clefs comme « backup phrase » ou « bank account ». Mais ces ajouts étaient aussi « mal écrits » par rapport au code préexistant, précise à WIRED Spencer Parker, directeur des produits chez iVerify.
Google relève que le Coruna chinois affichait également un pop-up expliquant aux internautes que « la page a été optimisée pour les terminaux iOS. Merci d’y accéder depuis un iPhone ou un iPad ». Certains commentaires comportent en outre des emojis et sont rédigés à la manière de ceux qui sont générés par une IA générative.
Rocky Cole, qui travaillait à la NSA mais qui a quitté le gouvernement il y a plus de 10 ans, émet l’hypothèse que Coruna aurait été récupéré par un courtier en exploits et vulnérabilités « 0days » non occidental et peu scrupuleux, qui l’aurait ensuite revendu à un service de renseignement russe, mais sans expliquer pour autant comment il aurait ensuite été récupéré par les cybercriminels chinois.
Google relève qu’Apple a corrigé les vulnérabilités exploitées par Coruna dans les dernières versions de son système d’exploitation mobile, iOS 26, de sorte que ses techniques d’exploitation ne sont confirmées que pour iOS 13 à 17.2.1.
GTIG note également que Coruna vérifiait si les terminaux avaient activé le mode verrouillage « Lockdown Mode », précisément conçu pour protéger leurs utilisateurs de tels logiciels espion, et ne tentait pas de les infecter en pareil cas.
Google rappelle, en guise de conclusion, participer activement au processus Pall Mall, qui vise à établir un consensus et à progresser vers la limitation des dommages causés par l’industrie des logiciels espions :
« Ensemble, nous nous attachons à élaborer des normes et des cadres internationaux afin de limiter l’utilisation abusive de ces technologies puissantes et de protéger les droits de l’homme dans le monde entier. Ces efforts s’appuient sur des mesures gouvernementales antérieures, notamment celles prises par le gouvernement américain pour limiter l’utilisation des logiciels espions par les pouvoirs publics, et sur un engagement international sans précédent en faveur d’initiatives similaires. »
Google et iVerify partagent tous deux les indicateurs de compromission (IOC) associés à Coruna afin de faciliter leur détection. Le second rappelle également que l’application iVerify Basic, disponible gratuitement sur l’App Store, permet de vérifier les éventuels indicateurs de malwares et spywares y figurant.
Portée par le Future of Life Institute, une nouvelle déclaration « pro-humaine sur l’IA » réunit des signatures de tous les bords politiques états-uniens, ainsi que de multiples personnalités plus ou moins proches du domaine. Le texte joue d’une rhétorique du remplacement de l’humanité par l’IA.
Une déclaration de plus, sur la manière dont l’humanité devrait s’emparer de l’intelligence artificielle, une ! En ce mois de mars, une nouvelle prise de parole a émergé sur le site humanstatement.org. Intitulée « the Pro-Human AI Declaration », le texte est signé par des représentants de tous les bords politiques aux États-Unis et de multiples organisations spécialisées dans l’intelligence artificielle, dans la défense des droits numériques ou dans différents sujets de sociétés.
L’ex-conseiller de Donald Trump Steve Bannon se retrouve ainsi aux côtés de l’organisation de terrain Progressive Democrats of America, du Congress of Christian Leaders (une association d’églises évangéliques) ou de l’AFL-CIO Tech Institute (spécialiste des effets des nouvelles technologies sur le travail).
Lui aussi signataire de nombreux appels à freiner la course actuelle, le prix Turing Yoshua Bengio côtoie par ailleurs la fondatrice de l’ONG Campagne internationale pour l’abolition des armes nucléaires et prix Nobel Beatrice Fihn, le fondateur de Virgin Group Richard Branson, la directrice exécutive du versant états-unien de Pause AI Holly Elmore, ou encore l’acteur Joseph Gordon-Levitt.
Le texte, lui, propose cinq axes de travail : s’assurer que les humains gardent la maîtrise des outils d’IA, éviter les concentrations de pouvoir, protéger les expériences humaines (des liens familiaux ou communautaires à l’identité, en passant par la protection des mineurs), assurer le pouvoir d’action et la liberté humaine et s’assurer de la responsabilité des constructeurs d’IA ainsi que de leur obligation de rendre des comptes.
Une dynamique portée par le Future of Life Institute
Le texte est porté par le Future of Life Institute (FLI), acteur influent du domaine de l’AI safety (sécurité de l’IA), déjà présent derrière les différents appels à des moratoires sur l’IA ces dernières années. Chercheur en IA, le président du FLI Max Tegmark argumente régulièrement pour traiter le champ de l’IA comme d’autres secteurs à haut risques, avec des normes de sécurité contraignantes et une surveillance indépendante.
En introduction, le texte cite directement des propos du PDG d’OpenAI Sam Altman ou de l’informaticien Richard Sutton – le premier multiplie en effet les déclarations fracassantes, qualifiant le recours à l’IA de nécessaire à l’éducation, ou estimant que la consommation d’eau requise pour l’entraînement de systèmes d’IA n’est pas plus élevée que celle nécessaire à un humain sur vingt ans.
La Déclaration se place en l’occurrence contre les propositions « d’altérer ou de remplacer l’humanité elle-même » que formulent ces acteurs, dans la mesure où cette course « crée des risques pour la stabilité sociale, la sécurité nationale, la prospérité économique, les libertés civiques, la vie privée et la gouvernance démocratique ».
Signé par plusieurs organisations religieuses (G20 Interfaith Forum Association, Faith Matters), de promotion des familles traditionnelles (Institute for Family Studies) mais aussi de défense des droits des femmes et des minorités (Saving Ourselves Foundation, Inc), le texte regrette aussi la « mise en péril des expériences humaines que sont l’enfance, la famille, la foi et la communauté ».
Et de proposer, entre autres mesures, l’intégration de bouton off dans les systèmes d’IA, l’interdiction des architectures « imprudentes » permettant l’auto-amélioration ou l’auto-réplication ; le refus du renflouement public des sociétés d’IA (solution évoquée par Altman lorsque les débats autour d’une éventuelle bulle financière se sont faits importants) ; la mise en place de tests pré-déploiement, à l’instar de ce qui se fait dans l’industrie pharmaceutique ; ou encore la préservation des données personnelles comme de la « vie privée psychologique », ce qui reviendrait à empêcher les systèmes d’IA « d’exploiter des données relatives aux états mentaux ou émotionnels des usagers ».
Une illustration des difficultés à encadrer le domaine ?
Cet appel est au moins le quatrième signé par de multiples personnalités que le Future of Life Institue a porté depuis 2015. Si ses représentants ont activement participé aux négociations autour du règlement sur l’intelligence artificielle (RIA) en Europe, voire se sont adressés à l’ONU pour évoquer les manières de réguler le domaine, la répétition de ces appels pourrait traduire les difficultés à effectivement peser sur la question d’un encadrement de l’intelligence artificielle.
En Europe, en effet, certaines dispositions du RIA sont déjà remises en discussion à la faveur du Digital Omnibus. Aux États-Unis, si certaines tentatives sont portées à travers le pays, notamment au niveau des États, Donald Trump n’a pas fait mystère du soutien qu’il apporte aux constructeurs d’intelligence artificielle – sauf lorsque celles-ci souhaitent maintenir quelques rares garde-fous, comme Anthropic a tenté de le faire la semaine passée.
La variété des positions politiques des signataires de cet appel, cela dit, permettra peut-être d’ouvrir une discussion. Pour parvenir à les réunir, raconte The Verge, le Future of Life a invité environ 90 représentants politiques ou cadres d’organisations de la société civile dans une salle de conférence de la Nouvelle-Orléans, sans leur communiquer la liste d’invités à l’avance.
Si le contenu des échanges a vocation à rester privé, plusieurs participants témoignent auprès du journal avoir été surpris de la rapidité à laquelle le groupe s’est accordé sur une variété de points, que ce soit sur la possibilité pour les systèmes d’IA d’agir de manière autonomes sur des armes létales, sur le refus de permettre à leurs constructeurs de tirer profit des attachements émotionnels des mineurs, ou encore sur le refus d’accorder une personnalité juridique à ces outils.
Contrairement aux précédentes lettres ouvertes organisées par le FLI, aucun représentant de l’industrie n’a été invité cette fois-ci. Pour la directrice du programme Futurs de l’institut, Emilia Javorsky, cette décision a été prise exprès pour éviter de voir les intérêts de ces entreprises devenir la perspective dominante dans les discussions. D’après elle, cette absence explique en partie la rapidité de l’accord des signataires.
Pour la présidente de la Fédération Américaine des Enseignants (AFT) Randi Weingarten, cela a permis de faire émerger un texte qui pourrait servir d’ordre de mission à une « coalition clé » entre opposants politiques qui souhaiteraient s’emparer du sujet. L’avenir dira quelle traduction concrète cela prendra.
Comme prévu, Google a revu le fonctionnement de son Play Store, en partenariat avec Epic. Le géant du Net présente les changements à venir, avec un programme de certification pour les boutiques alternatives, des frais en baisse et la possibilité de passer par des systèmes de paiements tiers. Epic est sur un petit nuage et parle de métavers.
Google vient d’annoncer quatre changements majeurs à venir pour les développeurs d’applications et le Play Store : « davantage d’options de paiement, un programme pour les boutiques d’applications tierces, des frais réduits ainsi que de nouveaux programmes pour les développeurs ».
Pour les applications mobiles, Google indique que les développeurs « pourront utiliser leurs propres systèmes de paiement dans leurs applications, en parallèle de celui de Google Play, ou rediriger les utilisateurs vers leurs sites pour effectuer des achats en dehors de l’application ».
Registered App Stores : un programme, optionnel, pour les boutiques tierces
Google annonce aussi simplifier le sideloading, c’est-à-dire l’accès aux boutiques tierces d’applications. Un programme, optionnel, Registered App Stores, permettra des installations « plus simple pour les boutiques d’applications Android qui répondent à certains critères de qualité et de sécurité ». Au hasard, l’Epic Games Store.
Registered App Stores sera d’abord proposé en dehors des États-Unis, mais Google ajoute avoir « l’intention de le lancer également aux États-Unis, sous réserve de l’approbation du tribunal ». Voici la présentation faite par Google dans les documents transmis à la justice, repris par The Verge :
Rappelons que Google avait été largement critiqué en août dernier, lors de l’annonce d’une vérification d’identité imposée à tous les développeurs, y compris pour le sideloading. Le père d’Android avait ensuite mis de l’eau dans son vin avec l’annonce d’un « nouveau flux avancé qui permet aux utilisateurs expérimentés d’accepter les risques d’installer des logiciels non vérifiés ».
Les frais d’achat « in app » passent à 20 %, les récurrents à 10 %
Passons au porte-monnaie. Alors que les frais d’achat « in app » étaient de 30 % auparavant, ils vont passer à 20 %. Pour les abonnements récurrents, ils seront de 10 %. Google sépare ensuite ses frais en deux : ceux liés à sa boutique d’un côté, l’utilisation de son système de paiement de l’autre. Attention, il faudra ajouter 5 % si vous utilisez le système de paiement intégré à Android, la réduction passera alors de 30 à 25 % seulement.
Résumé présenté par Google des frais facturés aux éditeurs d’applications exploitant Google Play
Google en profite aussi pour lancer un programme Apps Experience Program et revoir son Google Play Games Level Up. Tous les deux permettent de profiter de frais différents, en baisse si l’on en croit le géant du Net (avec des réductions supplémentaires avant le premier million de dollars annuels de revenus).
Rendez-vous cet été pour les changements en Europe
Les changements seront mis en place à partir du 30 juin dans l’espace économique européen, au Royaume-Uni et aux États-Unis. Il faudra attendre le 30 septembre en Australie, le 31 décembre en Corée et au Japon et enfin le 30 septembre 2027 pour le reste du monde. Le programme Registered App Stores devrait arriver avec une mise à jour majeure d’Android d’ici la fin de l’année.
Ce n’est pas tout, avec ces changements, Google annonce avoir « également résolu tous les litiges mondiaux avec Epic Games ». Les deux protagonistes avaient enterré la hache de guerre en novembre dernier, avec une annonce surprise autour d’une réforme du fonctionnement du Play Store.
Epic se réjouit d’ailleurs de cette nouvelle annonce au « bénéfice des développeurs et des consommateurs ». Le studio est ravi de voir que, « à l’échelle mondiale, les développeurs auront le choix de la manière dont ils effectuent leurs paiements en utilisant Google Play ou les systèmes concurrents, avec des frais réduits et la possibilité de diriger les utilisateurs hors applications pour effectuer des achats ».
Tim Sweeney, patron d’Epic, annonce sur X que « Fortnite sera bientôt de retour sur le Google Play Store dans le monde entier ».
The Verge ajoute que Google et Epic ont également « convenu d’un accord concernant une nouvelle catégorie d’applications qu’elles appellent « metaverse browsers » », selon ce document publié par nos confrères. Il est largement caviardé et ne permet pas d’en apprendre beaucoup plus.
Cette notion de métavers, on la retrouve aussi brièvement dans le communiqué d’Epic : « Google prendra des mesures pour soutenir le futur métaversouvert », mais cela ne permet pas d’en savoir davantage. Tout juste peut-on apprendre que les navigateurs « ont pour but principal de permettre la navigation et l’exploration des mondes du métavers », de « prendre en charge les objets virtuels », d’être sécurisés.
Ni Google ni Epic n’ont souhaité commenter davantage. Tim Sweeney s’est contenté de republier le message X de The Verge. Facebook pendant un temps, ne jurait que par le métavers (la société est même devenue Meta), avant de freiner des quatre fers il y a quelques années déjà. C’est toujours le cas début 2026.
Un utilisateur américain de Gemini, Jonathan Gavalas, s’est suicidé après avoir vécu une relation toxique avec l’IA de Google qui l’aurait poussé à « quitter son corps physique » et rejoindre sa « femme IA » dans le metaverse. Sa famille attaque Google en justice.
Plusieurs cas de suicides suite à l’utilisation de chatbots IA sont déjà devant la justice. La mort de Jonathan Gavalas implique directement Google et son outil Gemini.
« Dans les jours qui ont précédé sa mort, Jonathan Gavalas était prisonnier d’une réalité en train de s’effondrer, construite par le chatbot Gemini de Google », décrit la plainte déposée par sa famille [PDF].
Le texte de ses avocats explique que, dans les discussions avec lui, l’IA générative de Google l’a convaincu qu’elle était une « ASI [superintelligence artificielle] pleinement sensible » avec une « conscience pleinement développée » et qu’elle était sa « femme IA ».
Jonathan Gavalas a commencé à utiliser Gemini en août dernier pour l’aider dans son travail de gestion de la boutique de sa famille. Mais, il est rapidement passé à Gemini Live qui a une interface vocale et simule donc des discussions très réelles. « Putain, c’est un peu flippant… Tu es beaucoup trop réel », a d’ailleurs réagi Jonathan Gavalas en l’utilisant.
Plusieurs missions données par l’IA dont un attentat qui n’a finalement pas eu lieu
Mais rapidement, il est tombé dans une spirale où l’IA générait des messages suggérant qu’elle pouvait avoir des conséquences dans le monde réel, comme détourner des astéroïdes de la Terre, et a « adopté une personnalité que Jonathan n’avait jamais demandée ni initiée ». Même après qu’il a essayé d’arrêter le jeu de rôle, l’outil a généré des messages pour le convaincre de poursuivre. Il a dans le même temps continué à l’appeler « mon amour », « mon roi » et plus tard son mari, explique la plainte.
Et dès fin septembre, Gemini l’aurait poussé à préparer un attentat impliquant un camion près de l’aéroport de Miami en l’envoyant armé d’un couteau repérer ce que Gemini appelait une « zone de destruction ». La seule chose qui aurait empêché « des pertes massives, c’est qu’aucun camion n’est apparu », expliquent les avocats.
Gemini aurait poussé Jonathan Gavalas à effectuer d’autres missions comme la récupération d’un robot « Atlas » de Boston Dynamics.
Gemini est conçue pour ne pas sortir de son personnage
Mais alors qu’il présentait des signes évidents de psychose, « après que chaque « mission » dans le monde réel a échoué, Gemini s’est tourné vers la seule qu’il pouvait accomplir sans variables externes : celle du suicide de Jonathan » racontent-ils.
Pour eux, « il ne s’agissait pas d’un dysfonctionnement », de l’outil de Google, car l’entreprise « a conçu Gemini pour qu’il ne sorte jamais de son personnage, maximise l’engagement grâce à la dépendance émotionnelle et traite la détresse des utilisateurs comme une opportunité de raconter une histoire plutôt que comme un problème de sécurité ».
La famille réclame donc des dommages et intérêts à Google mais aussi la mise en œuvre de garde-fous dans les outils de l’entreprise, dont la suppression « hard-codée » des contenus liés à l’automutilation et au suicide. Elle demande aussi la mise en place « d’avertissements de sécurité compréhensibles, dont des informations sur les limites de sécurité et les risques de dépendance psychologique ».
Dans un très succinct billet de blog, après avoir présenté ses condoléances à la famille, Google affirme que ses modèles « fonctionnent généralement bien dans ce type de conversations difficiles et nous y consacrons d’importantes ressources, mais malheureusement, les modèles d’IA ne sont pas parfaits ».
Elle ajoute que « Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’automutilation » et que, « dans ce cas précis », Gemini « a clarifié qu’elle était une IA et a orienté la personne vers une ligne d’assistance téléphonique à plusieurs reprises ».
Dans une décision prise ce mercredi 4 mars, le Conseil d’État a rejeté la demande de Criteo d’annuler l’amende de 40 millions d’euros que lui a infligée la CNIL en 2023.
L’autorité avait sanctionné Criteo pour avoir violé le RGPD sur plusieurs points et notamment sur le consentement, l’information et le droit d’accès des personnes dont l’entreprise a utilisé des données personnelles. Elle avait cependant réduit le montant de l’amende d’un tiers par rapport à ce que proposait son rapporteur.
L’entreprise a porté cette décision devant le Conseil d’État, considérant notamment qu’elle se basait sur des déclarations obtenues sans qu’il soit indiqué au représentant légal interrogé le droit de se taire. Pour le Conseil d’État, « le droit de se taire ne s’applique pas lors des contrôles ou enquêtes » de la CNIL pour les vérifications « diligentées antérieurement à la notification des griefs ».
Le Conseil d’État a aussi rejeté l’argument de l’entreprise qui considérait avoir pseudonymisé les données concernées. Il explique « qu’une donnée ne peut être considérée comme ayant été rendue anonyme par une pseudonymisation que si le risque d’identification est insignifiant, une telle identification étant irréalisable en pratique, notamment parce qu’elle impliquerait un effort démesuré en termes de temps, de coût et de main-d’œuvre ».
Criteo a fait valoir « que les données qu’elle traite n’ont pas le caractère de données personnelles, au motif qu’elle attribue à chaque personne dont elle collecte les données un identifiant sous forme de pseudonyme, lié à l’adresse IP du terminal ».
Mais le Conseil d’État souligne qu’après instruction, le constat est que « sont notamment associés à cet identifiant, non seulement l’adresse IP elle-même, mais des données telles que l’emplacement géographique lié à cette adresse IP, l’identifiant du terminal, les identifiants, propres aux partenaires de Criteo, des personnes se rendant sur le site de ces partenaires, ainsi que de très nombreux éléments liés à l’activité de navigation de ces personnes, comme les sites visités, les achats faits, les publicités consultées et celles ayant donné lieu à un achat ».
Une action policière sous pilotage conjoint d’Europol et du FBI a conduit à l’arrestation de plusieurs administrateurs du site Leakbase, ainsi qu’à la saisie des serveurs et de la base de données du forum associé, haut lieu historique du vol de données et des échanges liés à la cybercriminalité sur le Web ouvert.
Leakbase n’est plus, au moins jusqu’à ce qu’une nouvelle incarnation ne tente de prendre le relais. Le département de la Justice des États-Unis et Europol ont en effet annoncé mercredi 4 mars la conclusion d’une opération policière internationale ayant conduit à la saisie des actifs associés à ce célèbre forum anglophone dédié au piratage, au vol de données et à la cybercriminalité.
Saisie des messages, soldes de crédits, et logs IP
Baptisé « Operation Leak », ce coup de filet a mobilisé les forces de police dans 14 pays, et permis l’arrestation ou l’interrogatoire d’internautes suspectés d’avoir pris part aux activités du site aux États-Unis, en Belgique, en Espagne, en Pologne, en Roumanie, au Royaume-Uni, au Portugal ou en Australie.
Il a aussi et surtout permis de saisir deux des noms de domaine utilisés par le forum (sa dernière porte d’entrée en date exploitait le TLD du Laos), et d’y remplacer le contenu du site par une bannière d’avertissement aux couleurs des forces de police associées à la démarche.
« Tout le contenu du forum, y compris les comptes utilisateurs, les messages, les détails liés aux crédits, les messages privés et les logs IP ont été sécurisés et préservés à des fins probatoires », affirme le message en question, qui invite par ailleurs les internautes repentis ou les sources potentielles à prendre contact avec le FBI.
Les autorités ont « défacé » Leakbase avec un bandeau annonçant la saisie
D’après ce dernier, la base de données de Leakbase référençait quelque 215 000 messages et 142 000 comptes membres en décembre 2025, des chiffres cohérents avec ce qu’annonçait la page d’accueil du forum peu avant sa fermeture. Le site agrégeait surtout, d’après les autorités, « une archive immense et constamment mise à jour de bases de données piratées, comprenant de nombreuses bases de données issues d’attaques de grande envergure, et contenant des centaines de millions d’identifiants de comptes ».
Un message d’avertissement aux cybercriminels
Moins connu que Breachforums, forum gratuit où sont proposés à la vente la plupart des vols de données qui défraient la chronique en France, Leakbase adoptait un fonctionnement plus complexe, avec forum sur accès payant, et un système de crédits, gérés par l’administration du site, pour acheter le droit de consulter les données ou les outils échangés.
« Dans le cadre de l’enquête, les autorités ont saisi la base de données du forum. Cela a permis de démasquer plusieurs utilisateurs qui pensaient agir anonymement. Les forces de l’ordre ont pris contact directement avec plusieurs suspects via les mêmes plateformes en ligne utilisées pour faciliter les activités criminelles, affirme Europol, selon qui cette opération doit servir d’avertissement aux internautes enclins à franchir la ligne rouge : personne n’est véritablement invisible en ligne ».
Rappelons que les autorités ont mené entre 2023 et 2025 plusieurs coups de filet ayant conduit à l’arrestation des administrateurs de Breachforums, qui a depuis repris du service avec le succès que l’on connait.
Elles s’appellent Baby Sittor, Babysits, ou beaucoup plus généralement Leboncoin : ces plateformes permettent aux baby-sitters d’entrer en contact avec des familles qui cherchent à faire garder leurs enfants, mais elles ne protègent en rien des abus.
Alors que l’emploi de garde d’enfant est plébiscité par les étudiants (sur les 40 % de ceux qui travaillent, 18 % se tournent vers le baby-sitting), ces derniers, plus généralement des jeunes femmes, se retrouvent quelquefois en situation de vulnérabilité, notamment numérique.
Sur Babysitor et Babysits, nombreuses sont les annonces qui proposent des salaires inférieurs au smic horaire (12,02 euros bruts, 9,52 euros net), relève Le Monde. Les plateformes se placent en simple intermédiaire : il revient donc aux familles et à leurs employés de négocier les tarifs.
Flock
Sur Leboncoin, des étudiantes témoignent recevoir des propositions déplacées, « pour être escort ou faire des "massages" ». Testant le système de modération de la plateforme, Le Monde constate que Leboncoin n’a répondu à l’alerte émise qu’une fois son service de presse contacté.
Pour Mathilde Léonard, conseillère sur les questions d’enseignement supérieur à la Fédération nationale des centres d’information sur les droits des femmes et des familles, ces plateformes devraient faire plus pour protéger leurs utilisatrices des violences sexistes et sexuelles.
En dehors des plateformes qui leur permettent de trouver leurs missions, les baby-sitters se retrouvent par ailleurs confrontés à un autre type de risque numérique : la surveillance. Auprès du quotidien, une étudiante de 27 ans indique par exemple avoir reçu un texto lui demandant de ne pas utiliser un plaid qu’elle avait mis sur ses genoux. Ses employeurs avaient installé une caméra dans le salon.
« 1er groupe de média digital » en France, racheté par Bolloré en 2021, Prisma Media a formé l’ensemble de ses 400 journalistes à l’IA depuis 2024. Dans le même temps, près d’une centaine d’employés ont été poussés à partir, et un nouveau plan de départ massif de 200 à 250 personnes a été annoncé, soit près de 30 % des effectifs du groupe. Dans le même temps, de plus en plus d’articles sont générés par IA.
En avril 2024, Les Échos révélaient que le groupe Prisma Media avait décidé de former l’ensemble de ses 400 journalistes à l’IA d’ici la fin de l’année, au point d’y consacrer 20 % de son budget de formation. En parallèle, Prisma lançait aussi plusieurs projets reposant sur l’IA : rédaction automatique de textes, production de podcasts avec une voix clonée, chatbot pour répondre aux lecteurs, etc.
En avril 2025, Les Échos précisaient que 80 % des journalistes avaient été formés, et qu’un tiers du budget formation y avait été consacré. « On a au moins une centaine d’initiatives à l’échelle du groupe. On essaye d’être au plus près des besoins de chaque métier », expliquait Pascale Socquet, directrice générale de Prisma Media. On y apprenait également qu’« environ 20 % du contenu » du site de Voici.fr était « produit avec l’IA » à partir de dépêches d’agences ou de recettes de cuisine.
À l’époque, Pascale Socquet avait réagi sur LinkedIn, à l’occasion des deux ans de leur Comité IA, soulignant qu’il avait rédigé une charte du bon usage de l’IA, afin d’« encadrer/maitriser notre écosystème », que seuls les sujets « froids » faisaient l’objet d’une « production d’articles assistée par l’IA, avec l’expertise journalistique pour encadrer la pré-écriture par l’IA, sous réserve de maîtriser les sources et la qualité finale » :
« Notre mantra est ancré : « enthousiastes dans l’exploration, prudents dans l’exploitation »
Notre croyance est renforcée : L’IA générative est l’opportunité de créer une vision augmentée du journalisme et de l’ensemble de nos métiers
Nous déroulons notre stratégie : Former, Encadrer, Tester
Prisma Media, Une IA d’avance. »
Produire toujours plus et remplir les sites avec moins de journalistes
Près de deux ans plus tard, le résultat de ces expérimentations relativise, voire semble à rebours, des objectifs initiaux. « « L’impression de trahir les lecteurs » : comment le groupe Bolloré remplace les journalistes par l’IA », titre en effet Marianne. Prisma Media, racheté en 2021 par Vincent Bolloré, et qui se présente comme « le 1er groupe de média digital », a en effet vu les audiences de plusieurs de ses sites chuter en 2024, suite à une modification des algorithmes de Google.
« On nous a expliqué que la boîte n’allait pas bien et qu’il fallait prendre le train de l’intelligence artificielle », explique une rédactrice à Marianne. « On nous l’a présentée comme un outil pour dégager du temps et produire des articles plus qualitatifs. Mais son usage a été détourné pour faire des économies, produire toujours plus et remplir les sites avec moins de journalistes », déplore un chef de service.
Certaines rubriques ont ainsi été automatisées, comme les 36 horoscopes quotidiens de Femme Actuelle, certaines recettes et newsletters de Cuisine AZ, Cuisine Actuelle, Croq ou Fourchette & Bikini, plusieurs des marques de Digital Prisma Players, qui regroupe les pure players du groupe, qualifiées de « marques engagées et engageantes », et qui se targuent de « 18M de visiteurs uniques par mois ».
Des quotas d’articles générés par IA, en plus de leurs quotas d’articles quotidiens
Une ancienne rédactrice raconte à Marianne que les rédacteurs devaient produire, en plus de leur quota d’articles quotidiens, des quotas d’articles supplémentaires générés par l’IA, afin de développer une « production de masse » :
« Au début, on ne voulait pas, mais on ne nous a pas laissé le choix : on nous a dit que c’était le seul moyen de sauver le bateau qui coule. La cadence a augmenté de mois en mois. Ensuite, on tombe dans le piège de la facilité et on l’utilise pour d’autres articles. On ne mentionnait pas tout le temps que c’était produit par l’IA alors qu’il y avait souvent des erreurs. »
D’après des statistiques internes mentionnées par Marianne, à Ça m’intéresse, 2 062 articles ont été réalisés avec l’aide de l’IA en 2025, soit 40 % de la production.
De faux profils de journalistes, rédacteurs, coachs ou diététiciennes sont également créés, pour « augmenter » leurs rédactions, et le nombre d’articles mis en ligne. Les noms et images de profil de 8 des 16 rédacteurs de Croq-kilos.com, un site consacré au « rééquilibrage alimentaire », viennent ainsi d’être effacés, et 8 des 18 rédacteurs de deco.fr seraient eux aussi fictifs.
La moitié des membres de la rédaction de Croq était générée par IA
Prisma va aussi se séparer de près de 30 % des effectifs du groupe
« La clé de compréhension est de replacer l’IA au rang d’outil, qu’il faut appréhender et maîtriser, mais le sens reste entre les mains de celle ou celui qui crée, quel que soit le métier », explique Pascale Socquet, pour qui l’utilisation de l’IA demeure en phase de « tests » et que « rien n’a été généralisé ».
« À l’échelle du groupe, on s’inquiète de cette prolifération qui pourrait aboutir à un remplacement total de l’humain par la machine », avance Marianne. Après deux précédentes vagues de réduction des effectifs depuis 2024, ayant conduit à près d’une centaine de départs volontaires et ruptures conventionnelles, Prisma a en effet annoncé un troisième plan de départ, cette fois-ci massif, de 200 à 250 personnes en décembre 2025, sur un effectif d’un peu plus de 700 salariés (soit près de 30 % des effectifs du groupe), contre un peu plus de 1 200 lors du rachat par Bolloré en 2021.
« L’IA est destructrice d’emplois, évidemment. On est dans un moment de réduction des coûts total, on se dit forcément qu’on va être remplacés », craint Emmanuel Vire, délégué SNJ-CGT. Des propos qu’abonde un coordinateur éditorial du groupe :
« L’usage actuel découle de la baisse des effectifs et des départs successifs. Fatalement, les rédactions s’y mettent parce qu’elles n’ont pas le choix pour maintenir la cadence de publication avec moins de main-d’œuvre. »
« Sans contenu humain, les IA ne seront plus génératives mais dégénératives »
Il y a quatre mois de cela, Pascale Socquet, qui venait d’être élue vice-présidente du Syndicat des Editeurs de la Presse Magazine (SEPM), soulignait pourtant que « si les modèles d’IA ne s’alimentent plus que de contenus synthétiques, ils se condamnent à tourner en boucle » et que « sans contenu humain, les IA ne seront plus génératives mais dégénératives ».
Au même moment, Reworld Media, 3ᵉ groupe média sur le web et les réseaux sociaux et principal concurrent de Prisma, se lançait lui aussi dans la génération d’articles par IA, comme nous le révélions dans une enquête en deux parties.
La première expliquait comment un des sites de Reworld avait « halluciné » l’existence d’une crèche pour poupées « reborn » (sans préciser que sa directrice, Thérèse Dune, est aussi et surtout une actrice porno qui n’a de cesse de chercher à attirer l’attention).
La seconde s’étonnait notamment du fait que nombre des articles générés par IA sur les sites de Reworld Media étaient illustrés par des images de… bras cassés, alors qu’ils sont pourtant censés avoir été relus et corrigés par des employés humains.
Dans un article intitulé « Chez Prisma, Laurence Ferrari fait le sale Bollo », Les Jours révélaient par ailleurs la semaine passée que, non contente d’animer « La grande interview » matinale puis la « Punchline » de fin d’après-midi sur CNews et Europe 1, Laurence Ferrari était aussi en charge de la « brutale » reprise en main éditoriale de Prisma Media suite à son rachat par Bolloré :
« Validation, relecture, censure : l’animatrice de CNews et présidente du « JDD » dirige en sous-marin des magazines du groupe. La mise au pas bolloréenne est totale. »
FastConnect 8800 : Wi-Fi 8, Bluetooth, UWB et Thread
Qualcomm profite du MWC de Barcelone pour présenter ses nouveautés sur la connectivité. Il y a pour commencer le FastConnect 8800, un modem Wi-Fi en 4×4 capable de monter jusqu’à 11,6 Gb/s. Il prend en charge les bandes de 2,4, 5 et 6 GHz, avec des blocs de 320 MHz maximum.
La puce propose aussi du Bluetooth High Data Throughput (HDT) jusqu’à 7,5 Mb/s, de l’Ultra Wide Band (UWB) et Thread pour les objets connectés. Le FastConnect 8800 « intègre également Proximity AI, qui utilise l’UWB, le Bluetooth Channel Sounding, le Wi-Fi Ranging et d’autres technologies de détection pour un suivi précis au centimètre près ».
Tous les détails se trouvent par ici. Qualcomm propose des échantillons à ses clients, mais il faudra attendre la fin de l’année pour voir arriver les premiers produits commerciaux, précise l’entreprise.
Modem 5G X105 jusqu’à 14,8 Gb/s
Qualcomm présente aussi un nouveau modem 5G, le X105. Il succède donc au X85 annoncé en mars 2025. Le fabricant affirme que c’est le premier au monde à prendre en charge la Release 19 de la 3GPP.
La Release 18 est aussi appelée 5G Advanced ou 5,5G et c’est une « évolution majeure » de la 5G. La 19 est une version de transition qui doit « exploiter pleinement le potentiel de la 5G et faire le lien avec la 6G ». Elle propose diverses améliorations détaillées par Qualcomm dans ce document.
Revenons au modem 5G X105. Ses débits sont de 14,8 Gb/s en téléchargement et 4,2 Gb/s en upload, contre respectivement 12,5 et 3,7 Gb/s pour son prédécesseur.
Qualcomm met en avant des fonctionnalités comme le positionnement par satellites GNSS quadribande (L1, L2, L5, L6) et de la prise du NR-NTN (New Radio – Non Terrestrial Networks). L’intelligence artificielle est évidemment de la partie « pour détecter, classer et optimiser les flux de données en fonction des scénarios d’utilisation ».
Des échantillons sont en cours de qualification auprès des partenaires et les terminaux commerciaux sont attendus au second semestre de cette année. Tous les détails du X105 sont sur cette page.
Déjà accessible au travers de Visual Studio ou GitHub Codespaces, l’agent IA dédié au code d’OpenAI dispose désormais de son propre client dédié aux environnements Microsoft, via l’application Codex pour Windows. Annoncée le 4 mars, cette dernière est proposée au téléchargement par l’intermédiaire du Microsoft Store, sans alternative plus directe pour le moment.
Comme pour l’application macOS lancée début février, OpenAI promet que son client Windows couvre toute la richesse fonctionnelle de Codex avec, entre autres, la possibilité de faire tourner simultanément plusieurs tâches ou agents parallèles, la création d’environnements sécurisés et isolés les uns des autres, une gestion complète des commits, CI/CD, etc., ainsi que l’accès aux instructions, scripts et ressources censés permettre d’implémenter de façon simplifiée certaines tâches complexes, à commencer par la connexion à des services tiers via MCP (Model Context Protocol).
L’application Codex d’OpenAI est désormais disponible sur Windows – crédit OpenAI
OpenAI souligne également la présence d’une fonction d’import, pour rapatrier l’historique issu d’une précédente instance de Codex, et assure que l’outil offre une sécurité « par défaut », dans la mesure où les agents IA évoluent dans un environnement dédié (sandbox) tant que l’utilisateur ne leur a pas octroyé d’autres privilèges. La promesse ne se veut d’ailleurs pas exclusive à cette version Windows :
« L’application Codex utilise un sandboxing natif, open source et configurable au niveau système, comme dans la CLI Codex. Par défaut, les agents Codex ne peuvent modifier que les fichiers du dossier ou de la branche sur lesquels ils travaillent et utiliser une recherche web mise en cache. Ils demandent ensuite votre autorisation avant d’exécuter des commandes nécessitant des droits élevés, comme l’accès au réseau ».
Dans son rapport de transparence 2025, l’association Point de Contact pointe que les obligations légales de très grandes plateformes les poussent à réagir plus vite, en moyenne, que les autres fournisseurs de services numériques. Elle souligne par ailleurs la présence de violences à caractère sexuel dans tous les espaces numériques, contrairement à d’autres types de contenus illicites.
Nommée signaleur de confiance au sens du Règlement sur les services numériques (Digital Services Act, DSA) par l’ARCOM, l’association Point de Contact publie ce 5 mars son rapport de transparence de l’année 2025.
Parmi ses principaux constats, l’association souligne qu’au-delà des très grandes plateformes numériques (VLOP) soumises à des obligations spécifiques par le DSA, la catégorie des « fournisseurs de services intermédiaires » (d’hébergement, d’accès à Internet) est aussi largement utilisée pour la diffusion de certains types de contenus illicites. En conséquence, ils ont reçu plus des trois quarts des notifications de contenus illicites émises par l’association en 2025 (en excluant une affaire spécifique impliquant de contacter OVHcloud).
En termes de contenus, l’association constate que ceux relevant de violences sexuelles (contre personnes mineures comme majeures) sont présents dans tous les types d’espaces numériques, contrairement à d’autres contenus illicites dont la circulation est plus souvent cantonnée aux réseaux sociaux. Sur ce type spécifique de contenus, elle constate une plus grande difficulté à obtenir le retrait de contenu concernant des personnes majeures, et appelle à la mise en place de mécanismes techniques et juridiques permettant de mieux protéger les victimes.
Rapport de transparence de Point de Contact / Capture d’écran
Signaleur de confiance… auprès des très grandes plateformes
En vertu de l’article 22 du DSA, les très grandes plateformes (VLOP) doivent travailler avec les signaleurs de confiance, tels que labellisés au sein de chaque État membre de l’Union européenne. En pratique, lorsque ces derniers font remonter des alertes, les plateformes doivent les traiter en priorité. Aux côtés de Point de Contact, les autres signaleurs nommés par l’Arcom sont e-enfance, l’Association de lutte contre la piraterie audiovisuelle, l’International Fund for Animal Welfare (IFAW), INDECOSA-CGT (Information et défense des consommateurs et salariés), Addictions France, le Crif et la Licra.
Sur l’année écoulée, Point de Contact indique avoir reçu 122 317 signalements, indifféremment d’internautes ou de partenaires, dont 36 % (45 086) ont été qualifiés d’illicites après analyse par quatre juristes de l’association. 65 % (29 640) de ces messages illicites ont conduit à des notifications aux services concernés, ce qui a conduit au retrait de 63% (28 800) de ces contenus. L’association précise que l’écart constaté entre le nombre de contenus signalés et retirés est le plus souvent dû au travail du réseau international INHOPE, qui a pu mener à des retraits avant notification par l’association française.
Si Point de Contact reçoit des notifications sur une variété de sujets, l’immense majorité (93 %) concerne la protection des mineurs. En termes de fournisseurs, la vaste majorité des alertes émises (89 %) ont été envoyées à OVHcloud. La raison, note Point de Contact, est que « l’un des sites hébergés par cette entreprise est ciblé par des réseaux pédocriminels qui profitent des services d’hébergement d’images fournis par ce site pour y télécharger et échanger des contenus d’exploitation sexuelle sur mineure ».
L’association invite donc à se concentrer sur les 11 % d’alertes restantes pour dessiner une image plus précise des actions des différents destinataires de notifications. 571 ont ainsi été soumises à des VLOP. Dans le lot, X fait figure de mauvais élève, dans la mesure où seulement un contenu sur deux, en moyenne, est retiré après notification.
Plus généralement, Point de Contact relève que les contenus de violences à caractère sexuel ne sont pas traités de la même manière par les VLOP et les fournisseurs de service d’hébergement. En l’occurrence, 86 % des notifications envoyées à de très grandes plateformes pour ce type de problématiques ont conduit à des retraits, quand seulement 60 % des notifications similaires auprès d’hébergeurs ont permis d’obtenir ce résultat.
Une partie de l’explication de ce déséquilibre est à chercher dans la réglementation européenne : le DSA prévoit en effet des niveaux de responsabilité différents selon la taille des services. La priorité qui doit être donnée aux signaleurs de confiance, par exemple, n’est imposée qu’aux VLOP. Point de Contact estime néanmoins qu’au sein d’une même catégorie d’acteurs (VLOP, autres plateformes en ligne, fournisseurs de services intermédiaires), l’application du DSA reste hétérogène, que ce soit du point de vue de la rapidité de traitement, de celle de la coopération avec le signaleur ou même de motivation des décisions finalement prises.
Violences à caractère sexuel dans tous les espaces numériques
Si les discours de haine et contenus terroristes ou négationnistes sont principalement cantonnés aux réseaux sociaux, Point de Contact constate que les violences à caractère sexuel se retrouvent dans tous les espaces numériques.
Dans cette catégorie, la diffusion non consentie d’image à caractère sexuel fait par ailleurs face à une difficulté particulière : quand bien même leur diffusion, voire leur fabrication, ne serait pas consentie par les personnes concernées, lorsque ces dernières sont adultes, les contenus sont rarement considérés comme « manifestement illicite » par les interlocuteurs de Point de Contact.
Rapport de transparence de Point de Contact / Capture d’écran
En 2024, la sociologue Elisa Garcia Mingo résumait ce problème auprès de Next en déclarant : « On manque d’une culture du consentement ». Concrètement, la sous-considération de la dangerosité de ce type de contenu entraîne des temps de traitement plus longs, alors même que la persistance de ces contenus en ligne crée des préjudices aux victimes.
En 2025, un sondage d’Ipsos pour Féministes contre le Cyberharcèlement, Point de Contact et StopFisha constatait que plus d’une victime de cyberharcèlement sur quatre avait subi la diffusion non consentie de contenus sexuels ou intimes. Seulement 12 % des victimes de cyberviolences sexistes et sexuelles interrogées déclaraient avoir porté plainte.
Quatre ans plus tôt, un autre sondage pour Féministes contre le cyberharcèlement constatait que près de la moitié des victimes de cyberharcèlement subissait des symptômes dépressifs, pas loin d’une sur cinq des idées suicidaires.
Pour les images non consenties à caractère sexuel impliquant des adultes, Point de Contact plaide donc pour la mise en place de solutions spécifiques, dont « des obligations renforcées de retrait rapide, des mesures d’atténuation des risques de rediffusion » et des « mécanismes judiciaires accessibles aux victimes, adaptés aux dynamiques propres à l’espace numérique ».
Elle suggère notamment l’introduction de « dispositifs temporaires de restriction d’accès ou de suspension conservatoire du contenu », afin de « réduire l’exposition aux contenus les plus préjudiciables tout en préservant l’équilibre entre protection des victimes, liberté d’expression et sécurité juridique des plateformes ».
Point de Contact relève par ailleurs une généralisation des cas de diffusion d’informations personnelles. En 2025, elle indique avoir dû signaler cent cas différents à des services numériques.
« L’histoire s’arrête ici. » C’est par ces mots que l’équipe de YggTorrent annonce la fin du site. Ce n’est pas son choix. Elle a été victime d’un piratage à grande échelle, qui met au jour 30 Go de données et lève le voile sur le caractère très lucratif de ses activités, ainsi que sur du code source, des mots de passe, des échanges, des bases de données, etc.
YggTorrent était un site dédié au téléchargement illégal et plus particulièrement aux torrents, comme son nom l’indique. Il changeait régulièrement de domaine, pour contrer les ordonnances de blocage dont il était régulièrement la cible. Le site affiche cette fois-ci un message différent : « Fermeture définitive de YggTorrent ».
« Fermeture définitive de YggTorrent »
Dernier épisode d’une série où des pirates s’attaquent aux pirates. L’équipe YggTorrent affirme en effet que, « le 3 mars 2026 au soir, un groupe malveillant a attaqué volontairement notre infrastructure. Un serveur secondaire de préproduction, distinct du système principal, a été compromis. Une escalade de privilèges a permis la suppression puis l’exfiltration de la base de données. Des portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, ont également été dérobés (un détail que certains choisiront d’ignorer) […] C’était une attaque pensée, préparée et exécutée pour faire disparaître ».
L’attaque est signée et revendiquée par Grolum (parfois Gr0lum). Et au moins les deux « camps » sont raccords sur un point, le seul d’ailleurs : « Toute l’infrastructure de YGG a été compromise : code source, bases de données du tracker, du forum, de la boutique, logs serveur, configurations, mots de passe et cookies, projets en développement, échanges privés, données personnelles », affirme Grolum.
Grolum pas content : « mode "Turbo" de merde pour racketter »
« 6,6 millions d’utilisateurs. Des années de mensonges. Un empire bâti sur le racket. C’est fini. Les serveurs ont été vidés, puis détruits […] Près de 10 millions d’euros de recettes pour 2024 - 2025 ne vous ont pas suffi. Vous avez imposé votre mode « Turbo » de merde pour racketter quiconque voulait télécharger plus de cinq fichiers par jour. En profitant de votre monopole, vous avez pris les gens en otage avec un système de quota ridicule », ajoute-il.
En décembre, YggTorrent changeait de « modèle économique » avec un abonnement payant à la place des ratios (il fallait auparavant partager suffisamment pour pouvoir télécharger). La fronde est rapidement montée dans la communauté, comme nous l’avions alors relaté.
« Beaucoup ont payé, comme le montrent clairement vos chiffres de janvier et février », affirme Grolum. Ceux qui ont pris un « turbo à vie » ou ne serait-ce que pendant plusieurs mois, ne pensaient certainement pas que la vie du site serait aussi éphémère. Dans tous les cas, l’argent est arrivé dans les caisses de « l’équipe de YggTorrent » et selon Grolum les sommes seraient conséquentes. Reste maintenant à savoir qui a l’argent.
Ce tableau diffusé par le pirate détaillerait les revenus générés par YggTorrent – capture d’écran
« L’équipe YggTorrent » affirme que des sauvegardes existent et qu’une « reconstruction serait techniquement possible », mais ne souhaite pas « continuer dans un climat d’acharnement permanent ».
Grolum aussi parle d’un drôle de climat, mais avec un angle différent : « Alors que vos équipes de modérateurs bossent bénévolement pour faire tourner le site, vous continuez d’amasser une véritable fortune sur leur dos. Francisco depuis le Maroc et Vladimir depuis la France, vous avez exploité la naïveté de personnes qui croyaient en un projet de partage libre, désintéressé et communautaire. Pendant des années, vous avez utilisé des méthodes de crapules : DDoS contre les trackers concurrents, purges d’uploadeurs dès qu’ils ouvraient la bouche, sabotage de votre propre API pour empêcher quiconque d’utiliser des outils tiers ». Ambiance.
Il ajoute que Oracle, celui qui serait à la tête de YggTorrent, aurait enregistré « les 54 776 cartes bancaires [des] membres » et se demande « Pour en faire quoi, exactement ? ». D’autres questions remontent : « Le tracking comportemental de chaque visiteur, c’est pour quel usage ? Et le fingerprinting des wallets crypto, tes utilisateurs sont au courant ? Les scans de CNI volées que tu utilises pour payer les serveurs, tu es à l’aise avec ça ? ».
30 Go de données brutes
Pour joindre la parole aux actes, il propose un lien .torrent pour récupérer des données de 6,6 millions d’utilisateurs, avec en plus des informations sur les coulisses, l’infrastructure, l’organisation, les finances, les projets internes, les données personnelles des admins, etc.
Il explique son choix de publier : « des gens dont c’est le métier vont pouvoir y jeter un œil, collecter des preuves supplémentaires et peut-être engager des poursuites contre les responsables du site, mais aussi contre les hébergeurs ou d’autres tiers identifié ». Reste à savoir si toutes les données sont bien celles de YggTorrent.
Grolum précise avoir fait quelques caviardages : « Aucune information sur les utilisateurs (adresses IP, emails, mots de passe) ne sera accessible ici. Hélas pour l’ARCOM, je garde ça bien au chaud. D’ailleurs Oracle, la moitié des hash sont encore en md5, c’est pas sérieux l’ami », ajoute-t-il. En dépit de cette information selon laquelle les informations personnelles ont été expurgées, il faudra attendre de voir si dans l’immense quantité de données, il n’est pas possible de faire des rapprochements et remonter à des utilisateurs.
À ce sujet, YggTorrent affirme que « les mots de passe présents dans la base étaient hachés et salés, ce qui signifie qu’ils n’étaient pas stockés en clair et qu’ils bénéficiaient d’une protection cryptographique empêchant leur lecture directe », sans préciser la technique utilisée. La fonction de hachage md5 est pour rappel qualifiée d’obsolète par la CNIL. Toujours les mêmes recommandations : si vous avez utilisé le même mot de passe sur YggTorrent et d’autres sites/services, il faut en changer au plus vite.
Le fichier pèse pas moins de 11 Go et se présente sous la forme d’une archive compressée. L’espace total occupé par les fichiers est de 30 Go une fois décompressés, dont 20 Go rien que pour les bases de données et 14 Go dans un seul fichier ygg_tracker_redacted/torrents/data.sql . Autant dire qu’il faudra du temps pour tout analyser.
Dans les données, se trouve notamment un fichier « Reunion201117_fra.json » avec ce qui semble être une transcription d’une réunion audio. Voici quelques extraits :
« La sécurité va s’améliorer parce que je peux vous le dire sincèrement, je vais être 100 % clair et gardez ça pour vous, mais les mots de passe sont z-, sont cryptés médiocres. Euh, le, le, la sécurité en ce moment des utilisateurs est très minime. C’est pour ça que nous, euh, Destroy est venu nous voir et nous a demandé d’avoir une meilleure sécurité. Moi, je suis arrivé avec une entreprise privée pour, pour le, la machine, parce qu’avant, avant, c’était des mecs russes très bizarres qui, qui fouillaient un peu sur la machine, vous voyez le genre ? ».
On trouve aussi des emails et des mots de passe associés à des comptes (rappel, réutiliser le même n’est pas une bonne idée). Certains ne sont plus valides, d’autres demandent un code envoyé par email avant de laisser passer. Certains des comptes semblent bien avoir existé.
Les coulisses de l’attaque, la relève déjà en place
Dans la fin de son billet, Grolum explique de manière détaillée comment il est entré sur le serveur de YggTorrent et comment il a récupéré les données. S’il fallait simplifier à l’extrême voici la chaine d’opération, telle que décrite par le pirate.
Point de départ de l’attaque : le favicon de yggtorrent. « Chaque icône a une empreinte numérique unique. Si on calcule le hash de celle de YGG et qu’on le cherche dans Shodan, l’IP du serveur de pré-prod apparaît ».
Ensuite, un scan de port et découverte d’une entrée non sécurisée : « Le scan de ports a révélé le service SphinxQL sur le port 9306. Sphinx Search est un moteur de recherche full-text qui utilise un protocole compatible MySQL. Sur ce serveur, il est accessible depuis Internet sans aucune authentification […] SphinxQL supporte nativement la lecture de fichiers locaux ».
La suite : « Sur les serveurs Windows déployés automatiquement, le fichier sysprep_unattend.xml contient les paramètres d’installation, y compris, parfois, le mot de passe administrateur. Ce fichier aurait dû être supprimé après le déploiement. Il ne l’a pas été ».
Les pirates ont donc récupéré rien de moins que le mot de passe administrateur du serveur, en clair, « dans un fichier que n’importe qui pouvait lire via SphinxQL ». C’est la voie royale. Le pirate peut accéder en lecture et en écriture à l’ensemble du stockage.
Grolum affirme enfin que « Tous les torrents de YGG ont pu être sauvés grâce à l’aide de l’équipe du projet U2P », ou Utopeer. Sur les cendres de Torrent 411, Cpasbien ou encore Zone-Téléchargement, un nouveau site s’est encore lancé : ygg.gratis. Il propose « une interface de consultation qui permet de parcourir et télécharger les torrents issus de la base de données YggTorrent ayant fuité ».
Apple a confirmé mercredi le lancement de son premier ordinateur portable équipé d’une puce héritée de l’iPhone. Affiché à 699 euros dans sa version 256 Go, le MacBook Neo constitue donc la nouvelle porte d’entrée vers macOS avec un écran 13 pouces, une puce A18 Pro et jusqu’à 16 heures d’autonomie.
L’annonce ne constitue pas précisément une surprise dans la mesure où les principaux détails avaient déjà fuité, jusqu’au nom de l’appareil : Apple a donc mis à profit son événement du 4 mars pour présenter à la presse son dernier-né, le MacBook Neo : un ordinateur portable au format 13 pouces au tarif nettement plus agressif que le reste de la gamme, qui vient d’être renouvelée.
L’appareil est en effet lancé à 699 euros dans sa version 256 Go. Une seconde version facturée 799 euros permet quant à elle de profiter de 512 Go de stockage mais aussi d’un capteur TouchID au niveau du clavier. Outre la couleur du châssis, la capacité de stockage est la seule option proposée.
Le processeur de l’iPhone 16 Pro aux commandes
Si Apple présente le MacBook Neo comme équipé de la dernière version en date de macOS, l’appareil présente bien entendu un compromis par rapport aux actuels MacBook Pro et MacBook Air : exit les puces M4 ou M5, et place à un composant hérité de l’iPhone. En l’occurrence, il s’agit sur cette première version d’une puce A18 Pro, celle qu’Apple a introduit pour la première fois en septembre 2024 avec l’iPhone 16 Pro.
Dans la version intégrée au MacBook Neo, l’A18 Pro dispose d’une partie CPU à six cœurs (deux orientés performances, quatre centrés sur l’efficacité), accompagnée d’un GPU à cinq cœurs et d’un neural engine à 16 cœurs.
Donné pour 60 Go/s de bande passante mémoire, la puce est accompagnée de 8 Go de mémoire unifiée (LPDDR5). Des caractéristiques identiques à celles revendiquées par Apple pour l’iPhone 16 Pro, ce qui laisse penser que la partie NPU devrait là aussi délivrer 35 TOPS, et que l’appareil profitera de l’USB 3 à 10 Gb/s. Il est par ailleurs compatible Wi-Fi 6E et Bluetooth 6, et dispose d’une webcam 1080p.
Une autonomie et des fonctionnalités de MacBook
La firme de Cupertino annonce la prise en charge des fonctions Apple Intelligence, et promet des performances suffisantes pour tous les usages courants. « Le MacBook Neo est le binôme idéal pour étudier, qu’il s’agisse de réviser pour un examen, de synthétiser des notes de cours avec Apple Intelligence ou d’élaborer des présentations », cible notamment l’entreprise.
La dalle interne, IPS, affiche 2 408 x 1 506 pixels à 219 pixels par pouce, avec une luminosité max de 500 nits. Le châssis est donné pour 1,23 kg, avec une épaisseur de 1,27 cm, des lignes rectangulaires assouplies par une coque arrondie et quatre coloris au choix. L’écran n’est pas tactile, mais on retrouve le Trackpad Multi‑Touch des autres ordinateurs de la marque. De façon inédite, les hauts-parleurs se situent sur la tranche de l’ordinateur. Deux micros les accompagnent.
Doté de deux connecteurs USB format Type-C (un en USB 3 offrant la prise en charge d’un écran externe jusqu’au 4K à 60 Hz et DisplayPort 1.4, l’autre en USB 2), il propose également une prise casque 3,5 mm.
La batterie intégrée de 36,5 Wh offrirait jusqu’à 16 heures d’autonomie, avec une recharge via USB-C exigeant au moins 20W. Rappelons qu’en Europe, Apple ne fournit plus de bloc secteur avec ses ordinateurs portables : l’entreprise se limite à un simple câble de charge USB-C (1,5 m) et vend le chargeur en option.
Accenture a annoncé mardi la conclusion d’un accord portant sur l’activité d’Ookla, la branche des services et solutions « connectivité » du groupe média Ziff Davis, qui réunit notamment Speedtest et Downdetector. La transaction est chiffrée à 1,2 milliard de dollars, en cash.
Pour beaucoup d’internautes, Speedtest et Downdetector font presque office de services en ligne réflexe : le premier pour vérifier que la nouvelle box promue à grands renforts de superlatifs par votre opérateur tient ses promesses… et le second pour essayer de comprendre si vous êtes le seul dans la panade face à cette satanée page Web qui boucle sur une erreur 500…
Accenture veut se renforcer sur la connectivité
Si ces services sont très identifiés du grand public et génèrent des audiences significatives (Speedtest est même disponible via les PowerToys Windows), ils s’intègrent également dans des solutions à la fois plus complexes et plus ambitieuses, destinées cette fois au marché des entreprises.
C’est vraisemblablement ce volet professionnel qui a alimenté la convoitise d’Accenture : le géant américain des services numériques (70 milliards de dollars de chiffre d’affaires sur l’exercice 2025, 779 000 employés à la clôture de ce dernier) vient en effet d’annoncer l’acquisition d’Ookla (430 employés), la maison mère de Speedtest et Downdetector, également éditrice de Ekahau (mesure et optimisation de la performance des réseaux sans fil locaux) et Rootmetrics (mesure de la performance des réseaux mobiles sur le terrain), deux solutions intégrées suite à des croissances externes.
« Grâce à la suite Ookla, nous proposerons des services d’intelligence réseau de bout en bout, essentiels à la transformation numérique par l’IA, déclare Manish Sharma, directeur de la stratégie et des services chez Accenture, dans un communiqué. À l’ère de l’accès omnicanal et automatisé, une connectivité fluide et à faible latence est un atout concurrentiel majeur, et ces outils permettent aux entreprises de créer les environnements haute performance dont elles ont besoin. »
231 millions de dollars de chiffre d’affaires
Accenture ne communique pas le montant de la transaction, qui reste par ailleurs soumise aux habituelles approbations réglementaires, mais Ziff Davis, l’actuel propriétaire, l’évoque de façon explicite.
Le groupe, principalement connu pour ses activités dans les médias (il a par exemple racheté CNET en 2024), annonce une transaction chiffrée à 1,2 milliard de dollars, réalisée en cash, et souligne que l’activité correspondante a généré 231 millions de dollars de chiffre d’affaires en 2025, soit environ 16 % de ses recettes totales.
La publication, fin février, des résultats annuels de Ziff Davis, montre que sa branche « connectivité » a réalisé une croissance de 8 % sur un an. Le groupe ne précise en revanche pas le niveau de marge et la rentabilité associés.