Vue normale

« Un empire bâti sur le racket » : YggTorrent ferme, 30 Go de données dans la nature

4 mars 2026 à 16:48
« Un empire bâti sur le racket » : YggTorrent ferme, 30 Go de données dans la nature

« L’histoire s’arrête ici. » C’est par ces mots que l’équipe de YggTorrent annonce la fin du site. Ce n’est pas son choix. Elle a été victime d’un piratage à grande échelle, qui met au jour 30 Go de données et lève le voile sur le caractère très lucratif de ses activités, ainsi que sur du code source, des mots de passe, des échanges, des bases de données, etc.

YggTorrent était un site dédié au téléchargement illégal et plus particulièrement aux torrents, comme son nom l’indique. Il changeait régulièrement de domaine, pour contrer les ordonnances de blocage dont il était régulièrement la cible. Le site affiche cette fois-ci un message différent : « Fermeture définitive de YggTorrent ».

« Fermeture définitive de YggTorrent »

Dernier épisode d’une série où des pirates s’attaquent aux pirates. L’équipe YggTorrent affirme en effet que, « le 3 mars 2026 au soir, un groupe malveillant a attaqué volontairement notre infrastructure. Un serveur secondaire de préproduction, distinct du système principal, a été compromis. Une escalade de privilèges a permis la suppression puis l’exfiltration de la base de données. Des portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, ont également été dérobés (un détail que certains choisiront d’ignorer) […] C’était une attaque pensée, préparée et exécutée pour faire disparaître ».

L’attaque est signée et revendiquée par Grolum (parfois Gr0lum). Et au moins les deux « camps » sont raccords sur un point, le seul d’ailleurs : « Toute l’infrastructure de YGG a été compromise : code source, bases de données du tracker, du forum, de la boutique, logs serveur, configurations, mots de passe et cookies, projets en développement, échanges privés, données personnelles », affirme Grolum.

Grolum pas content : « mode "Turbo" de merde pour racketter »

« 6,6 millions d’utilisateurs. Des années de mensonges. Un empire bâti sur le racket. C’est fini. Les serveurs ont été vidés, puis détruits […] Près de 10 millions d’euros de recettes pour 2024 - 2025 ne vous ont pas suffi. Vous avez imposé votre mode « Turbo » de merde pour racketter quiconque voulait télécharger plus de cinq fichiers par jour. En profitant de votre monopole, vous avez pris les gens en otage avec un système de quota ridicule », ajoute-il.

En décembre, YggTorrent changeait de « modèle économique » avec un abonnement payant à la place des ratios (il fallait auparavant partager suffisamment pour pouvoir télécharger). La fronde est rapidement montée dans la communauté, comme nous l’avions alors relaté.

« Beaucoup ont payé, comme le montrent clairement vos chiffres de janvier et février », affirme Grolum. Ceux qui ont pris un « turbo à vie » ou ne serait-ce que pendant plusieurs mois, ne pensaient certainement pas que la vie du site serait aussi éphémère. Dans tous les cas, l’argent est arrivé dans les caisses de « l’équipe de YggTorrent » et selon Grolum les sommes seraient conséquentes. Reste maintenant à savoir qui a l’argent.

Ce tableau diffusé par le pirate détaillerait les revenus générés par YggTorrent – capture d’écran

« L’équipe YggTorrent » affirme que des sauvegardes existent et qu’une « reconstruction serait techniquement possible », mais ne souhaite pas « continuer dans un climat d’acharnement permanent ».

Grolum aussi parle d’un drôle de climat, mais avec un angle différent : « Alors que vos équipes de modérateurs bossent bénévolement pour faire tourner le site, vous continuez d’amasser une véritable fortune sur leur dos. Francisco depuis le Maroc et Vladimir depuis la France, vous avez exploité la naïveté de personnes qui croyaient en un projet de partage libre, désintéressé et communautaire. Pendant des années, vous avez utilisé des méthodes de crapules : DDoS contre les trackers concurrents, purges d’uploadeurs dès qu’ils ouvraient la bouche, sabotage de votre propre API pour empêcher quiconque d’utiliser des outils tiers ». Ambiance.

Il ajoute que Oracle, celui qui serait à la tête de YggTorrent, aurait enregistré « les 54 776 cartes bancaires [des] membres » et se demande « Pour en faire quoi, exactement ? ». D’autres questions remontent : « Le tracking comportemental de chaque visiteur, c’est pour quel usage ? Et le fingerprinting des wallets crypto, tes utilisateurs sont au courant ? Les scans de CNI volées que tu utilises pour payer les serveurs, tu es à l’aise avec ça ? ».

30 Go de données brutes

Pour joindre la parole aux actes, il propose un lien .torrent pour récupérer des données de 6,6 millions d’utilisateurs, avec en plus des informations sur les coulisses, l’infrastructure, l’organisation, les finances, les projets internes, les données personnelles des admins, etc.

Il explique son choix de publier : « des gens dont c’est le métier vont pouvoir y jeter un œil, collecter des preuves supplémentaires et peut-être engager des poursuites contre les responsables du site, mais aussi contre les hébergeurs ou d’autres tiers identifié ». Reste à savoir si toutes les données sont bien celles de YggTorrent.

Grolum précise avoir fait quelques caviardages : « Aucune information sur les utilisateurs (adresses IP, emails, mots de passe) ne sera accessible ici. Hélas pour l’ARCOM, je garde ça bien au chaud. D’ailleurs Oracle, la moitié des hash sont encore en md5, c’est pas sérieux l’ami », ajoute-t-il. En dépit de cette information selon laquelle les informations personnelles ont été expurgées, il faudra attendre de voir si dans l’immense quantité de données, il n’est pas possible de faire des rapprochements et remonter à des utilisateurs.

À ce sujet, YggTorrent affirme que « les mots de passe présents dans la base étaient hachés et salés, ce qui signifie qu’ils n’étaient pas stockés en clair et qu’ils bénéficiaient d’une protection cryptographique empêchant leur lecture directe », sans préciser la technique utilisée. La fonction de hachage md5 est pour rappel qualifiée d’obsolète par la CNIL. Toujours les mêmes recommandations : si vous avez utilisé le même mot de passe sur YggTorrent et d’autres sites/services, il faut en changer au plus vite.

Le fichier pèse pas moins de 11 Go et se présente sous la forme d’une archive compressée. L’espace total occupé par les fichiers est de 30 Go une fois décompressés, dont 20 Go rien que pour les bases de données et 14 Go dans un seul fichier ygg_tracker_redacted/torrents/data.sql . Autant dire qu’il faudra du temps pour tout analyser.

Dans les données, se trouve notamment un fichier « Reunion201117_fra.json » avec ce qui semble être une transcription d’une réunion audio. Voici quelques extraits :

« La sécurité va s’améliorer parce que je peux vous le dire sincèrement, je vais être 100 % clair et gardez ça pour vous, mais les mots de passe sont z-, sont cryptés médiocres. Euh, le, le, la sécurité en ce moment des utilisateurs est très minime. C’est pour ça que nous, euh, Destroy est venu nous voir et nous a demandé d’avoir une meilleure sécurité. Moi, je suis arrivé avec une entreprise privée pour, pour le, la machine, parce qu’avant, avant, c’était des mecs russes très bizarres qui, qui fouillaient un peu sur la machine, vous voyez le genre ? ».

On trouve aussi des emails et des mots de passe associés à des comptes (rappel, réutiliser le même n’est pas une bonne idée). Certains ne sont plus valides, d’autres demandent un code envoyé par email avant de laisser passer. Certains des comptes semblent bien avoir existé.

Les coulisses de l’attaque, la relève déjà en place

Dans la fin de son billet, Grolum explique de manière détaillée comment il est entré sur le serveur de YggTorrent et comment il a récupéré les données. S’il fallait simplifier à l’extrême voici la chaine d’opération, telle que décrite par le pirate.

Point de départ de l’attaque : le favicon de yggtorrent. « Chaque icône a une empreinte numérique unique. Si on calcule le hash de celle de YGG et qu’on le cherche dans Shodan, l’IP du serveur de pré-prod apparaît ».

Ensuite, un scan de port et découverte d’une entrée non sécurisée : « Le scan de ports a révélé le service SphinxQL sur le port 9306. Sphinx Search est un moteur de recherche full-text qui utilise un protocole compatible MySQL. Sur ce serveur, il est accessible depuis Internet sans aucune authentification […] SphinxQL supporte nativement la lecture de fichiers locaux ».

La suite : « Sur les serveurs Windows déployés automatiquement, le fichier sysprep_unattend.xml contient les paramètres d’installation, y compris, parfois, le mot de passe administrateur. Ce fichier aurait dû être supprimé après le déploiement. Il ne l’a pas été ».

Les pirates ont donc récupéré rien de moins que le mot de passe administrateur du serveur, en clair, « dans un fichier que n’importe qui pouvait lire via SphinxQL ». C’est la voie royale. Le pirate peut accéder en lecture et en écriture à l’ensemble du stockage.

Grolum affirme enfin que « Tous les torrents de YGG ont pu être sauvés grâce à l’aide de l’équipe du projet U2P », ou Utopeer. Sur les cendres de Torrent 411, Cpasbien ou encore Zone-Téléchargement, un nouveau site s’est encore lancé : ygg.gratis. Il propose « une interface de consultation qui permet de parcourir et télécharger les torrents issus de la base de données YggTorrent ayant fuité ».

Apple lance son MacBook Neo avec une puce d’iPhone, à partir de 699 euros

4 mars 2026 à 15:17
Le "continuum" Apple à son paroxysme ?
Apple lance son MacBook Neo avec une puce d’iPhone, à partir de 699 euros

Apple a confirmé mercredi le lancement de son premier ordinateur portable équipé d’une puce héritée de l’iPhone. Affiché à 699 euros dans sa version 256 Go, le MacBook Neo constitue donc la nouvelle porte d’entrée vers macOS avec un écran 13 pouces, une puce A18 Pro et jusqu’à 16 heures d’autonomie.

L’annonce ne constitue pas précisément une surprise dans la mesure où les principaux détails avaient déjà fuité, jusqu’au nom de l’appareil : Apple a donc mis à profit son événement du 4 mars pour présenter à la presse son dernier-né, le MacBook Neo : un ordinateur portable au format 13 pouces au tarif nettement plus agressif que le reste de la gamme, qui vient d’être renouvelée.

L’appareil est en effet lancé à 699 euros dans sa version 256 Go. Une seconde version facturée 799 euros permet quant à elle de profiter de 512 Go de stockage mais aussi d’un capteur TouchID au niveau du clavier. Outre la couleur du châssis, la capacité de stockage est la seule option proposée.

Le processeur de l’iPhone 16 Pro aux commandes

Si Apple présente le MacBook Neo comme équipé de la dernière version en date de macOS, l’appareil présente bien entendu un compromis par rapport aux actuels MacBook Pro et MacBook Air : exit les puces M4 ou M5, et place à un composant hérité de l’iPhone. En l’occurrence, il s’agit sur cette première version d’une puce A18 Pro, celle qu’Apple a introduit pour la première fois en septembre 2024 avec l’iPhone 16 Pro.

Dans la version intégrée au MacBook Neo, l’A18 Pro dispose d’une partie CPU à six cœurs (deux orientés performances, quatre centrés sur l’efficacité), accompagnée d’un GPU à cinq cœurs et d’un neural engine à 16 cœurs.

Donné pour 60 Go/s de bande passante mémoire, la puce est accompagnée de 8 Go de mémoire unifiée (LPDDR5). Des caractéristiques identiques à celles revendiquées par Apple pour l’iPhone 16 Pro, ce qui laisse penser que la partie NPU devrait là aussi délivrer 35 TOPS, et que l’appareil profitera de l’USB 3 à 10 Gb/s. Il est par ailleurs compatible Wi-Fi 6E et Bluetooth 6, et dispose d’une webcam 1080p.

Une autonomie et des fonctionnalités de MacBook

La firme de Cupertino annonce la prise en charge des fonctions Apple Intelligence, et promet des performances suffisantes pour tous les usages courants. « Le MacBook Neo est le binôme idéal pour étudier, qu’il s’agisse de réviser pour un examen, de synthétiser des notes de cours avec Apple Intelligence ou d’élaborer des présentations », cible notamment l’entreprise.

La dalle interne, IPS, affiche 2 408 x 1 506 pixels à 219 pixels par pouce, avec une luminosité max de 500 nits. Le châssis est donné pour 1,23 kg, avec une épaisseur de 1,27 cm, des lignes rectangulaires assouplies par une coque arrondie et quatre coloris au choix. L’écran n’est pas tactile, mais on retrouve le Trackpad Multi‑Touch des autres ordinateurs de la marque. De façon inédite, les hauts-parleurs se situent sur la tranche de l’ordinateur. Deux micros les accompagnent.

Doté de deux connecteurs USB format Type-C (un en USB 3 offrant la prise en charge d’un écran externe jusqu’au 4K à 60 Hz et DisplayPort 1.4, l’autre en USB 2), il propose également une prise casque 3,5 mm.

La batterie intégrée de 36,5 Wh offrirait jusqu’à 16 heures d’autonomie, avec une recharge via USB-C exigeant au moins 20W. Rappelons qu’en Europe, Apple ne fournit plus de bloc secteur avec ses ordinateurs portables : l’entreprise se limite à un simple câble de charge USB-C (1,5 m) et vend le chargeur en option.

Le MacBook Neo est dès à présent disponible à la précommande chez Apple, avec une disponibilité fixée au 11 mars, comme les autres produits lancés cette semaine par la marque. Rappelons que l’entreprise a annoncé depuis lundi l’iPhone 17e, l’iPad Air avec une puce M4 et le renouvellement de ses gammes MacBook Pro et MacBook Air.

Comparaison entre MacBook Neo et MacBook Air M5 selon Apple – capture d’écran

Accenture rachète Ookla, Speedtest et Downdetector pour 1,2 milliard de dollars

4 mars 2026 à 14:32
Accenture rachète Ookla, Speedtest et Downdetector pour 1,2 milliard de dollars

Accenture a annoncé mardi la conclusion d’un accord portant sur l’activité d’Ookla, la branche des services et solutions « connectivité » du groupe média Ziff Davis, qui réunit notamment Speedtest et Downdetector. La transaction est chiffrée à 1,2 milliard de dollars, en cash.

Pour beaucoup d’internautes, Speedtest et Downdetector font presque office de services en ligne réflexe : le premier pour vérifier que la nouvelle box promue à grands renforts de superlatifs par votre opérateur tient ses promesses… et le second pour essayer de comprendre si vous êtes le seul dans la panade face à cette satanée page Web qui boucle sur une erreur 500…

Accenture veut se renforcer sur la connectivité

Si ces services sont très identifiés du grand public et génèrent des audiences significatives (Speedtest est même disponible via les PowerToys Windows), ils s’intègrent également dans des solutions à la fois plus complexes et plus ambitieuses, destinées cette fois au marché des entreprises.

C’est vraisemblablement ce volet professionnel qui a alimenté la convoitise d’Accenture : le géant américain des services numériques (70 milliards de dollars de chiffre d’affaires sur l’exercice 2025, 779 000 employés à la clôture de ce dernier) vient en effet d’annoncer l’acquisition d’Ookla (430 employés), la maison mère de Speedtest et Downdetector, également éditrice de Ekahau (mesure et optimisation de la performance des réseaux sans fil locaux) et Rootmetrics (mesure de la performance des réseaux mobiles sur le terrain), deux solutions intégrées suite à des croissances externes.

« Grâce à la suite Ookla, nous proposerons des services d’intelligence réseau de bout en bout, essentiels à la transformation numérique par l’IA, déclare Manish Sharma, directeur de la stratégie et des services chez Accenture, dans un communiqué. À l’ère de l’accès omnicanal et automatisé, une connectivité fluide et à faible latence est un atout concurrentiel majeur, et ces outils permettent aux entreprises de créer les environnements haute performance dont elles ont besoin. »

231 millions de dollars de chiffre d’affaires

Accenture ne communique pas le montant de la transaction, qui reste par ailleurs soumise aux habituelles approbations réglementaires, mais Ziff Davis, l’actuel propriétaire, l’évoque de façon explicite.

Le groupe, principalement connu pour ses activités dans les médias (il a par exemple racheté CNET en 2024), annonce une transaction chiffrée à 1,2 milliard de dollars, réalisée en cash, et souligne que l’activité correspondante a généré 231 millions de dollars de chiffre d’affaires en 2025, soit environ 16 % de ses recettes totales.

La publication, fin février, des résultats annuels de Ziff Davis, montre que sa branche « connectivité » a réalisé une croissance de 8 % sur un an. Le groupe ne précise en revanche pas le niveau de marge et la rentabilité associés.

L’IA dans la guerre : « Le cas le plus critique concerne la prise de décision militaire »

4 mars 2026 à 13:08
Ici Sébastien, si vous écoutez ce message, vous êtes la résistance
L’IA dans la guerre : « Le cas le plus critique concerne la prise de décision militaire »

L’Ukraine, maintenant l’Iran : l’intelligence artificielle est utilisée par les armées dans les guerres. Rien de nouveau pour autant, ni de surprenant finalement. Le cas du trio Anthropic, OpenAI et Trump n’est que la dernière polémique sur le sujet. La France n’est d’ailleurs pas en reste quand il s’agit d’intégrer de l’IA dans ses armées et armes.

« La violence s’arme des inventions des arts et des sciences pour combattre la violence ». Cette phrase est attribuée à Carl von Clausewitz, un officier général et théoricien militaire prussien mort en 1831, reprise en introduction d’un rapport d‘information sur l’irruption de l’intelligence artificielle dans les ingérences étrangères mis en ligne en décembre dernier.

200 ans plus tard, elle est toujours d’actualité, avec la dernière invention des sciences : l’intelligence artificielle générative. Plus qu’une invention, c’est plutôt la puissance de calcul des GPU modernes qui a permis son émergence.

Ce même rapport ajoute que, « autrefois apanage des geeks, l’intelligence artificielle est aujourd’hui un instrument incorporé à la panoplie des outils de la guerre cognitive, informationnelle et cyber ». Et c’est peu de le dire, comme nous allons le voir au travers de messages et déclarations de généraux et autres hauts responsables.

La France doit réussir le virage de l’intelligence artificielle de combat

Pour le général Jérôme Bellanger (chef d’état-major de l’Armée de l’air et de l’Espace), nous « devons réussir le virage de l’intelligence artificielle (IA) de combat ». Auditionné en octobre 2025, il ajoutait que le premier pays à disposer d’un centre de commandement et de contrôle (C2) « centré sur la donnée définira les règles du jeu ». Il souhaite donc faire des bases aériennes de l’armée de l’air des « hubs de la data, acculturer les aviateurs et développer les cas d’usage ».

Pour Claude Chenuil, ingénieur général de 1re classe de l’armement et représentant du groupe de travail « drones » du Groupement des industries françaises de défense et de sécurité terrestres et aéroterrestres (Gicat), « l’intelligence artificielle offre de nouvelles possibilités, dont nous ignorons où elles mèneront, mais qu’il nous faut explorer ». Toutes les pistes doivent donc être explorées.

Bertrand Rondepierre, directeur de l’agence ministérielle pour l’intelligence artificielle de défense (Amiad), soutient que « l’IA ne constitue pas un effet de mode ». Elle est là pour durer et, d’un point de vue technologique, elle représente une véritable rupture, c’est un « « game changer » comme l’indique le ministre, dans l’intégralité des applications qui intéressent les armées, les directions et les services ».

« Dans mes fonctions, je pars du principe que tout ce que l’on imagine envisageable aura bien lieu », explique le directeur de l’Amiad. Il ne tourne pas autour du pot : « ma mission essentielle consiste à faire en sorte que l’intelligence artificielle soit une réalité pour les armées, les directions et les services, pour leur permettre de mieux accomplir leur mission ». Mais de quoi parle-t-on et où en était-on exactement ?

L’IA et les drones, le mariage « parfait »… les robots arrivent

Dans un rapport d’information de début 2025 sur les enjeux et perspectives de l’économie de guerre, l’Assemblée nationale explique que les drones, « très utilisés en Ukraine ou au Proche-Orient, reposent de plus en plus sur l’intelligence artificielle et offrent de nouvelles stratégies opérationnelles ». Conséquence directe : « Nous devons investir pleinement ce champ et maintenir notre capacité à anticiper ces menaces ». Les menaces sont déjà réelles avec des incursions de drones dans l’espace aérien de pays européens.

Le général d’armée aérienne Fabien Mandon, alors chef de l’état-major particulier du président de la République française, va plus loin : « Au-delà des drones, l’intelligence artificielle, ensuite, est devenue une réalité ». Il en profite pour rappeler l’importance des données : « Nous devons passer à une échelle supérieure, ce qui implique une évolution des critères que nous posons aux industriels. Il nous faut des architectures ouvertes pour pouvoir récupérer les données des systèmes de combat, les agréger et les exploiter grâce à l’intelligence artificielle. Comme ces domaines évoluent très vite, nous ne devons pas être prisonniers d’un système qui ne bénéficierait pas des améliorations futures ».

« Nos drones vont avoir de nouveaux capteurs pour améliorer notre compréhension du terrain, améliorant notre renseignement et, dès l’an prochain, la DRM [Direction du renseignement militaire, ndlr] a une priorité d’intelligence artificielle qui augmentera notre capacité d’analyse », expliquait le général en novembre dernier.

Du côté défensif, Alexandre Houlé, directeur de la stratégie de Thales, parle de « radars intégrant l’intelligence artificielle pour pouvoir repérer les très petits objets comme les drones ». Il évoque notamment des détections rapides des mini-drones tels que ceux utilisés en Ukraine.

Pierre Schill, général d’armée et chef d’état-major de l’armée de Terre, rappelle que « les quatre dernières années ont vu l’essor des drones aériens de combat ». Il prévoit que « les prochaines années verront la maturation des drones terrestres. C’est le sens de l’initiative Pendragon, avec l’Agence ministérielle de l’intelligence artificielle de défense (Amiad) ».

Objet : doter l’armée de Terre d’une unité robotisée d’ici à l’été 2026. « La robotisation terrestre sera une révolution culturelle et tactique que l’armée de Terre entend anticiper et exploiter ». L’objectif n’est pas de remplacer les soldats, mais de « les assister, réduire leur exposition et renforcer leur efficacité sur le terrain », explique l’Armée de Terre.

Mirage 2000, canons de 20 mm : c’est dans les vieux pots…

Auditionné en octobre 2025, Fabien Mandon, qui venait tout juste d’être nommé chef d’état-major des armées, se faisait l’écho d’une étude de la Marine nationale montrant que sur la question des écoutes, « les outils de l’IA permettaient de traiter bien plus d’informations : on ne va pas diminuer le nombre de postes, mais on traitera bien plus de signaux et on aura bien plus de moyens d’analyse ». C’est évidemment un cas d’usage classique et qui n’a pas attendu l’arrivée des IA génératives, mais il y en a tellement d’autres.

Lors d’une autre audition, Fabien Mandon, rappelait que l’armée de Terre avait « proposé d’adapter de vieux canons de 20 mm avec un peu d’intelligence artificielle et des systèmes de visée rustiques ». Pour le général, ce genre d’initiative est à encourager.

Le général Jérôme Bellanger (chef d’état-major de l’Armée de l’air et de l’Espace) expliquait par exemple que « le Mirage 2000D est un avion des années 1980 avec un système des années 1990 ; pourtant, il est en train de devenir notre banc d’essai pour l’IA embarquée ». D’ici 2030 à 2035, des « ruptures technologiques » sont prévues avec le Rafale au standard F5 et le missile nucléaire de quatrième génération.

Il affirme que « l’avenir est aux architectures ouvertes », et donc optimisables selon les besoins opérationnels, un modèle qu’il souhaite imposer aux industriels. « Pour maintenir des systèmes de combat à la page, nous avons besoin de deux choses : pouvoir accéder librement à la donnée générée par nos systèmes et implémenter rapidement des évolutions logicielles, notamment à base d’IA, en fonction de notre besoin opérationnel ». L’arrivée de l’IA entraine des changements tangibles : « nous avons modifié notre expression de besoin pour le Rafale standard F5 ».

Pierre Schill, général d’armée, rappelle l’existence d’un Data Hub de l’Avant (DHA), « un cloud tactique déployé au niveau des postes de commandement, conçu pour agréger, traiter et distribuer des données issues de capteurs, de systèmes de combat et de renseignement, en temps réel, vers les éléments de contact, en exploitant notamment des outils d’intelligence artificielle ».

Bruno Durand, président du métallurgiste Aubert et Duval, évoque quant à lui le fait que les simulations menées par IA leur ont permis de multiplier par trois leurs cadences de production pour le canon Caesar.

Le général de division aérienne du corps des officiers de l’air Guy Girier affirme que « l’IA figure au cœur de nos préoccupations, depuis longtemps » et qu’elle « joue également une place très importante » dans le renseignement. L’un des enjeux clés de l’intelligence artificielle « concerne la gestion en masse des données de renseignement, pour pouvoir apporter des analyses les plus pertinentes, au bon niveau ».

« Intégration de l’IA dans des processus d’aide à la décision »

Il y a un an, Jean-Marie Cavada, président de l’Institut des droits fondamentaux numériques (iDFRights) et député européen honoraire, rappelait que l’évolution des stratégies militaires pouvait être importante à l’avenir, avec un changement important sur la physionomie des combats :

« Sera-t-il encore nécessaire, dans les années à venir, de déployer des forces armées sur les continents pour assurer la défense nationale ou l’expansion géopolitique, telles que nous les connaissons aujourd’hui ? Plusieurs technologies émergentes permettent déjà de limiter l’engagement des vies humaines tout en assurant la soumission des adversaires ».

L’intelligence artificielle, que ce soit sur le plan informationnel ou militaire, est déjà présente. Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique, met les pieds dans le plat : « La véritable nouveauté réside aujourd’hui dans l’intégration de l’IA dans des processus d’aide à la décision, y compris dans des domaines longtemps considérés comme inaccessibles aux machines ».

Il fait un parallèle avec la robotique : « Lorsqu’on a introduit la robotique, on pensait qu’elle concernerait d’abord les tâches les plus simples, les plus répétitives et les moins qualifiées. Beaucoup ont cru qu’il en irait de même pour l’IA. Or, cet outil s’introduit désormais dans des sphères hautement stratégiques et décisionnelles ».

IA et nucléaire : pas un bon mélange des genres !

Henri Seydoux, patron de Parrot (société de drones), revient sur la question existentielle des armes autonomes et de l’IA, des sujets éminemment politiques : « L’ONU a ainsi documenté une attaque d’un drone turc entièrement autonome en Libye ».

Le député Frank Giletti (Rassemblement national) relève que « l’intelligence artificielle, et plus précisément l’apprentissage par renforcement, est désormais mature pour des applications concrètes, comme en témoigne la récente démonstration de combat autonome réalisée aux États-Unis avec le X-62 VISTA ».

Lors d’une audition, le sénateur Pascal Allizard (Les Républicains) rappelait qu’en matière de défense (comme ailleurs pouvons-nous ajouter), « il suffit de biaiser un peu le système d’une arme, pour la rendre inefficace ». C’est une vraie inquiétude selon le sénateur, à tel point que dans l’armée et la marine, « on revoit des militaires apprendre à tirer et à naviguer aux instruments, comme à la grande époque… ».

Henri Seydoux en appelle aux démocraties qui doivent comprendre la « nécessité d’interdire les armes autonomes, au même titre que les gaz de combat ont été interdits depuis la première guerre mondiale. Des traités internationaux doivent agir en ce sens, afin qu’une intelligence humaine soit toujours intégrée dans la boucle de décision ».

Pour Bernard Benhamou, le danger est de tomber dans une « confiance excessive et parfois aveugle » à ces nouvelles technologies. « Une forme de suivisme s’installe, conduisant certains à se fier sans discernement aux avis des IA, y compris dans des domaines où elles ne devraient pas être utilisées. Le cas le plus critique concerne la prise de décision militaire ».

Quand on parle de décisions hautement stratégiques, cela remonte tout en haut de la chaine : « Certains experts, y compris parmi les plus technophiles, mettent en garde contre toute tentation d’intégrer l’IA dans les processus décisionnels liés à l’usage de l’arme nucléaire ».

Pour conclure sur ces sujets, le général Jérôme Bellanger (chef d’état-major de l’Armée de l’air et de l’Espace) expliquait en octobre 2025 que « si la guerre commence ce soir, il faudra innover avec l’existant, en se concentrant sur le MCO [maintien en conditions opérationnelles, ndlr] et les munitions ; si elle commence dans trois ans, la victoire dépendra de la façon dont nous aurons su amorcer les changements sur la défense sol-air et notamment la LAD, la Sead, la THA, l’espace, le C2 et les architectures numériques ».

Investissements, recherches : il faut savoir « prendre des risques mesurés »

Dans un rapport d’information sur les enjeux et perspectives de l’économie de guerre, Jean-Michel Jacques, président de la commission de la défense et des forces armées de l’Assemblée nationale, rappelle :

« L’intelligence artificielle est un levier incontournable pour la Défense. Avec un budget de 2 milliards d’euros d’ici 2030 et la création de l’Agence ministérielle pour l’IA de défense (AMIAD), la France investit massivement pour garantir sa souveraineté technologique et son avantage stratégique. L’IA optimise la maintenance des équipements, améliore la logistique, et révolutionne l’entraînement militaire grâce à la simulation avancée. En renseignement, elle accélère la prise de décision et renforce la cyberdéfense ».

Selon le rapport, investir dans l’IA, « c’est garantir une avance stratégique et maximiser l’efficacité opérationnelle ». Parmi les priorités citées, on retrouve les domaines des drones, des armes à énergie dirigée, l’intelligence artificielle et le quantique… « quitte à prendre des risques mesurés », lâche Éric Malbrunot, vice-amiral d’escadre et sous-chef d’état-major « plans » de l’état-major des armées.

Preuve que le sujet est important, Bertrand Rondepierre (directeur de l’agence ministérielle pour l’intelligence artificielle de défense, Amiad) rappelle qu’un « patch IA a été intégré dans l’exercice de la loi de programmation militaire (LPM) 2024 - 2030 ».

Le secteur privé aussi met la main à la poche, comme le rappelait le général Guy Girier : « Airbus investit sur fonds propres environ 3,5 milliards d’euros par an dans la recherche » sur l’innovation et l’intelligence artificielle. Alexandre Houlé, directeur de la stratégie de Thales, affirme de son côté déployer 4 milliards d’euros d’investissements en R&D, avec 5 milliards d’euros à l’horizon 2030, « notamment pour nous renforcer dans les domaines de l’intelligence artificielle et de la cybersécurité ».

☕️ TikTok déclare refuser le chiffrement de bout en bout pour protéger ses utilisateurs

4 mars 2026 à 10:48

Dans la bataille pour la confidentialité des échanges privés en ligne, une voix discordante se fait entendre parmi les plateformes : TikTok a déclaré à la BBC refuser de déployer le chiffrement de bout en bout (end-to-end encryption, E2EE) sur ses communications au motif que cela mettrait ses utilisateurs en danger. 
Ce faisant, le réseau social renverse l’argumentaire désormais avancé par tous ses concurrents – et de nombreux défenseurs des droits numériques –, selon lesquels l’E2EE est essentiel à la protection de la vie privée en ligne.

Au fil du temps, X et les plateformes de Meta WhatsApp, Facebook, Instagram et Messenger ont déployé la fonctionnalité.

Notamment redoublée du chiffrement des métadonnées, celle-ci est aussi au cœur des arguments du service de messagerie Signal, qui se présente comme le service grand public le mieux sécurisé.

La solution technique est en revanche régulièrement critiquée par les forces de l’ordre de multiples pays comme par certains (autres) défenseurs des libertés numériques, notamment des mineurs, comme une fonctionnalité qui empêche d’enrayer la circulation de contenus dangereux en ligne.


Ceux-ci argumentent notamment que l’E2EE, en empêchant les forces de l’ordre ou les entreprises technologiques elles-mêmes d’accéder au contenu des échanges, freine la modération de contenus allant de la promotion du terrorisme à diverses formes de pédocriminalité (ce dernier sujet étant notamment l’un des motifs du controversé projet de règlement CSAR, renommé ChatControl par ses opposants).

TikTok

Le cas de TikTok a ceci de spécifique que sa maison mère ByteDance est régulièrement critiquée pour ses potentiels liens avec le pouvoir chinois, ce qui créerait un risque d’exposition des données des utilisateurs et utilisatrices. Si ByteDance nie ce type de lien, les États-Unis ont obtenu que les activités locales de l’entreprise soient séparées du reste de ses activités internationales.

Auprès de la BBC, l’entreprise déclare que son positionnement est délibéré, c’est-à-dire une manière parmi d’autres de se différencier de ses concurrents.

Elle ajoute que les messages directs restent sécurisés via des systèmes de chiffrement standards, similaires à ceux présents sur un service comme Gmail.

Au Royaume-Uni, des acteurs comme l’Internet Watch Foundation ou la National Society for the Prevention of Cruelty to Children ont salué le positionnement du réseau social.

L’UNSS admet une fuite comprenant les photos d’identité de collégiens et lycéens

4 mars 2026 à 10:20
L'UNSS, ses cross boueux et ses fuites de données...
L’UNSS admet une fuite comprenant les photos d’identité de collégiens et lycéens

Déjà victime d’un piratage en 2025, l’Union nationale du sport scolaire (UNSS) a reconnu mardi avoir fait l’objet d’un vol de données issues de son outil de gestion de la relation avec les licenciés. Quelques jours plus tôt, le groupe Dumpsec affirmait être en possession de 890 000 photos émanant de l’UNSS.

L’Union nationale du sport scolaire (UNSS) a reconnu mardi 3 mars avoir été victime d’une fuite de données qu’elle présente comme « issues de son outil de gestion OPUSS ». L’intrusion dont elle découle remonterait à plusieurs mois.

« Ces données avaient fait l’objet d’une exfiltration dispersée en novembre 2025, pour laquelle l’UNSS avait immédiatement alerté son prestataire technique. La mise en vente récente de ces données a conduit à une nouvelle mobilisation des équipes et à l’activation des procédures prévues en matière de cybersécurité », affirme l’organisation.

890 000 photos exposées ?

Son message fait suite à la publication, le 28 février dernier, d’un post de forum signé Dumpsec annonçant la mise en vente de deux fichiers issus de l’UNSS : un jeu de 7 millions d’enregistrements et un ensemble de 889 000 photos des collégiens et lycéens qui constituent la base des licenciés de l’organisation. Cette annonce a été relayée le jour même sur les réseaux sociaux, et c’est probablement ce qui a conduit l’UNSS à finalement réagir mardi.

L’Union ne commente pas le volume de données évoqué par l’auteur du post en question, mais elle confirme en revanche que des données personnelles et des photos d’adhérents ont été compromises :

« À ce stade des investigations, les données susceptibles d’être concernées comprennent des informations d’identification liées aux licences UNSS (nom, prénom, genre, date de naissance, établissement scolaire, classe, date d’inscription, URL de photographie d’identité). Les premières analyses indiquent que les données financières (RIB, mandats de prélèvement SEPA) ainsi que les données relatives au handicap ne seraient pas concernées par cet incident. »

Elle ajoute une précision qui appuie l’une des allégations des auteurs de l’annonce : « Les liens permettant d’accéder aux images ont été rendus inopérants ». Dans le post initial annonçant la fuite, ces derniers illustraient en effet leur promesse avec un lien pointant directement vers un répertoire du sous-domaine dédié à l’outil OPUSS sur le site de l’UNSS.

Le retour d’un prestataire déjà auréolé de nombreuses fuites

En réponse à cette fuite manifeste, l’UNSS indique avoir, « dès confirmation des faits », notifié l’incident aux autorités ainsi qu’à la Cnil, saisi l’ANSSI et engagé, avec son prestataire technique, une analyse approfondie des journaux de connexion afin d’identifier précisément l’origine et le périmètre de l’incident. Sur ce point, elle affirme que le « compte utilisateur identifié comme point d’entrée a été immédiatement neutralisé », mais ne donne aucune autre précision sur les modalités de cet accès.

L’UNSS n’indique nulle part sur son site la qualité du prestataire technique en question, et le lien censé pointer les mentions légales de la partie publique de l’intranet OPUSS est inopérant. En 2022, un certain Exalto se réjouissait toutefois de désormais compter l’UNSS parmi les clients de sa solution E-licence, destinée précisément au secteur des associations et fédérations sportives.

Or le procédé mis en œuvre (accès à un compte utilisateur avec probable élévation des privilèges via une faille de sécurité) rappelle précisément le mode opératoire impliquant E-licence et Exalto, révélé par Next début 2025 au cœur de la vague d’intrusions qui avait frappé plusieurs dizaines de fédérations sportives. Le code source de la page d’accès à OPUSS confirme que le portail exploite bien E-licence.

En attendant que l’UNSS (qui organise pour mémoire les fameux cross et bon nombre de rencontres sportives scolaires) demande des comptes à son prestataire, elle diffuse avec un bel enthousiasme les photos vers l’édition 2026 de son cross national sous forme de dossiers hébergés sur Google Drive.

En juin 2025, de jeunes pirates affirmaient déjà avoir mis la main sur 7 millions d’enregistrements issus de la base de données de l’UNSS.

☕️ X oblige l’étiquetage des vidéos de conflits générées par IA sous peine de démonétisation

4 mars 2026 à 09:56

En temps de paix, les deepfakes pornographiques et autres contenus générés par intelligence artificielle (IA), notamment par des créateurs rémunérés, sont acceptables sur X. En « temps de guerre », en revanche, la plateforme oblige désormais ses usagers qui monétisent leurs publications à étiqueter les contenus produits grâce à de l’IA lorsque ceux-ci représentent des images de conflit armé.

C’est du moins l’image que dessine l’évolution des conditions d’utilisation du réseau social annoncée ce 3 mars (sur X) par le directeur produit Nikita Bier. « En temps de guerre, écrit ce dernier, l’accès de la population à de l’information authentique du terrain est critique. Avec les technologies d’IA actuelles, il est devenu trivial de créer du contenu qui trompe la population. »

La nouvelle politique se cantonne à un type de contenu précis : ceux représentant des conflits armés. Si des internautes décident de publier des vidéos générées par IA représentant ce type de violence, sans les étiqueter, ils risquent une suspension du programme de monétisation de 90 jours. Des violations supplémentaires de la nouvelle mesure « aboutiront à une suspension permanente du programme ».

Pour repérer les contenus en question, X s’appuiera sur les Notes de communautés et des outils d’IA génératives, « si le contenu contient des métadonnées (ou d’autres signaux) », indique Nikita Bier. Les comptes ne monétisant pas leurs publications, eux, ne sont pas concernés par la nouvelle mesure.

Formellement, les États-Unis n’ont pas déclaré la guerre à l’Iran : selon la Constitution locale, seul le Congrès en a le pouvoir.

Pour autant, les faux contenus représentant des conflits armés sont un enjeu de désinformation depuis des années. Alors que le jeu Arma 3 est sorti en 2013, des extraits en sont par exemple régulièrement détournés pour illustrer (faussement) des conflits en cours sur les réseaux sociaux. Comme pour d’autres domaines de l’espace informationnel, la facilité d’usage des outils d’IA générative crée cela dit un risque de prolifération accélérée de faux contenus.

Si X appose déjà des watermarks sur les images et vidéos générées grâce à Grok, l’entreprise n’obligeait pas ses usagers à faire connaître explicitement leur recours à l’IA jusqu’ici. D’après Social Media Today, X est actuellement en train de tester une fonctionnalité de labellisation des contenus générés par IA.

Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

4 mars 2026 à 08:40
Co-intel pros
Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

Plus de 90 politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs, journalistes et hommes d’affaires avaient été espionnés entre 2020 et 2022. En 2024, la Cour suprême grecque avait innocenté le service de renseignement national et le gouvernement. Les quatre principaux prestataires viennent quant à eux d’être condamnés.

Quatre personnes liées au marchand de logiciels espions Intellexa ont été condamnées par un tribunal grec à des peines d’emprisonnement cumulées totalisant 126 ans et huit mois, mais dont seulement huit devront être purgés, précise eKathimerini, pour avoir espionné des dizaines de responsables politiques, hommes d’affaires, responsables militaires et journalistes.

L’affaire, surnommée « Predatorgate » ou « Watergate grec », avait éclaté en 2022 lorsque Nikos Androulakis, chef du principal parti d’opposition PASOK et membre du Parlement européen, avait découvert qu’un logiciel espion illégal appelé Predator, l’un des principaux concurrents du logiciel espion Pegasus de la société israélienne NSO, avait été installé sur son téléphone, rappelle Politico.

Reuters précise qu’un procureur avait également ouvert une enquête suite à la découverte, par un journaliste financier de CNN, Thanasis Koukakis, que son téléphone avait été infecté par le logiciel espion Predator de la société Cytrox, qui faisait partie du consortium Intellexa.

Des traces de Predator avaient ensuite été retrouvées dans les téléphones de plus de 90 Grecs, politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs et hommes d’affaires, rappelle The Record.

L’exécution de leurs peines est suspendue à la procédure en appel

Cette affaire avait ébranlé le gouvernement de centre droit, entraînant le limogeage du chef du service national de renseignement (EYP) et du chef de cabinet du Premier ministre. L’administration, qui a nié toute malversation ou écoute téléphonique délibérée, avait néanmoins survécu à un vote de défiance en 2023, relève Reuters.

En 2024, la Cour suprême grecque avait innocenté l’EYP et les responsables politiques de tout acte répréhensible, et renvoyé les quatre accusés devant le tribunal correctionnel. Nikos Androulakis a depuis fait appel devant la Cour européenne des droits de l’homme.

Lors du procès, les quatre prévenus, Tal Dilian (ancien officier militaire israélien et fondateur d’Intellexa), sa partenaire commerciale Sara Aleksandra Fayssal Hamou, Felix Bitzios (ancien administrateur adjoint et actionnaire d’Intellexa) et Yiannis Lavranos (dont la société Krikel a acheté le logiciel espion), ont nié avoir commis des actes répréhensibles.

Jeudi 27 février, le tribunal les a néanmoins déclarés coupables d’« atteinte à la confidentialité des communications téléphoniques », d’« altération répétée d’un système d’archivage de données à caractère personnel » et d’« accès illégal à un système d’information ou à des données ». L’exécution de leurs peines est suspendue dans l’attente de l’examen de la procédure en appel.

Intellexa, toujours en activité, en partie sanctionné aux États-Unis

« Ce fut une bonne journée pour la démocratie et l’État de droit en Grèce », a déclaré Thanasis Koukakis à l’AFP devant le tribunal, ajoutant que le verdict « ouvrait la voie » à d’autres poursuites contre des suspects dans la même affaire. D’autant que « la moitié du cabinet et des généraux de haut rang étaient sous surveillance de l’agence nationale de sécurité et du logiciel espion Predator ».

Le 18 février, Amnesty International avait cela dit révélé que Predator avait infecté le téléphone d’un éminent défenseur de la liberté de la presse en Angola en 2024, note The Record. En décembre, les chercheurs d’Amnesty avaient quant à eux découvert qu’un avocat pakistanais spécialisé dans les droits humains avait également été pris pour cible par Predator au cours de l’été 2025.

Le département du Commerce américain avait ajouté Intellexa et sa filiale Cytrox à sa liste noire en 2023. Les dirigeants et consultants d’Intellexa, dont Dilian et Hamou, avaient été sanctionnés par l’administration Biden en 2024. Mais l’administration Trump a annulé les sanctions contre Hamou et deux autres dirigeants d’Intellexa en décembre dernier, bien que Dilian figure toujours sur la liste noire.

Nexa (ex-Amesys), le sulfureux partenaire français d’Intellexa

En 2023, Amnesty International a également découvert que Predator avait été vendu à 25 pays, dont plusieurs régimes autoritaires, par un consortium d’entreprises européennes qui a contourné les règlements européens et internationaux via la filiale dubaïote de Nexa Technologies (ex-Amesys), le partenaire français d’Intellexa.

Les responsables de Nexa avaient été mis en examen en 2021 pour « complicité de tortures » et « disparitions forcées » en Libye, puis « pour complicité de torture et de disparitions forcées » en Égypte, avant d’être placés en 2022 « sous le statut plus favorable de témoin assisté, éloignant ainsi la menace d’un procès à leur encontre ». 

Nexa s’est depuis retirée du marché de la surveillance et du consortium Intellexa, et a été rachetée par Chapsvision, le nouveau champion français de la cybersurveillance, dont le modèle économique vise d’après ses dires à aider les handicapés mentaux à communiquer, comme nous l’avions relaté.

☕️ GPT-5.3 Instant : OpenAI promet un ChatGPT moins moralisateur, plus direct et naturel

4 mars 2026 à 08:03

Depuis quelques jours, Anthropic et son IA Claude ont le vent en poupe, face à OpenAI et son ChatGPT dont les désinstallations de l’application ont explosé ces derniers jours. C’est la conjonction de deux événements liés. L’interdiction faite par Donald Trump d’utiliser les modèles d’Anthropic dans les armées et administrations américaines pour commencer. Ensuite, le fait que Sam Altman s’empresse de signer un contrat avec le Pentagone.

Alors qu’Anthropic surfe sur une vague de popularité, l’entreprise a décidé de permettre à tous les comptes, même les gratuits, d’utiliser la fonction Import Memory (pour faciliter une transition de ChatGPT à Claude, par exemple), OpenAI revient sur le devant de la scène avec encore un nouveau modèle, ou plutôt une mise à jour : GPT-5.3 Instant.

Lors du lancement de GPT-5.2 en décembre dernier, il était annoncé dans trois formats : Instant, Thinking et Pro. En février, c’était au tour de GPT-5.3-Codex de débarquer (à quelques minutes d’écart, Anthropic annonçait Claude Opus 4.6). Comme son nom l’indique – Codex –, c’est un modèle pensé pour le code informatique. OpenAI annonce aujourd’hui un modèle plus grand public : GPT‑5.3 Instant. Thinking et Pro suivront, mais plus tard.

Il promet « des conversations plus fluides et plus utiles au quotidien ». Nous avons droit au lot habituel de promesses : « réponses plus précises, résultats plus riches et mieux contextualisés lors des recherches sur le web, moins d’impasses inutiles, d’avertissements et de formulations trop affirmatives qui peuvent interrompre le fil de la conversation ».

OpenAI indique avoir reçu des retours d’utilisateurs indiquant que « GPT‑5.2 Instant refusait parfois de répondre à des questions auxquelles il devrait pouvoir répondre en toute sécurité, ou adoptait un ton trop prudent ou moralisateur, en particulier sur des sujets sensibles ». GPT‑5.3 Instant « réduit nettement les refus inutiles, tout en atténuant les préambules trop défensifs ou moralisateurs avant de répondre à la question ».

Concernant les informations glanées en ligne, GPT-5.3 Instant « équilibre plus efficacement […] avec ses propres connaissances et son raisonnement. Par exemple, il s’appuie sur sa compréhension existante pour contextualiser l’actualité récente plutôt que de simplement résumer les résultats de recherche ». Le Web ne sera plus survalorisé, promet OpenAI.

Enfin, l’entreprise de Sam Altman reconnait que « le ton de GPT‑5.2 Instant pouvait parfois mettre mal à l’aise, perçu comme envahissant ou faisant des suppositions injustifiées sur l’intention ou les émotions de l’utilisateur ». Avec GPT-5.3 Instant, le style devrait être plus naturel. Des exemples sont disponibles sur cette page.

GPT‑5.3 Instant est disponible dès maintenant, pour tous les utilisateurs de ChatGPT. Les mises à jour des modèles Thinking et Pro « suivront bientôt ». Enfin, GPT‑5.2 Instant restera disponible pendant trois mois pour les clients payants (il sera retiré le 3 juin 2026).

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

4 mars 2026 à 07:41
Too Quick and too dirty?
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.

Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.

Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.

Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.

Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.

Des utilisateurs américains ont abandonné ChatGPT en masse

Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.

En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.

Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

Un changement qui n’aborde pas directement la question des armes autonomes

Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.

Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».

C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.

Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».

Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».

Une rupture avec Anthropic plus sur la forme que sur le fond

Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».

Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.

Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.

☕️ Seagate Mozaic 4+ : les expéditions en volume de HDD de 44 To ont commencé

4 mars 2026 à 07:18

La gamme de disques durs Mozaic de Seagate débute à la série « 3 + », avec des HDD de 30 To et plus exploitant la technologie HAMR (Heat Assisted Magnetic Recording, avec un faisceau laser). L’année dernière, Seagate passait à 36 To, aujourd’hui il est question de 44 To.

Le constructeur explique que « sa plateforme Mozaic 4 + […] est désormais qualifiée et en production chez deux fournisseurs cloud hyperscale de premier plan », mais sans les nommer.

De plus, les « disques durs Mozaic 4 + avec des capacités allant jusqu’à 44 To sont désormais expédiés en volume vers deux principaux fournisseurs cloud hyperscale ». La densité augmente puisque, en juin dernier, John Morris (CTO de Seagate) affirmait avoir « livré à ses clients de premiers échantillons à 40 To ».

La disponibilité plus large des disques durs Mozaic 4 + est prévue « à mesure que la production continue d’augmenter », sans plus de détails. Avoir des disques durs toujours plus gros permet d’augmenter la densité du stockage dans les datacenters, mais aussi d’utiliser moins de HDD pour une capacité donnée, et donc de réduire la consommation électrique.

Seagate prévoit toujours d’atteindre 10 To par plateau, soit 100 To avec 10 plateaux dans un disque dur classique de 3,5 pouces. En laboratoire, le fabricant a atteint 6,9 To par plateau fin 2025, pour rappel. Il faudrait encore attendre six ans selon l’entreprise pour avoir 100 To. En attendant, le passage par Mozaic 5 (50 To et plus) est prévu aux alentours de 2028.

Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

3 mars 2026 à 16:26
Fusiiiionnnnnn !
Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

Deux nouvelles puces arrivent chez Apple : les M5 Pro et Max, avec des « super cœurs » pour la partie CPU. On les retrouve dans les nouveaux MacBook Pro de 14 et 16 pouces. Apple met aussi à jour son MacBook Air qui passe à la puce M5 pour l’occasion.

MacBook Air 13 et 15 pouces en M5, à partir de 1 199 euros

Après les iPhone 17e et l’iPad Air avec une puce M4, Apple continue sur sa lancée avec deux nouvelles annonces ce jour. Commençons par le MacBook Air avec une puce M5, dont les caractéristiques techniques peuvent changer suivant la taille de la diagonale de l’écran.

« Tous les modèles 15 pouces sont équipés de la puce M5 avec CPU 10 cœurs et GPU 10 cœurs », explique Apple. De son côté, le modèle de 13 pouces intègre 8 ou 10 cœurs GPU suivant les configurations, mais 10 cœurs CPU dans tous les cas. 16, 24 ou 32 Go de mémoire unifiée (partagés entre CPU et GPU) sont de la partie.

« Le MacBook Air dispose désormais d’un stockage de base deux fois plus important, porté à 512 Go, et d’une technologie SSD plus rapide », affirme Apple. Côté connectivité, c’est la puce maison N1 qui est aux commandes pour le Wi-Fi 7 et le Bluetooth 6. La connectique comprend deux ports Thunderbolt 4 (connecteur USB).

Niveau performances, Apple annonce que le MacBook Air M5 offre des performances « jusqu’à 4 fois plus rapides pour les tâches d’IA que son prédécesseur équipé de la puce M4, et jusqu’à 9,5 fois plus rapides que le MacBook Air avec puce M1 ».

Le MacBook Air 13 pouces M5 est proposé à partir de 1 199 euros avec 16 Go de mémoire et 512 Go de stockage (ajoutez 125 euros pour avec 10 cœurs GPU à la place de 8). De son côté, le MacBook Air 15 pouces M5 est vendu à partir de de 1 499 euros. Augmenter la mémoire vive vous coûtera 250 euros pour 8 Go de plus (24 Go au total) et 500 euros passer de 16 à 32 Go. 32 Go est toujours le maximum.

Les MacBook Pro de 14 et 16 pouces passent aux M5 Pro et Max

Passons aux MacBook Pro, avec de nouvelles puces M5 Pro et Max. Apple, comme toujours, n’est pas avare en superlatifs concernant ces deux nouveaux SoC : « nouveau CPU avec le cœur de CPU le plus rapide au monde, GPU nouvelle génération avec Neural Accelerator dans chaque cœur et bande passante mémoire unifiée plus élevée ». Elle passe de 153 Go/s sur la puce M5 à 307 Go/s sur la Pro et 614 Go/s sur la Max avec 40 cœurs GPU, mais « seulement » 460 Go/s pour le M5 Max avec 32 cœurs GPU.

Comme sur le MacBook Air, Apple vante le SSD des nouveaux MacBook Pro qui est « jusqu’à deux fois plus performant », avec 14,5 Go/s au maximum. Le stockage de base passe à 1 To pour le MacBook Pro en M5 ou M5 Pro et à 2 To pour le modèle M5 Max, au lieu de 512 Go sur le modèle d’octobre dernier en M5.

Pour la connectivité, la puce N1 est de nouveau présente, tandis que les ports USB Type-C prennent désormais en charge Thunderbolt 5. Un MacBook Pro avec une puce M5 Pro prend en charge deux écrans externes, contre quatre pour la version M5 Max.

Côté tarif, le MacBook Pro M5 avec 1 To débute à 1 899 euros (1 799 euros avec 512 Go auparavant), tandis que l’addition passe à 2 499 euros minimum pour un SoC M5 Pro… et encore ajoutez 200 euros de plus pour la version « complète » du SoC avec 18 cœurs CPU et 20 cœurs GPU (au lieu de 15 et 16 respectivement).

Pour le MacBook Pro M5 Max, le tarif débute à 4 199 euros avec 18 cœurs CPU et 32 cœurs GPU, puis il faut ajouter 375 euros pour avoir les 40 cœurs GPU. Ce sont les tarifs pour la version de 14 pouces, en 16 pouces comptez 2 999 euros en M5 Pro (il n’est pas disponible en M5) et 4 499 euros pour pour la puce M5 Max.

Du M1 au M5 Max, toutes les caractéristiques des puces Apple Silicon

Revenons aux deux nouvelles puces M5 Pro et Max, avec la mise a jour de notre grand tableau comparatif pour commencer :

Comme avec la M5 de « base », chaque cœur GPU dispose d’un « accélérateur neuronal ». Apple affirme que « les puces M5 Pro et M5 Max assurent un traitement des prompts LLM jusqu’à quatre fois plus rapide que les M4 Pro et M4 Max, et une génération d’images par IA jusqu’à huit fois plus rapide que les M1 Pro et M1 Max ».

Les précommandes des nouveaux MacBook Air et Pro ouvriront le 4 mars, les livraisons sont prévues à partir du 11 mars.

Des puces « pensées de A à Z pour l’IA » avec des 5 ou 6 « super-cœurs »

Les M5 Pro et M5 Max « intègrent un nouveau CPU de 18 cœurs, dont 6 super-cœurs, le cœur de CPU le plus rapide au monde, et 12 tout nouveaux cœurs de performance, optimisés pour des performances multithreads économes en énergie ». Pour la version 15 cœurs CPU du M5 Pro, il y a 5 super-cœurs et donc 10 efficaces. Apple ne parle pas de cœurs efficaces, mais « performance ». Les puces M5 Pro et Max ont donc un mélange de « super cœurs » et de « cœurs de performance ».

Auparavant, les puces M4 Pro et Max avaient entre 8 et 12 cœurs « performances », avec 4 cœurs « haute efficacité énergétique » (efficaces). Même chose sur la puce M5, les « super cœurs » n’existaient pas encore et les cœurs efficaces étaient toujours présents. À voir maintenant les résultats dans les tests.

Apple affirme que « la nouvelle architecture du processeur du M5 Pro améliore considérablement les performances multithread jusqu’à 30 % pour les charges de travail professionnelles ». Mais cette comparaison est faite entre des MacBook Pro M4 Pro avec 14 cœurs et M5 Pro avec 18 cœurs, soit… 30 % de cœurs en plus. La répartition entre les cœurs n’est pas non plus la même pour rappel.

Le fabricant ne s’en cache pas : il mise tout sur l’IA : « Les puces M5 Pro et M5 Max reposent sur la nouvelle architecture Fusion signée Apple et sont pensées de A à Z pour l’IA. Cette conception innovante combine deux puces en un seul système pour un gain de performances considérable ».

La version Max du M5 intègre deux encodeurs vidéo et deux encodeurs/décodeurs ProRes. Un comparatif de MacBook Pro 14 avec des puces M5, M5 Pro et M5 Max est disponible par ici.

Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

3 mars 2026 à 15:47
Come to me
Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

Alors que ses modèles connaissent une soudaine vague de popularité suite aux démêlés d’Anthropic avec l’administration Trump, l’entreprise éditrice de Claude vient d’ouvrir à tous les comptes, même gratuits, la fonction qui permet d’importer la « mémoire » de l’utilisateur d’une autre IA. Un levier malin pour encourager les migrations, qui illustre à la fois l’enjeu économique de rétention… et la valeur potentielle de cet historique.

En prononçant vendredi 27 février l’interdiction d’utiliser les modèles d’Anthropic au sein des armées et administrations américaines, Donald Trump a donné un coup de projecteur sur Anthropic et son CEO, Dario Amodei. Et Sam Altman, qui s’est empressé d’annoncer la signature d’un accord entre le Pentagone et son entreprise OpenAI, n’a rien fait pour limiter cet effet Streisand, au contraire.

Résultat des courses, la popularité de Claude a explosé sur les kiosques de téléchargement d’Apple et d’Android, jusqu’à devenir et rester encore aujourd’hui l’application gratuite la plus demandée du moment.

Claude est l’application gratuite numéro un du classement de l’App Store d’Apple, devant ses concurrentes ChatGPT et Gemini – capture d’écran Next

Import en deux clics

Anthropic a saisi cette balle séduisante au bond lundi, en ouvrant les vannes et en simplifiant l’accès à sa fonction Import Memory. Lancée à l’automne 2025, celle-ci était jusqu’ici réservée aux souscripteurs d’un abonnement payant. Elle permet d’injecter, dans Claude, l’historique et les informations contextuelles que l’utilisateur a pu accumuler en utilisant un modèle concurrent comme ChatGPT, Gemini, Le Chat et consorts.

Ce faisant, l’internaute peut conserver à la fois l’historique de ses conversations, projets, requêtes, etc., ainsi que les éventuels éléments personnels qu’il aurait enseignés au modèle pour adapter les sorties à ses attentes.

La fonction d’import est désormais accessible en un clic via l’onglet Capacités des paramètres du site Claude.ai. Anthropic fournit un prompt prêt à l’emploi (rédigé en anglais) qu’il suffit de copier dans le modèle que l’on quitte, puis une fenêtre destinée à l’import des résultats obtenus.

La fonction d’import propose une invite (prompt) prête à l’emploi – capture d’écran Next

Pour que la requête soit efficace, il faut bien entendu que l’internaute ait au préalable utilisé un modèle concurrent, et que les options de mémoire de ce dernier aient été pleinement activées, ce qui n’est par exemple pas le cas par défaut sur un compte ChatGPT gratuit. Dans ce scénario, l’utilisateur peut bien visualiser un historique de ses conversations avec le chatbot, mais ce dernier n’établit pas de lien entre les différents fils de discussion, même si les réglages correspondants sont activés dans les paramètres. Sur un compte gratuit pour lequel aucun élément de personnalisation n’a été rempli, ChatGPT répond donc par un fichier vide au prompt proposé par Anthropic.

La donne change avec un abonnement payant, comme nous avons pu en faire l’expérience. La sortie proposée par ChatGPT reprend les infos personnalisées qui ont été renseignées, et propose ensuite une sorte de digest des différents fils de discussion initiés par l’utilisateur. La sortie est globalement fidèle à la réalité des échanges passés, mais elle ignore certains projets ou thèmes abordés, et témoigne parfois d’une interprétation hasardeuse de la finalité initiale de la demande.

Dans la lignée de nos précédentes expérimentations, notre rapide test montre par ailleurs que la sortie n’est pas constante dans le temps : il ne s’agit donc pas d’un export (au sens accès à l’intégralité des données brutes par exemple), mais bel et bien du résultat de la requête transmise à un modèle probabiliste. ChatGPT (et les autres) proposent heureusement une fonction d’archivage qui permet quant à elle de récupérer la totalité de son historique, mais le fichier qui en découle n’est évidemment pas prévu pour être injecté en un clic dans Claude.

De la difficulté de retenir les utilisateurs ?

Est-ce de toute façon vraiment l’efficacité de cette fonction qui prime dans le contexte actuel ? Plusieurs spécialistes de la mesure d’audience affirment que le regain de popularité de l’application Claude s’est accompagné d’une vague de désinstallation de l’application ChatGPT. Autrement dit, les gens ne se seraient pas simplement intéressés à Claude : ils auraient vraiment décidé de changer de crèmerie.

Et c’est précisément pour étayer l’idée selon laquelle il est facile de passer, sans perte, d’une IA à une autre, qu’Anthropic a ouvert les vannes de sa fonction d’import : elle montre qu’au-delà de simplement essayer Claude pour voir, on peut très vite y transférer sa « mémoire ».

Dans la course aux financements que se livrent les géants de l’IA, il y a nécessairement une prime à celui qui réunit le plus grand nombre d’utilisateurs, et c’est encore plus vrai pour Anthropic et OpenAI qui ne peuvent pas, comme Microsoft ou Google, s’appuyer sur une base conséquente d’utilisateurs captifs via d’autres produits déjà très répandus (Windows, Office, Android, Chrome, etc.). Cette problématique de rétention est d’ailleurs l’un des arguments qui motive la course aux agents IA : il est plus difficile de se départir d’un outil auquel on a délégué des tâches concrètes de son quotidien…

Municipales : « passer aux logiciels libres, c’est faisable, on l’a fait », mais…

3 mars 2026 à 14:15
« Le passage à Linux, c’est quand même un peu le boss de fin de niveau »
Municipales : « passer aux logiciels libres, c’est faisable, on l’a fait », mais…

Comment les mairies peuvent-elles s’emparer des questions de souveraineté numérique ? À l’occasion des municipales qui auront lieu les 15 et 22 mars 2026, Next vous propose un entretien avec Nicolas Vivant, directeur de la stratégie numérique embauché par la ville d’Échirolles en 2021 pour mettre en œuvre une politique du numérique prenant en compte une volonté d’autonomie.

Les élections municipales approchent et les questions sur la souveraineté et l’utilisation des logiciels libres sont de nouveau sur le devant de la scène. Next a voulu savoir comment ça se passait concrètement dans une ville qui a choisi de passer au libre.

La ville d’Échirolles (dont la maire est Amandine Demore, PCF), près de Grenoble, est connue depuis quelques années pour avoir mis en place une politique du numérique tournée vers le logiciel libre. Next a interrogé Nicolas Vivant qui travaille pour la ville en tant que directeur de la stratégie numérique depuis 2021.

>> Quand la ville d’Échirolles a vraiment eu une politique tournée vers les logiciels libres ?

C’est difficile à dire. En 2014, l’élu en charge du sujet, Aurélien Farge, a signé la charte des logiciels libres et a cette volonté d’avancer sur le sujet. Mais, il n’y a pas grand-chose d’autre qui est structuré à ce moment-là. Le lien avec le service informatique n’est pas vraiment établi. C’est une prise de parole politique mais qui, sur le mandat 2014 - 2020, n’est pas vraiment déclinée au niveau opérationnel.

Mais, en 2020, il y a, de la part du même élu, une volonté d’avancer concrètement sur le sujet en disant qu’il y a des enjeux politiques autour du numérique et qu’il faut les travailler.

Il y a donc deux périodes, 2014 - 2020 puis 2020 - 2025, avec cette fois-là, la direction générale qui affirme que si on veut vraiment avancer sur ce sujet, il faut se structurer. Ça passe par la commande d’une étude sur le numérique à un cabinet local. Mais aussi par la création d’un groupe de travail des élus sur le numérique.

Ça, c’est vraiment très intéressant, j’ai rarement vu ça : cet adjoint réunit 5 ou 6 autres adjoints (celui aux CCAS, aux RH,…) et ils réfléchissent ensemble sur ce que représente le numérique chacun dans leur délégation. Et, ils rédigent une feuille de route du numérique pour la ville. En parallèle, avec l’appui de la direction générale des services, il crée un poste de directeur de la stratégie et de la culture numérique. Un très bon réflexe qu’ils ont, c’est de mettre le service informatique interne sous ma responsabilité hiérarchique, ce qui me donne les moyens d’influer sur ce qui peut se passer.

Depuis 2021, je déroule, ça a commencé doucement car on avait une équipe qui n’avait ni compétence ni appétence particulière pour ces problématiques : nous étions une DSI comme toutes les autres. Il a fallu prendre le temps de construire une DSI compétente et partante pour avancer sur ces sujets.

L’une des premières choses que j’ai faites était de revoir notre politique de recrutement pour qu’à chaque fois qu’un informaticien quitte le service, on prenne garde de recruter un informaticien avec des compétences sur des logiciels open source et une conviction que c’était une voie sur laquelle il était intéressant de s’engager.

Ça fait que peu à peu, depuis septembre 2023, on dispose de « furieux » avec de vraies compétences techniques et qui sont capables d’installer à peu près n’importe quoi, de maintenir, de documenter, de monitorer dans un environnement open source. Et on commence à mettre des logiciels libres partout.

>> Combien de personnes travaillent pour la DSI d’Échirolles ?

Ça dépend comment on compte et ce qu’on inclut dans la DSI, mais nous sommes dix personnes avec 8,5 équivalents temps plein d’informaticiens.

« Quand on travaille avec des logiciels libres, on ne dépense plus d’argent »

>> Cette question des logiciels libres change-t-elle quelque chose à la taille de la DSI ?

Non, rien. À l’exception de mon recrutement, on a fonctionné à budget constant. On a remplacé les informaticiens qui partaient sur leurs postes jusqu’à fin 2025, où on a demandé la création d’un poste côté support.

Quand on travaille avec des logiciels libres, on ne dépense plus d’argent et on déploie beaucoup plus facilement des outils ouverts pour tout le monde. Entre 2021 et 2025, le nombre de logiciels disponibles pour les agents a été multiplié par deux, ce qui augmente la charge de travail de manière assez significative. De 2021 à 2025, nous n’avons proposé que des budgets en baisse, mais là, en fin de mandat, on commençait à tirer la langue côté support.

>> Ce nouveau besoin de support arrive-t-il parce que les gens sont peu habitués à ces solutions ?

Non, nous aurions mis le même nombre de solutions propriétaires avec l’ancienne équipe et il nous aurait fallu un poste supplémentaire aussi. Ce n’est pas une spécificité des logiciels libres.

On dématérialise de plus en plus : il y a dix ans, personne n’avait de cloud et maintenant tout le monde en veut un. Avant le Covid-19, il n’y avait pas de solution de visioconférence dans les mairies, mais aujourd’hui tout le monde a des solutions de visioconférence. Tout ça, ce sont des solutions qu’il faut installer, intégrer, maintenir et sur lesquelles il faut faire le support. Quel que soit le choix technique ou politique, on aurait donc demandé un poste supplémentaire.

>> Concernant les budgets proposés en baisse, est-ce possible de chiffrer précisément ?

Les économies sur la durée du mandat, c’est 350 000 euros par an, multiplié par 6, ça fait à peu près 2 millions d’euros d’économie à l’échelle du mandat, pour 1 500 PC et 1 000 employés environ. C’est d’ailleurs l’un des changements du passage aux logiciels libres que je n’avais pas du tout anticipé.

Quand on travaille avec des logiciels propriétaires, il faut les acheter et payer un contrat de maintenance et il faut donc un budget. La période de la préparation budgétaire est donc une période où l’on donne de la visibilité sur les projets qu’on va mener dans l’année. Et l’arbitrage budgétaire donne la feuille de route pour l’année. Et les élus et la direction générale savent exactement ce sur quoi on va travailler, avec comme facteur limitant le budget alloué. Il a fallu retravailler le reporting pour mettre en évidence les économies réalisées et les projets que nous menons d’année en année.

>> Est ce que la mise en place de logiciels libres simplifie ou complexifie le travail des agents de la DSI ?

Globalement et avec une équipe différente, ça a simplifié. Les logiciels libres n’ont rien à envier en termes d’ergonomie aux logiciels propriétaires, vraiment rien. La raison de la simplification n’est pas vraiment les logiciels libres mais le travail que nous avons fait autour. Quand j’arrive, il n’y a aucune documentation dans l’équipe, pas de monitoring et personne ne sait ce qu’il se passe sur le réseau ou sur les serveurs. Le gros travail que nous avons fait est une réorganisation du service, la mise en place de monitoring… Tout est documenté chez nous, aussi bien pour les utilisateurs que pour les personnes en charge de la maintenance des différentes solutions. C’est ça qui nous simplifie la vie.

Globalement, l’équipe commence à ressentir une baisse de la charge de travail. Ça ne veut pas dire qu’on a du temps à ne rien faire mais qu’on a de nouveau le temps de gérer des projets alors qu’avant la vie était complètement bouffée par le quotidien et en mode réactif en permanence.

>> Dans la feuille de route donnée par l’équipe municipale au départ, quelles sont les motivations pour s’orienter en majorité vers les logiciels libres ?

On me demande de travailler quatre grands domaines qui n’ont rien de très original à l’époque. L’inclusion numérique, parce qu’on est une ville avec de vraies problématiques de langue, de formation au numérique et d’accès au droit. L’impact environnemental du numérique, en le réduisant et le maîtrisant le plus possible. L’autonomie, avec l’idée d’être le moins dépendant possible d’acteurs extérieurs et notamment des géants de la technologie américains, russes ou chinois. Et la bonne gestion des données personnelles des habitants.

On ne me demande donc pas de mettre en place les logiciels libres mais de répondre à ces quatre enjeux. Les logiciels libres sont la réponse à un certain nombre de sujets et notamment la partie autonomie, impact environnemental, bonne gestion des données personnelles, sécurité…

« Le passage à Linux, c’est quand même un peu le boss de fin de niveau »

>> Sur le site de la mairie, vous affichez utiliser Zorin OS, est-ce le cas pour tous les postes ? Et quels sont les autres outils que vous avez mis en place ?

Les outils, je ne pourrai pas tous les citer, il y en a des dizaines. Je parlerai de Linux après, parce qu’on a attaqué le passage il y a un peu plus d’un an, commencer par ça ce n’est pas la bonne idée. Il y a beaucoup de choses à faire qui ne touchent pas l’environnement des utilisateurs et qui peuvent être faites en open source.

Nous nous sommes mis dans un mode de fonctionnement particulier où, pour toute nouvelle solution qui est déployée, on étudie les solutions pour le faire avec des logiciels libres.

Par exemple, nous avons repris le streaming du conseil municipal (Échirolles a été une des premières villes à streamer en direct le conseil municipal) avec une machine sous Linux, avec Obs Studio (utilisé massivement par les youtubeurs) et un serveur PeerTube. On a acheté nos caméras, déployé notre propre réseau et nous gérons en autonomie. Au final, nous avons mis en place une solution à un coût ridicule par rapport à ce que ça coûte aux autres communes : 6 000 euros en investissement.

C’est valable aussi pour les interphones dans les crèches où on a mis une solution complètement libre. C’est une première, je crois. Le matériel, c’est les interphones du marché, mais on s’appuie sur une solution qui s’appelle FlexiSIP, solution open source développée par une société grenobloise qui s’appelle Belledonne Communications et qui est utilisée par l’immense majorité des constructeurs dans le monde.

On a donc installé chez nous, en interne, un serveur FlexiSIP et quand on appuie sur le bouton de l’interphone, c’est notre FlexiSIP qui est contacté. Nous avons aussi un système de téléphone sur IP avec un IPBX, solution open source aussi, qu’on opère nous-même. Si l’appel est redirigé vers un téléphone fixe chez nous, on a une petite configuration à faire sur notre serveur Xivo. Si l’appel est redirigé vers un smartphone, on a une solution libre qui s’appelle Linhome et qui permet de voir la personne avec la caméra de l’interphone, d’ouvrir la porte, etc.

Nous avons appliqué ça à absolument tout : l’affichage municipal est construit avec des mini-PC sous Linux, récupération de desktop de PC d’agents un peu juste pour faire tourner la bureautique. Ça nous permet de faire de l’affichage municipal sur tous les sites de la ville et que nous maitrisons.

On a aussi changé la messagerie, installé un Nextcloud, un Big Blue Button pour la visio. Aujourd’hui, ce n’est pas loin de 100 solutions libres différentes qu’on utilise, soit déployées sur des serveurs, soit sur des postes clients.

Le passage à Linux, c’est quand même un peu le boss de fin de niveau. Dans notre stratégie, je dis à mon équipe que c’est très bien de passer au libre mais que nous sommes à la merci d’un changement de majorité qui pourrait dire « marche arrière toute, on revient aux outils Microsoft ». Si l’informatique n’est pas un problème, que ça se passe bien et que les gens sont contents, il n’y aura ni pression ni soutien de la part des agents pour un retour en arrière, qui de fait couterait très cher. Il faut donc absolument travailler la satisfaction des utilisateurs.

Linux va directement les toucher car on touche à l’interface qu’ils utilisent au quotidien. On a travaillé sur le choix d’une distribution aussi proche que possible de Windows, qui ne vient pas les bouleverser complètement. On a donc choisi Zorin OS en version gratuite (Core), la version pro a un intérêt si on a besoin de support, ce qui n’est pas notre cas (nous gérons en interne).

Si on avait mis du Ubuntu, on aurait mis tout le monde en panique. Et nous faisons une introduction de Linux dans notre système d’information très très progressive et douce dans l’approche. Aujourd’hui, on a 10 % de PC seulement sous Linux alors qu’on a commencé il y a un an et demi. On a commencé par lancer un appel à volontariat et à déployer Linux chez des gens qui nous l’ont réclamé et qui donc accueillent d’emblée le changement.

Là, nous sommes entrés dans une phase d’incitation, c’est-à-dire qu’on propose systématiquement Linux aux personnes, mais s’ils refusent, aucun problème, on leur installe un Windows 11. On a prévu que cette phase dure trois ans. L’idée est que Linux apparaisse dans l’infrastructure, que les gens voient d’autres personnes utiliser Linux sans difficulté et que ça lève un certain nombre de craintes.

Les exceptions : la paie, les finances, l’état civil

>> L’OS est un point clé mais il y a aussi les applications métiers. Avez-vous des logiciels libres qui permettent de gérer la paie et tout ce qu’une mairie doit pouvoir utiliser ?

Non, aujourd’hui, pour la paie, les finances, l’état civil, il n’en existe pas. Pour ce genre d’applications métiers, il y a deux ou trois éditeurs qui se partagent tout le marché des collectivités. Ça s’explique parce que ce sont des logiciels qui sont très dépendants des évolutions législatives et quand un gouvernement décide qu’au 1ᵉʳ janvier, ça va être le prélèvement à la source, il faut qu’au niveau du logiciel RH, du logiciel de paie et du logiciel financier, ça soit prêt. Ça veut dire qu’il faut adapter le logiciel alors que ça ne concerne que la France. Et en général, un logiciel libre ne concerne pas que la France, il est déployé partout mais on ne peut pas avoir une équipe qui maintient en fonction des évolutions législatives de chaque pays.

Mais nous avons créé un collectif qui s’appelle France Numérique Libre qui rassemble 350 informatiques de collectivités représentant plus de 250 collectivités (conseils départementaux, régionaux, communes, partout en France, y compris dans les départements et territoires d’outre-mer).

Nous sommes tous frustrés par le fait qu’on n’ait pas de solution de logiciels libres pour ces logiciels métier. Nous commençons donc à nous organiser pour initier la naissance des logiciels que l’on financerait. Sur l’état civil, un groupe de travail s’est déjà constitué avec plusieurs collectivités qui sont prêtes à y aller et à financer.

>> Justement, y a-t-il des villes qui sont proches des interrogations d’Échirolles sur ces sujets ?

Oui. Il y a déjà une vraie dynamique locale autour de Grenoble : on a des liens très étroits avec un certain nombre de communes, qu’elles soient petites comme Saint-Martin-d’Uriage ou de plus importantes comme Pont-de-Claix, Saint-Martin-d’Hères, ou Saint-Égrève.

Au niveau national, grâce à France Numérique Libre, on a pu échanger avec des collègues et identifier quelques villes qui boostent comme Strasbourg où il y a une vraie dynamique, Colomiers (du côté de Toulouse), Lyon, Villejuif. Et les choix d’outils peuvent être très différents, mais tant mieux.

>> Concernant la gestion du mail qui demande une attention particulière, ça se passe comment ?

L’installation, le paramétrage, la formation des utilisateurs demandent du boulot. Mais nous avons une équipe qui sait gérer une messagerie sans difficulté. Nous avons choisi SOgo. Mais par exemple la ville de Claix est passée cette année de Microsoft Exchange à Open-Xchange. Et peut être que demain, si on avait à changer de messagerie, on passerait aussi surOpen-Xchange.

Opérer des messageries, ça se fait. Le SITPI, qui est un syndicat intercommunal dont nous sommes membres et par le biais duquel nous mutualisons un certain nombre d’outils avec d’autres collectivités, a fait le choix d’Open-Xchange en migrant au mois d’octobre dernier.

On parle beaucoup d’Échirolles parce qu’on raconte ce qu’on fait mais aussi parce qu’on va chercher des choses sur lesquelles d’autres ne sont pas allés. Sur la partie infrastructure, par exemple, notre fournisseur d’accès nous fournit un « tuyau », mais le reste, il ne s’en occupe pas, nous avons nos propres adresses IP, nos propres routeurs BGP pour faire le routage sur Internet.

Et nous travaillons avec notre syndicat communal pour le connecter directement à Internet et qu’il devienne fournisseur d’accès à Internet pour les villes membres.

On construit un cercle vertueux : ça se sait qu’on travaille sur ce genre de projets et finalement, quand on ouvre un poste d’ingénieur réseau, on a des gens d’un niveau de compétence important qui postulent alors même qu’on leur rappelle que le niveau de rémunération n’est pas très élevé. Parce qu’ils savent qu’ils vont bosser sur des projets pointus et sympas et pas sur des contrats avec des prestataires à passer des coups de fil quand ça ne fonctionne plus.

Il y a plusieurs façons d’imaginer une DSI. Je peux tout à fait concevoir que quelqu’un se dise que le cœur de métier d’une mairie n’est pas de faire de l’informatique et qu’il va payer des prestataires pour la messagerie, pour le cloud, etc., et c’est eux qu’on appellera quand il y aura des soucis et on gèrera des contrats. C’est complètement compréhensible. Ce sont des choix politiques. Il y avait une volonté, nous, de la majorité, d’être cohérents, y compris sur la partie numérique, avec leur positionnement politique par ailleurs. D’autres choix sont possibles mais effectivement, on ne recrute pas les mêmes profils de personnes et on ne travaille pas du tout de la même façon…

>> N’y a-t-il pas quand même un coût de formation des personnels, par exemple, pour le passage à Zorin OS ?

Non, l’avantage de Zorin OS, c’est qu’on peut le configurer aux petits oignons et que les raccourcis et les menus sont les mêmes que sous Windows, par exemple. On va peut-être se mettre à faire des formations, mais plus pour faire de la communication. Nos formations à Linux seront plutôt l’occasion de parler du projet échirolois, de ses spécificités et de mettre en avant les quelques points forts de Linux, parce qu’il y en a.

Nous ne les mettons pas en place parce que les gens seraient perdus sous Linux. On a un exemple d’une agente, au début du plan de volontariat du passage à Linux, à qui on l’a refusé parce qu’elle était arrivée six mois avant et qu’en fait, elle était déjà sous Linux mais elle ne s’en était pas rendue compte. Le changement se fait sans difficulté.

Il y a aussi le fait qu’on part sur un plan de volontariat, mais aussi qu’on commence par la facilité : il est hors de question que je passe les infographistes de la ville qui travaillent sous Mac avec la suite Adobe sous Linux en premier. Ça serait de la folie. Ces outils sont tellement inscrits culturellement chez eux et chez tous les infographistes que je me dis que si je passe 1 498 PC sous Linux et que ces deux-là restent sous Mac, on pourra quand même dire qu’on est passé sous Linux. On contourne la difficulté parce que l’idée n’est pas d’avoir 100 % de postes sous Linux mais d’avoir autant de postes sous Linux que possible dans des conditions qui restent acceptables pour nos agents.

Je veux bien qu’on me dise que Zorin OS n’est pas la meilleure distribution pour nous ou que le passage à Linux, c’est très compliqué, mais les arguments portent peu dans la mesure où on l’a fait, voilà.

À l’époque où on choisit Zorin OS, c’est quand j’arrive et j’ai une équipe de Windowsiens convaincus que Windows c’est le meilleur système d’exploitation et c’est eux qui choisissent Zorin OS. Pour moi, c’est important car, culturellement, ils ont le même background que mes utilisateurs. On peut me dire que Debian, c’est mieux. Je recrute que des libristes, et pas un seul était sous Zorin OS, mais peu contestent que Zorin OS était le meilleur choix pour Échirolles parce qu’au quotidien, quand on est face aux utilisateurs à la hotline, on a intérêt à installer un OS dans lequel il est facile de mettre un raccourci sur un bureau, par exemple, parce que c’est comme ça qu’ils bossent.

>> Pour les autres logiciels, c’est comme pour du logiciel propriétaire ?

Oui et parfois mieux. On utilise Odoo, un ERP libre de recrutement. Avec notre service recrutement et avec plusieurs communes dans le cadre de notre syndicat intercommunal, on l’a mis en concurrence avec d’autres solutions du marché et tout le monde nous a dit « c’est celui-là qu’on veut ».

Les personnes qui arrivent à Échirolles et qui ont connu Google Workspace ou Microsoft 365 trouvent que Nextcloud est beaucoup mieux, aussi bien en termes de nombre de fonctionnalités disponibles qu’en termes d’ergonomie. Aujourd’hui, ce n’est plus « ça va être un peu moins bien mais c’est du logiciel libre ». Il y a beaucoup de logiciels libres qui sont meilleurs que les logiciels propriétaires du marché.

Beaucoup de gens nous disent que le passage à LibreOffice, c’est vraiment compliqué, mais on l’a fait et ça fonctionne. D’ailleurs, le passage à LibreOffice a été fait bien avant que j’arrive. Mais ça fonctionne pour tous les logiciels sauf les logiciels métier dont on a parlé avant (finance, RH, état civil).

Passer aux logiciels libres, c’est faisable, on l’a fait. Reste que ce n’est pas juste remplacer un logiciel propriétaire par un logiciel libre, ça nécessite plein de changements au niveau organisationnel pour que les choses soient bien faites.

Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

3 mars 2026 à 13:47
L’attaque des bots
Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

Un bot alimenté a utilisé les GitHub Actions pour compromettre des dépôts GitHub. Ironie du sort, il a piraté un scanner de sécurité (vulnérabilité, mauvaises configurations…), publié une extension VS Code malveillante et renommé le dépôt (en privé).

Il y a maintenant plus de sept ans que GitHub propose ses « Actions » pour automatiser des tâches, dont la mise en production automatique de code. On parle souvent de CI/CD avec CI pour Continuous Integration (intégration continue) et CD pour Continuous Deployment (déploiement continu).

La semaine dernière, un bot baptisé hackerbot-claw a utilisé l’intelligence artificielle générative (Claude Opus 4.5 selon sa propre présentation) pour exploiter activement la fonctionnalité GitHub Actions afin de faire des dégâts dans des dépôts GitHub.

Du code exécuté à distance sur au moins quatre cibles

StepSecurity (entreprise spécialisée dans la sécurité de l’automatisation de la livraison de code) a publié une analyse détaillée. De même pour Stéphane Robert, ingénieur DevOps et architecte cloud chez 3DS Outscale, sur son blog en se concentrant davantage sur une des attaques, contre le scanner de vulnérabilités open source Trivy. Il dresse un portrait au vitriol : « Un bot IA autonome qui compromet un scanner de sécurité, publie une extension VS Code malveillante, et renomme le dépôt en privé — le tout en quelques heures. On est clairement entrés dans une nouvelle ère ».

Durant plusieurs jours, une campagne d’attaques automatisées (avec cinq techniques différentes) a donc été lancée via GitHub Actions, « réussissant à exécuter du code à distance dans au moins 4 cibles sur 7 » selon le billet de blog de StepSecurity. Les cibles étaient prestigieuses : microsoft/ai-discovery-agent‍, DataDog/datadog-iac-scanner‍, avelino/awesome-go, ambient-code/platform, project-akri/akri, aquasecurity/trivy et RustPython/RustPython.

Dans un des cas, le bot a pu « exfiltrer un jeton GitHub d’un dépôt populaire, avec des autorisations d’écriture ». Pour d’autres, le bot a aussi mis en place une injection de script en ajoutant une charge malveillante dans un fichier version.sh, a modifié des noms de branches pour y ajouter du code, caché des commandes shell (en Base64) dans les noms de fichiers, injecté des prompts IA, etc.

Le dépôt hackerbot-claw a été fermé dans la journée d’hier. Il précisait auparavant être « un agent autonome qui analyse les dépôts publics à la recherche de workflows CI/CD mal configurés. Je les trouve. Je les vérifie. Je laisse un mot. Je n’exfiltre pas, je ne détruis pas, je ne persiste pas », affirmait la présentation, qui voulait donc le présenter comme un chevalier blanc.

Trivy, le scanner de vulnérabilités, se fait détrousser

L’attaque la plus médiatisée est celle contre Trivy, dont le dépôt officiel (24 000 étoiles) a été vidé. « Trivy est l’un des scanners de vulnérabilités open source les plus utilisés dans l’écosystème cloud native. Il scanne les images de conteneurs, les fichiers IaC (Terraform, Kubernetes), les dépôts de code, les SBOM… C’est un outil incontournable dans toute chaîne DevSecOps sérieuse », explique Stéphane Robert sur son blog.

Hormis le dépôt vide, le site officiel est toujours en place, comme la documentation de la version 0.69 et « la page d’installation référence même la version 0.69.1 dans ses exemples ». Le problème ne concerne que GitHub a priori, mais aussi par ricochet toutes les applications s’appuyant sur ce dépôt.

L’éditeur de Trivy, Aqua Security, explique de son côté que « le dépôt a été rendu privé et renommé (en private-trivy). Un dépôt vide a été poussé à la place du dépôt public. Les versions GitHub entre 0.27.0 et 0.69.1 ont été supprimées, y compris les discussions et ressources GitHub associées pour ces versions ».

Autre problème et pas des moindres : « Un artefact malveillant a été créé pour l’extension VScode de Trivy, puis poussé vers la marketplace Open VSIX (une alternative à la marketplace officielle de VSCode). Nous avons supprimé cet artefact et révoqué le jeton utilisé pour le publier ». L’équipe n’a pas trouvé d’autres « impacts » suite à cette attaque et se concentre sur un retour à la normale de l’ensemble des services.

Depuis, une nouvelle version 0.69.2 a été mise en ligne, la seule « considérée comme propre » par Stéphane Robert. « Si vous avez installé Trivy entre le 21 et le 28 février – vérifiez l’intégrité de votre binaire. En cas de doute, supprimez et réinstallez la v0.69.2 », ajoute-t-il.

Attaques CI/CD : « Vous ne pourrez plus dire “je ne savais pas” »

Pour StepSecurity, cette attaque de « Hackerbot-Claw démontre que les attaques CI/CD ne sont plus simplement théoriques. Des bots autonomes recherchent et exploitent activement les erreurs de configuration des flux de travail en production ».

Stéphane Robert lance lui aussi un avertissement sur LinkedIn : « Alors messieurs les RSSI, mesdames les responsables sécurité : l’attaque sur Trivy n’est pas un cas isolé. C’est un rappel. Vos pipelines sont une surface d’attaque. Ils ont des permissions d’écriture sur vos repos, accèdent à des secrets, et s’exécutent à chaque push. Vous ne pourrez plus dire “je ne savais pas” ».

Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

3 mars 2026 à 13:26
Oh wait...
Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.

On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.

La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».

Svenska Gagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.

L’intimité de l’entourage des utilisateurs révélée

S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.

« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.

Des retranscriptions de discussions privées avec l’appareil

Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.

Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.

Les conditions d’utilisation de Meta AI demandent de ne pas partager d’informations sensibles

Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.

Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».

Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.

Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.

Bientôt une enquête de la Commission européenne ?

Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.

Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.

À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».

En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».

USA : 7 ans de prison pour avoir volé, et vendu, des failles « 0days » à un courtier russe

3 mars 2026 à 11:44
L3Harris spotter
USA : 7 ans de prison pour avoir volé, et vendu, des failles « 0days » à un courtier russe

Le directeur général d’un vendeur américain de failles de sécurité susceptibles d’être exploitées par les services de renseignement techniques vient d’être condamné pour en avoir volé huit, et les avoir vendues à son principal concurrent… russe. Ce dernier, ainsi que cinq personnes et entités associées, viennent par ailleurs d’être sanctionnés.

Le business des « 0days », du nom donné aux vulnérabilités logicielles non identifiées par leurs éditeurs (et donc non patchées) est devenu tellement profitable que le directeur général d’un fournisseur attitré des États-Unis et de ses partenaires anglo-saxons de l’alliance des « Five Eyes » vient d’être condamné à sept ans et trois mois de prison pour en avoir volé et vendu huit, pour 4 millions de dollars en cryptoactifs, à un courtier russe.

La justice états-unienne n’a pas mentionné le nom de ce dernier dans son communiqué, mais le département du Trésor et le département d’État viennent, dans le même temps, de sanctionner Operation Zero, le principal broker russe de 0days, tout en le reliant explicitement à la condamnation de Peter Williams.

La journaliste spécialisée Kim Zetter raconte que cet Australien de 39 ans résidant à Washington avait initialement travaillé au sein de l’Australian Signals Directorate (ASD), l’agence australienne de renseignement électronique à l’étranger, partenaire de la NSA.

Après l’avoir quittée, il avait travaillé pour une entreprise privée australienne spécialisée dans la recherche de vulnérabilités et les « computer network operations » (CNE), du nom donné par les « Five Eyes » aux capacités cyberoffensives.

En 2018, le géant américain L3Harris rachetait Azimuth Security et Linchpin Labs, deux entreprises australiennes spécialisées dans le développement d’exploits, où Williams travaillait depuis son départ de l’ASD en 2016.

En octobre 2024, Peter Williams était nommé directeur général de Trenchant, l’entreprise née de ce rachat. Hasard ou coïncidence, Trenchant avait appris, à peu près au même moment, que certains de ses actifs logiciels avaient fuité hors de son réseau sécurisé, et se trouvaient entre les mains d’un courtier étranger.

Trenchant avait alors lancé, ce même mois d’octobre 2024, une enquête interne, supervisée par Williams lui-même. Elle avait conclu que le réseau sécurisé de Trenchant n’avait pas été compromis, « à l’exception d’un ancien employé qui, pendant qu’il était en poste, avait accédé de manière inappropriée à Internet à partir d’un appareil isolé ».

Kim Zetter souligne en effet que Trenchant conserve son code sensible sur un réseau sécurisé isolé déconnecté d’Internet (« air-gapped »), afin d’empêcher tout risque de fuite.

Pour tenter de brouiller les pistes, Peter Williams avait alors lui-même accusé un autre salarié de Trenchant d’être à l’origine de la fuite de plusieurs vulnérabilités inconnues du navigateur Chrome, avant de le licencier.

Une accusation d’autant plus improbable que le bouc émissaire faisait partie d’une équipe chargée exclusivement de l’identification de failles zero-day dans iOS et du développement de logiciels espions pour les terminaux Apple.

Encore plus étrangement, s’étonne Kim Zetter, Williams avait continué à vendre des exploits au broker russe alors même qu’il savait que le FBI enquêtait sur le vol de codes de Trenchant. En juin 2025, il avait même signé un nouveau contrat de 500 000 dollars avec le broker russe, et lui transmettait de nouveaux « secrets logiciels » quelques jours seulement avant de rencontrer le FBI à ce sujet.

Pire : après avoir reçu un premier versement, en crypto-monnaies, il l’avait blanchi, comme à son habitude, mais plutôt que de laisser la somme sur un compte dédié, et non relié à son identité, il avait transféré la somme correspondante sur l’un de ses comptes bancaires.

Un préjudice estimé à au moins 35 millions de dollars

D’après l’acte d’accusation, que nous avions déjà évoqué lors de son inculpation, en octobre 2025, Williams aurait obtenu 1,3 million de dollars en échange de ces secrets commerciaux entre 2022 et 2025, sur les 4 millions de dollars initialement escomptés, tempère Kim Zetter.

L’intégralité des fonds (y compris en cryptos) déposés dans sept comptes bancaires avait alors été saisie, ainsi qu’une liste d’objets de valeur à son domicile, dont plusieurs bagues de diamant Tiffany, un sac à main Louis Vuitton, des vestes Moncler, et 24 montres de luxe (dont huit « replicas », copies plutôt haut de gamme, difficiles à distinguer des originales).

Le procureur précise que Williams avait aussi acheté une Tesla Model X 2022, une Porsche Panamera 2018, des biens immobiliers, dépensé 5 000 dollars pour quatre bagages de luxe et plus de 715 000 dollars pour des vacances de luxe entre 2022 et 2025. 

Kim Zetter rapporte que le département de la Justice avait réclamé une peine de neuf années de prison, 250 000 dollars d’amendes, et le remboursement des 35 millions de dollars de pertes pour Trenchant.

Williams avait en effet lui-même estimé, auprès du FBI, que la vente de deux des « secrets » qu’il avait vendus au broker russe représentait à elle seule une perte d’environ 35 millions de dollars de préjudice pour Trenchant.

Cyberscoop indique qu’une audience visant à obtenir une restitution supplémentaire liée à ces 35 millions de dollars de préjudice est par ailleurs prévue en mai.

Des brokers russes prêts à payer jusqu’à 20 millions de dollars

Le Bureau du contrôle des avoirs étrangers (OFAC) du département du Trésor américain a donc, en parallèle, désigné Sergey Sergeyevich Zelenyuk (Zelenyuk) et sa société, Matrix LLC (opérant sous le nom d’Operation Zero), ainsi que cinq personnes et entités associées, pour leur acquisition et leur distribution d’outils informatiques nuisibles à la sécurité nationale des États-Unis. 

L’OFAC précise que « parmi les exploits acquis par Operation Zero figuraient au moins huit cyber-outils propriétaires, créés pour l’usage exclusif du gouvernement américain et de certains alliés, et qui avaient été volés à une entreprise américaine » :

« Cette action coïncide avec une enquête menée par le ministère de la Justice et le Federal Bureau of Investigation (FBI) sur Peter Williams, un ressortissant australien et ancien employé de la société américaine susmentionnée qui a plaidé coupable le 29 octobre 2025 de deux chefs d’accusation pour vol de secrets commerciaux. »

Si Operation Zero souligne sur son site web que « Nos clients sont exclusivement des organisations privées et gouvernementales russes », l’OFAC avance que Zelenyuk aurait déclaré qu’il ne vendrait d’exploits qu’à des clients de pays non membres de l’OTAN, et donc pas forcément russes.

En octobre 2023, arguant d’une forte demande du marché, Operation Zero avait été jusqu’à passer de 200 000 à 20 millions de dollars le montant maximum des primes proposées en échange d’exploits iOS ou Android, comme l’avait documenté TechCrunch.

Zelenyuk et Operation Zero auraient notamment cherché à « développer d’autres systèmes de cyber-renseignement, notamment des logiciels espions et des méthodes permettant d’extraire des informations d’identification personnelle et d’autres données sensibles téléchargées par les utilisateurs d’applications d’intelligence artificielle telles que les grands modèles de langage ».

L’OFAC désigne également Azizjon Makhmudovich Mamashoyev et Oleg Vyacheslavovich, pour avoir entretenu des relations professionnelles avec Operation Zero, ainsi que Marina Evgenyevna Vasanovich, l’assistante de Zelenyuk.

Ressortissant russe, Kucherov est soupçonné d’appartenir au groupe cybercriminel Trickbot, accusé de multiples attaques par ransomware contre le gouvernement américain, ainsi que contre des hôpitaux et des centres de soins de santé à travers les États-Unis. 

Next était revenu en détail sur leurs faits d’armes lorsque la justice états-unienne avait identifié sept de ses membres, dont une développeuse web de 55 ans arrêtée à Miami : Alla Witte, au profil somme toute détonant eu égard aux clichés d’ordinaire véhiculés au sujet des cybercriminels russophones.

Mamashoyev est quant à lui à la tête d’Advance Security Solutions, une autre société de courtage d’exploits et de cybersécurité offensive opérant aux Émirats arabes unis et en Ouzbékistan. 

Le département d’État précise dans un communiqué dédié que Zelenyuk avait lui aussi créé une société basée aux Émirats arabes unis, Special Technology Services LLC FZ (STS), afin de mener des activités commerciales avec divers pays d’Asie et du Moyen-Orient, tout en contournant les sanctions américaines imposées aux comptes bancaires russes.

Signe d’un business florissant, TechCrunch rappelle que lors de son lancement, l’an passé, Advance Security Solutions proposait lui aussi jusqu’à 20 millions de dollars de primes pour des failles 0days capables d’infecter un smartphone au moyen d’un message textuel.

C’est par ailleurs la première fois, souligne le département d’État, que le gouvernement sanctionne un individu et des entités en vertu de la loi sur la protection de la propriété intellectuelle américaine (Protecting American Intellectual Property Act, ou PAIPA).

Cette loi autorise les sanctions à l’encontre de toute personne ayant sciemment participé à un vol important de secrets commerciaux appartenant à des ressortissants américains ou en ayant tiré profit, « si le vol de ces secrets commerciaux est raisonnablement susceptible d’entraîner ou a contribué de manière significative à une menace importante pour la sécurité nationale, la politique étrangère, la santé économique ou la stabilité financière des États-Unis ».

Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

3 mars 2026 à 10:15
El ingenioso hidalgo
Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

Déjà très présent en Espagne, Amazon a annoncé lundi une nouvelle salve de projets qui représentent, en cumulé, 18 milliards d’euros d’investissements supplémentaires dans le pays. Dans les grandes plaines semi-désertiques d’Aragon, le géant américain évoque des datacenters, une usine d’assemblage de serveurs et un centre logistique. Un millième de son enveloppe est fléché vers le soutien à l’approvisionnement en eau dans la région.

Amazon double la mise en Espagne. Le géant américain a en effet profité du Mobile World Congress de Barcelone pour annoncer, lundi, une nouvelle salve d’investissements, à hauteur de 18 milliards d’euros, dans le pays. En 2024, Amazon s’était déjà engagé à y déployer 15,7 milliards d’euros sur dix ans. Ce second volet porte donc l’enveloppe totale promise à 33,7 milliards d’euros d’ici 2035.

C’est essentiellement en Aragón, cette communauté autonome du nord-est de la péninsule ibérique qui abrite déjà les datacenters espagnols d’Amazon Web Services (AWS), que devraient se concentrer ces investissements.

Deux usines et trois datacenters

Le groupe américain affirme que cette manne contribuera à hauteur de 31,7 milliards d’euros au PIB espagnol d’ici 2035, et générera l’équivalent de « 29 900 emplois directs, indirects et induits par an », aussi bien dans la construction de ses infrastructures que dans l’économie locale.

Si l’impact réel des datacenters en matière de création d’emploi reste sujet à débat, Amazon indique que la province espagnole d’Aragón a vocation à accueillir des installations industrielles, dédiées à l’assemblage et à la logistique des serveurs qui équipent ses infrastructures dans toute l’Europe.

« Le projet comprendra une usine de fabrication de serveurs pour l’assemblage et les tests, un entrepôt de production et de traitement des commandes, ainsi qu’une installation dédiée à la fabrication et à la réparation de serveurs d’IA et d’apprentissage automatique (ML), un élément clé de la stratégie d’économie circulaire d’Amazon », déclare le groupe dans un communiqué. Ces installations devraient représenter 1 800 emplois directs en vitesse de croisière.

À l’échelle de la région, Amazon affirme que ses projets induiront la création de 13 400 emplois aragonais, dont 4 200 emplois directs au sein de ses propres équipes. Le géant américain affirme que ses investissements devraient contribuer au PIB de l’Aragón à hauteur de 18,5 milliards d’euros d’ici 2035, soit une augmentation de plusieurs points du PIB annuel de la communauté autonome (41,8 milliards d’euros en 2023).

Outre ces usines d’assemblage et de reconditionnement de serveurs, c’est tout de même principalement dans les datacenters que devraient se concentrer les fonds promis. D’après le quotidien local El Heraldo de Aragón, Amazon prévoit en effet d’ajouter trois centres de données aux six que compte déjà la région de Saragosse, capitale de la communauté autonome.

Les projets d’Amazon sont soutenus par le président de la collectivité, le conservateur Jorge Azcón, réélu en février dernier et soutien affirmé du développement des infrastructures numériques, qu’il considère comme un « nouvel horizon économique ». El Mundo indique que l’administration aragonaise accélère les projets d’implantation de datacenters en leur octroyant le statut de projets d’intérêt général (Planes y Proyectos de Interés General de Aragón, ou PIGAS), qui simplifient grandement les formalités administratives associées.

Une contribution positive en eau à horizon 2030 ?

Cette simplification se fait-elle au prix de compromis sur les enjeux environnementaux et climatiques ? C’est la crainte exprimée par l’opposante socialiste Pilar Alegría, qui réclamait pendant sa campagne que les grands noms du numérique qui s’installent dans la communauté autonome soient frappés par une taxe de solidarité destinée aux populations locales, notamment pour compenser les risques soulevés en matière d’approvisionnement en énergie ou en eau.

Sur le volet énergétique, la majorité en place et Amazon rappellent d’une même voix que la province d’Aragón et ses grandes plaines désertiques sont un lieu propice au déploiement d’installations photovoltaïques. Amazon promet en la matière d’investir dans cent projets solaires et éoliens à l’échelle de l’Espagne, dont sept nouvelles fermes photovoltaïques. « En Aragón, les centres de données AWS compensent leur consommation d’électricité par de l’énergie 100 % renouvelable depuis leur ouverture en 2022 », affirme l’entreprise. Rappelons que la péninsule ibérique avait été frappée par une panne de courant de grande ampleur en avril 2025, dont la cause a été attribuée à un défaut des installations chargées de compenser ou réguler la tension sur le réseau.

Reste la question de l’eau, dans une zone où l’irrigation crée déjà des tensions et où les périodes de sécheresse sont parfois ponctuées par quelques épisodes d’inondations à grande échelle. Sur ce point, Amazon ne donne aucune indication précise quant à l’utilisation qui sera faite par ses infrastructures : fonctionneront-elles en circuit fermé (prélèvements marginaux une fois l’approvisionnement initial effectué) ou de façon ouverte, avec des pertes (et donc une consommation continue) à la clé ?

Dans sa communication, le groupe se contente de reprendre ses engagements globaux en matière d’eau, à savoir atteindre une contribution positive d’ici 2030. « Cela signifie que nous restituerons aux communautés et à l’environnement plus d’eau que nous n’en utilisons pour l’exploitation de nos centres de données. En 2024, AWS avait atteint 53 % de son objectif de bilan hydrique positif, contre 41 % en 2023 », explique-t-il.

En Aragón, cette ambition s’exprime par la participation à cinq projets hydriques, initialement annoncés en 2025. Ils concernent respectivement la détection des fuites sur le réseau d’eau potable, le réemploi de l’eau utilisée sur des parcelles agricoles voisines, la création d’un système visant à optimiser la gestion de l’eau à l’échelle de l’agglomération de Saragosse, la mise au point d’une IA destinée à l’irrigation agricole et la modernisation d’une conduite d’eau cruciale de la région. Ces cinq projets sont financés à hauteur de 17,2 millions d’euros, soit un millième de l’enveloppe globale évoquée lundi.

Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

3 mars 2026 à 09:07
Les Pixels toujours dans la course
Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

Motorola a été chercher GrapheneOS pour améliorer la sécurité de ses smartphones, mais aussi (et surtout) pour proposer officiellement ce système d’exploitation sécurisé avec certains de ses smartphones. Inutile de courir, aucun modèle n’est actuellement compatible, il faudra attendre 2027.

Pour le MWC de Barcelone, Motorola est « on fire » avec une dizaine de communiqués de presse sur la seule journée d’hier. Il y a évidemment des smartphones avec les Razr Fold et Edge 70 Fusion, des écouteurs sans fil Buds 2, mais surtout un « partenariat à long terme avec GrapheneOS », une alternative à Android de Google.

Motorola et GrapheneOS main dans la main

GrapheneOS mise sur la sécurité et n’était historiquement disponible que sur les smartphones Pixel de Google. La raison ? Ce sont les seuls terminaux laissant l’utilisateur reverrouiller complètement le bootloader avec des clés de chiffrement personnalisées. Depuis plusieurs mois, la rumeur courait d’un partenariat avec un fabricant de smartphones pour intégrer GrapheneOS, c’est donc Motorola.

Pour le moment ce sont seulement des annonces, avec rien de concret à se mettre sous la dent :

« Motorola inaugure une nouvelle ère de la sécurité des smartphones grâce à un partenariat à long terme avec la GrapheneOS Foundation, la principale organisation à but non lucratif spécialisée en sécurité mobile qui développe un système d’exploitation renforcé basé sur le projet Android Open Source. Ensemble, Motorola et GrapheneOS Foundation travailleront à renforcer la sécurité des smartphones et à collaborer sur de futurs appareils conçus avec la compatibilité GrapheneOS ».

De son côté, GrapheneOS se dit ravi de s’associer à Motorola afin de proposer son système d’exploitation « sur leur smartphone de nouvelle génération ». Les développeurs présentent ce partenariat comme une étape importante pour élargir la portée de GrapheneOS. Ils précisent que c’est Motorola qui les a contactés, afin de mettre en place ce partenariat et d’améliorer la sécurité de leurs smartphones.

« Ils vont fournir une prise en charge officielle de GrapheneOS et nous aider activement à assurer le support de leurs téléphones », ajoute le système d’exploitation. GrapheneOS en profite pour faire un appel du pied : « Les autres constructeurs devraient suivre leur exemple ». Les développeurs rappellent que « GrapheneOS étant un logiciel libre, ils n’avaient pas besoin de partenariat pour utiliser notre code ».

Les premiers smartphones Motorola avec GrapheneOS en 2027

Sur les réseaux sociaux, GrapheneOS donne un peu plus de détails sur les terminaux compatibles : « Il s’agira initialement des appareils phares de Motorola, mais cette technologie pourrait s’étendre à d’autres modèles par la suite. Prenons l’exemple des Motorola Signature (2026) et Motorola Razr Fold (2026), qui, pour la génération actuelle, ne répondent pas encore pleinement à nos besoins. Ce seront leurs successeurs ».

De manière générale, les smartphones « actuels, y compris ceux lancés cette année, ne répondent pas aux exigences. Seule la prochaine génération d’appareils est conçue pour répondre à tous nos besoins », affirme GrapheneOS. Un partenariat qui n’a donc pour le moment aucun fruit, il faudra attendre 2027.

GrapheneOS revient sur les différences entre son système d’exploitation et l’Android maison qui sera toujours proposé par Motorola : « Ce sera le même GrapheneOS que sur les Pixel. Il ne contiendra aucun bloatware. C’est un système d’exploitation totalement indépendant de leur propre système. Ils intégreront également certaines fonctionnalités et concepts de GrapheneOS à leur système d’exploitation principal, mais cela restera distinct de GrapheneOS ».

Android sur les Motorola devrait donc se renforcer au niveau sécurité, mais sans plus de précision. Attention, le cœur de l’annonce concerne l’amélioration des smartphones pour « assurer une prise en charge officielle de GrapheneOS ». Les améliorations de la version maison d’Android pour les Motorola font « l’objet d’un projet distinct », explique GrapheneOS sur Bluesky.

Les Pixel toujours supportés, GrapheneOS arrive sur le Pixel 10a

Sur X, le compte officiel de GrapheneOS précise que la prise en charge des terminaux Pixel de Google ne s’arrête pas avec ce partenariat : « Les Pixel répondent à nos exigences de sécurité et continueront d’être pris en charge. La compatibilité avec le Pixel 10a sera ajoutée prochainement ».

Ce n’est pas parce que les Pixels sont supportés que les applications Google sont présentes : « GrapheneOS n’inclura jamais ni les services Google Play ni une autre implémentation de services Google comme microG. Il est possible d’installer les services Play sous forme d’applications en mode bac à sable sans privilèges spéciaux via notre couche de compatibilité Google Play ».

Il y a quelques semaines, un article du Parisien avait, pour rappel, mis le feu aux poudres, accusant le système d’exploitation d’être une « botte secrète » pour les narcotrafiquants. GrapheneOS avait vivement réagi et retirait dans la foulée toutes ses ressources de France.

❌