Vue normale

Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

3 mars 2026 à 16:26
Fusiiiionnnnnn !
Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

Deux nouvelles puces arrivent chez Apple : les M5 Pro et Max, avec des « super cœurs » pour la partie CPU. On les retrouve dans les nouveaux MacBook Pro de 14 et 16 pouces. Apple met aussi à jour son MacBook Air qui passe à la puce M5 pour l’occasion.

MacBook Air 13 et 15 pouces en M5, à partir de 1 199 euros

Après les iPhone 17e et l’iPad Air avec une puce M4, Apple continue sur sa lancée avec deux nouvelles annonces ce jour. Commençons par le MacBook Air avec une puce M5, dont les caractéristiques techniques peuvent changer suivant la taille de la diagonale de l’écran.

« Tous les modèles 15 pouces sont équipés de la puce M5 avec CPU 10 cœurs et GPU 10 cœurs », explique Apple. De son côté, le modèle de 13 pouces intègre 8 ou 10 cœurs GPU suivant les configurations, mais 10 cœurs CPU dans tous les cas. 16, 24 ou 32 Go de mémoire unifiée (partagés entre CPU et GPU) sont de la partie.

« Le MacBook Air dispose désormais d’un stockage de base deux fois plus important, porté à 512 Go, et d’une technologie SSD plus rapide », affirme Apple. Côté connectivité, c’est la puce maison N1 qui est aux commandes pour le Wi-Fi 7 et le Bluetooth 6. La connectique comprend deux ports Thunderbolt 4 (connecteur USB).

Niveau performances, Apple annonce que le MacBook Air M5 offre des performances « jusqu’à 4 fois plus rapides pour les tâches d’IA que son prédécesseur équipé de la puce M4, et jusqu’à 9,5 fois plus rapides que le MacBook Air avec puce M1 ».

Le MacBook Air 13 pouces M5 est proposé à partir de 1 199 euros avec 16 Go de mémoire et 512 Go de stockage (ajoutez 125 euros pour avec 10 cœurs GPU à la place de 8). De son côté, le MacBook Air 15 pouces M5 est vendu à partir de de 1 499 euros. Augmenter la mémoire vive vous coûtera 250 euros pour 8 Go de plus (24 Go au total) et 500 euros passer de 16 à 32 Go. 32 Go est toujours le maximum.

Les MacBook Pro de 14 et 16 pouces passent aux M5 Pro et Max

Passons aux MacBook Pro, avec de nouvelles puces M5 Pro et Max. Apple, comme toujours, n’est pas avare en superlatifs concernant ces deux nouveaux SoC : « nouveau CPU avec le cœur de CPU le plus rapide au monde, GPU nouvelle génération avec Neural Accelerator dans chaque cœur et bande passante mémoire unifiée plus élevée ». Elle passe de 153 Go/s sur la puce M5 à 307 Go/s sur la Pro et 614 Go/s sur la Max avec 40 cœurs GPU, mais « seulement » 460 Go/s pour le M5 Max avec 32 cœurs GPU.

Comme sur le MacBook Air, Apple vante le SSD des nouveaux MacBook Pro qui est « jusqu’à deux fois plus performant », avec 14,5 Go/s au maximum. Le stockage de base passe à 1 To pour le MacBook Pro en M5 ou M5 Pro et à 2 To pour le modèle M5 Max, au lieu de 512 Go sur le modèle d’octobre dernier en M5.

Pour la connectivité, la puce N1 est de nouveau présente, tandis que les ports USB Type-C prennent désormais en charge Thunderbolt 5. Un MacBook Pro avec une puce M5 Pro prend en charge deux écrans externes, contre quatre pour la version M5 Max.

Côté tarif, le MacBook Pro M5 avec 1 To débute à 1 899 euros (1 799 euros avec 512 Go auparavant), tandis que l’addition passe à 2 499 euros minimum pour un SoC M5 Pro… et encore ajoutez 200 euros de plus pour la version « complète » du SoC avec 18 cœurs CPU et 20 cœurs GPU (au lieu de 15 et 16 respectivement).

Pour le MacBook Pro M5 Max, le tarif débute à 4 199 euros avec 18 cœurs CPU et 32 cœurs GPU, puis il faut ajouter 375 euros pour avoir les 40 cœurs GPU. Ce sont les tarifs pour la version de 14 pouces, en 16 pouces comptez 2 999 euros en M5 Pro (il n’est pas disponible en M5) et 4 499 euros pour pour la puce M5 Max.

Du M1 au M5 Max, toutes les caractéristiques des puces Apple Silicon

Revenons aux deux nouvelles puces M5 Pro et Max, avec la mise a jour de notre grand tableau comparatif pour commencer :

Comme avec la M5 de « base », chaque cœur GPU dispose d’un « accélérateur neuronal ». Apple affirme que « les puces M5 Pro et M5 Max assurent un traitement des prompts LLM jusqu’à quatre fois plus rapide que les M4 Pro et M4 Max, et une génération d’images par IA jusqu’à huit fois plus rapide que les M1 Pro et M1 Max ».

Les précommandes des nouveaux MacBook Air et Pro ouvriront le 4 mars, les livraisons sont prévues à partir du 11 mars.

Des puces « pensées de A à Z pour l’IA » avec des 5 ou 6 « super-cœurs »

Les M5 Pro et M5 Max « intègrent un nouveau CPU de 18 cœurs, dont 6 super-cœurs, le cœur de CPU le plus rapide au monde, et 12 tout nouveaux cœurs de performance, optimisés pour des performances multithreads économes en énergie ». Pour la version 15 cœurs CPU du M5 Pro, il y a 5 super-cœurs et donc 10 efficaces. Apple ne parle pas de cœurs efficaces, mais « performance ». Les puces M5 Pro et Max ont donc un mélange de « super cœurs » et de « cœurs de performance ».

Auparavant, les puces M4 Pro et Max avaient entre 8 et 12 cœurs « performances », avec 4 cœurs « haute efficacité énergétique » (efficaces). Même chose sur la puce M5, les « super cœurs » n’existaient pas encore et les cœurs efficaces étaient toujours présents. À voir maintenant les résultats dans les tests.

Apple affirme que « la nouvelle architecture du processeur du M5 Pro améliore considérablement les performances multithread jusqu’à 30 % pour les charges de travail professionnelles ». Mais cette comparaison est faite entre des MacBook Pro M4 Pro avec 14 cœurs et M5 Pro avec 18 cœurs, soit… 30 % de cœurs en plus. La répartition entre les cœurs n’est pas non plus la même pour rappel.

Le fabricant ne s’en cache pas : il mise tout sur l’IA : « Les puces M5 Pro et M5 Max reposent sur la nouvelle architecture Fusion signée Apple et sont pensées de A à Z pour l’IA. Cette conception innovante combine deux puces en un seul système pour un gain de performances considérable ».

La version Max du M5 intègre deux encodeurs vidéo et deux encodeurs/décodeurs ProRes. Un comparatif de MacBook Pro 14 avec des puces M5, M5 Pro et M5 Max est disponible par ici.

Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

3 mars 2026 à 15:47
Come to me
Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

Alors que ses modèles connaissent une soudaine vague de popularité suite aux démêlés d’Anthropic avec l’administration Trump, l’entreprise éditrice de Claude vient d’ouvrir à tous les comptes, même gratuits, la fonction qui permet d’importer la « mémoire » de l’utilisateur d’une autre IA. Un levier malin pour encourager les migrations, qui illustre à la fois l’enjeu économique de rétention… et la valeur potentielle de cet historique.

En prononçant vendredi 27 février l’interdiction d’utiliser les modèles d’Anthropic au sein des armées et administrations américaines, Donald Trump a donné un coup de projecteur sur Anthropic et son CEO, Dario Amodei. Et Sam Altman, qui s’est empressé d’annoncer la signature d’un accord entre le Pentagone et son entreprise OpenAI, n’a rien fait pour limiter cet effet Streisand, au contraire.

Résultat des courses, la popularité de Claude a explosé sur les kiosques de téléchargement d’Apple et d’Android, jusqu’à devenir et rester encore aujourd’hui l’application gratuite la plus demandée du moment.

Claude est l’application gratuite numéro un du classement de l’App Store d’Apple, devant ses concurrentes ChatGPT et Gemini – capture d’écran Next

Import en deux clics

Anthropic a saisi cette balle séduisante au bond lundi, en ouvrant les vannes et en simplifiant l’accès à sa fonction Import Memory. Lancée à l’automne 2025, celle-ci était jusqu’ici réservée aux souscripteurs d’un abonnement payant. Elle permet d’injecter, dans Claude, l’historique et les informations contextuelles que l’utilisateur a pu accumuler en utilisant un modèle concurrent comme ChatGPT, Gemini, Le Chat et consorts.

Ce faisant, l’internaute peut conserver à la fois l’historique de ses conversations, projets, requêtes, etc., ainsi que les éventuels éléments personnels qu’il aurait enseignés au modèle pour adapter les sorties à ses attentes.

La fonction d’import est désormais accessible en un clic via l’onglet Capacités des paramètres du site Claude.ai. Anthropic fournit un prompt prêt à l’emploi (rédigé en anglais) qu’il suffit de copier dans le modèle que l’on quitte, puis une fenêtre destinée à l’import des résultats obtenus.

La fonction d’import propose une invite (prompt) prête à l’emploi – capture d’écran Next

Pour que la requête soit efficace, il faut bien entendu que l’internaute ait au préalable utilisé un modèle concurrent, et que les options de mémoire de ce dernier aient été pleinement activées, ce qui n’est par exemple pas le cas par défaut sur un compte ChatGPT gratuit. Dans ce scénario, l’utilisateur peut bien visualiser un historique de ses conversations avec le chatbot, mais ce dernier n’établit pas de lien entre les différents fils de discussion, même si les réglages correspondants sont activés dans les paramètres. Sur un compte gratuit pour lequel aucun élément de personnalisation n’a été rempli, ChatGPT répond donc par un fichier vide au prompt proposé par Anthropic.

La donne change avec un abonnement payant, comme nous avons pu en faire l’expérience. La sortie proposée par ChatGPT reprend les infos personnalisées qui ont été renseignées, et propose ensuite une sorte de digest des différents fils de discussion initiés par l’utilisateur. La sortie est globalement fidèle à la réalité des échanges passés, mais elle ignore certains projets ou thèmes abordés, et témoigne parfois d’une interprétation hasardeuse de la finalité initiale de la demande.

Dans la lignée de nos précédentes expérimentations, notre rapide test montre par ailleurs que la sortie n’est pas constante dans le temps : il ne s’agit donc pas d’un export (au sens accès à l’intégralité des données brutes par exemple), mais bel et bien du résultat de la requête transmise à un modèle probabiliste. ChatGPT (et les autres) proposent heureusement une fonction d’archivage qui permet quant à elle de récupérer la totalité de son historique, mais le fichier qui en découle n’est évidemment pas prévu pour être injecté en un clic dans Claude.

De la difficulté de retenir les utilisateurs ?

Est-ce de toute façon vraiment l’efficacité de cette fonction qui prime dans le contexte actuel ? Plusieurs spécialistes de la mesure d’audience affirment que le regain de popularité de l’application Claude s’est accompagné d’une vague de désinstallation de l’application ChatGPT. Autrement dit, les gens ne se seraient pas simplement intéressés à Claude : ils auraient vraiment décidé de changer de crèmerie.

Et c’est précisément pour étayer l’idée selon laquelle il est facile de passer, sans perte, d’une IA à une autre, qu’Anthropic a ouvert les vannes de sa fonction d’import : elle montre qu’au-delà de simplement essayer Claude pour voir, on peut très vite y transférer sa « mémoire ».

Dans la course aux financements que se livrent les géants de l’IA, il y a nécessairement une prime à celui qui réunit le plus grand nombre d’utilisateurs, et c’est encore plus vrai pour Anthropic et OpenAI qui ne peuvent pas, comme Microsoft ou Google, s’appuyer sur une base conséquente d’utilisateurs captifs via d’autres produits déjà très répandus (Windows, Office, Android, Chrome, etc.). Cette problématique de rétention est d’ailleurs l’un des arguments qui motive la course aux agents IA : il est plus difficile de se départir d’un outil auquel on a délégué des tâches concrètes de son quotidien…

Municipales : « passer aux logiciels libres, c’est faisable, on l’a fait », mais…

3 mars 2026 à 14:15
« Le passage à Linux, c’est quand même un peu le boss de fin de niveau »
Municipales : « passer aux logiciels libres, c’est faisable, on l’a fait », mais…

Comment les mairies peuvent-elles s’emparer des questions de souveraineté numérique ? À l’occasion des municipales qui auront lieu les 15 et 22 mars 2026, Next vous propose un entretien avec Nicolas Vivant, directeur de la stratégie numérique embauché par la ville d’Échirolles en 2021 pour mettre en œuvre une politique du numérique prenant en compte une volonté d’autonomie.

Les élections municipales approchent et les questions sur la souveraineté et l’utilisation des logiciels libres sont de nouveau sur le devant de la scène. Next a voulu savoir comment ça se passait concrètement dans une ville qui a choisi de passer au libre.

La ville d’Échirolles (dont la maire est Amandine Demore, PCF), près de Grenoble, est connue depuis quelques années pour avoir mis en place une politique du numérique tournée vers le logiciel libre. Next a interrogé Nicolas Vivant qui travaille pour la ville en tant que directeur de la stratégie numérique depuis 2021.

>> Quand la ville d’Échirolles a vraiment eu une politique tournée vers les logiciels libres ?

C’est difficile à dire. En 2014, l’élu en charge du sujet, Aurélien Farge, a signé la charte des logiciels libres et a cette volonté d’avancer sur le sujet. Mais, il n’y a pas grand-chose d’autre qui est structuré à ce moment-là. Le lien avec le service informatique n’est pas vraiment établi. C’est une prise de parole politique mais qui, sur le mandat 2014 - 2020, n’est pas vraiment déclinée au niveau opérationnel.

Mais, en 2020, il y a, de la part du même élu, une volonté d’avancer concrètement sur le sujet en disant qu’il y a des enjeux politiques autour du numérique et qu’il faut les travailler.

Il y a donc deux périodes, 2014 - 2020 puis 2020 - 2025, avec cette fois-là, la direction générale qui affirme que si on veut vraiment avancer sur ce sujet, il faut se structurer. Ça passe par la commande d’une étude sur le numérique à un cabinet local. Mais aussi par la création d’un groupe de travail des élus sur le numérique.

Ça, c’est vraiment très intéressant, j’ai rarement vu ça : cet adjoint réunit 5 ou 6 autres adjoints (celui aux CCAS, aux RH,…) et ils réfléchissent ensemble sur ce que représente le numérique chacun dans leur délégation. Et, ils rédigent une feuille de route du numérique pour la ville. En parallèle, avec l’appui de la direction générale des services, il crée un poste de directeur de la stratégie et de la culture numérique. Un très bon réflexe qu’ils ont, c’est de mettre le service informatique interne sous ma responsabilité hiérarchique, ce qui me donne les moyens d’influer sur ce qui peut se passer.

Depuis 2021, je déroule, ça a commencé doucement car on avait une équipe qui n’avait ni compétence ni appétence particulière pour ces problématiques : nous étions une DSI comme toutes les autres. Il a fallu prendre le temps de construire une DSI compétente et partante pour avancer sur ces sujets.

L’une des premières choses que j’ai faites était de revoir notre politique de recrutement pour qu’à chaque fois qu’un informaticien quitte le service, on prenne garde de recruter un informaticien avec des compétences sur des logiciels open source et une conviction que c’était une voie sur laquelle il était intéressant de s’engager.

Ça fait que peu à peu, depuis septembre 2023, on dispose de « furieux » avec de vraies compétences techniques et qui sont capables d’installer à peu près n’importe quoi, de maintenir, de documenter, de monitorer dans un environnement open source. Et on commence à mettre des logiciels libres partout.

>> Combien de personnes travaillent pour la DSI d’Échirolles ?

Ça dépend comment on compte et ce qu’on inclut dans la DSI, mais nous sommes dix personnes avec 8,5 équivalents temps plein d’informaticiens.

« Quand on travaille avec des logiciels libres, on ne dépense plus d’argent »

>> Cette question des logiciels libres change-t-elle quelque chose à la taille de la DSI ?

Non, rien. À l’exception de mon recrutement, on a fonctionné à budget constant. On a remplacé les informaticiens qui partaient sur leurs postes jusqu’à fin 2025, où on a demandé la création d’un poste côté support.

Quand on travaille avec des logiciels libres, on ne dépense plus d’argent et on déploie beaucoup plus facilement des outils ouverts pour tout le monde. Entre 2021 et 2025, le nombre de logiciels disponibles pour les agents a été multiplié par deux, ce qui augmente la charge de travail de manière assez significative. De 2021 à 2025, nous n’avons proposé que des budgets en baisse, mais là, en fin de mandat, on commençait à tirer la langue côté support.

>> Ce nouveau besoin de support arrive-t-il parce que les gens sont peu habitués à ces solutions ?

Non, nous aurions mis le même nombre de solutions propriétaires avec l’ancienne équipe et il nous aurait fallu un poste supplémentaire aussi. Ce n’est pas une spécificité des logiciels libres.

On dématérialise de plus en plus : il y a dix ans, personne n’avait de cloud et maintenant tout le monde en veut un. Avant le Covid-19, il n’y avait pas de solution de visioconférence dans les mairies, mais aujourd’hui tout le monde a des solutions de visioconférence. Tout ça, ce sont des solutions qu’il faut installer, intégrer, maintenir et sur lesquelles il faut faire le support. Quel que soit le choix technique ou politique, on aurait donc demandé un poste supplémentaire.

>> Concernant les budgets proposés en baisse, est-ce possible de chiffrer précisément ?

Les économies sur la durée du mandat, c’est 350 000 euros par an, multiplié par 6, ça fait à peu près 2 millions d’euros d’économie à l’échelle du mandat, pour 1 500 PC et 1 000 employés environ. C’est d’ailleurs l’un des changements du passage aux logiciels libres que je n’avais pas du tout anticipé.

Quand on travaille avec des logiciels propriétaires, il faut les acheter et payer un contrat de maintenance et il faut donc un budget. La période de la préparation budgétaire est donc une période où l’on donne de la visibilité sur les projets qu’on va mener dans l’année. Et l’arbitrage budgétaire donne la feuille de route pour l’année. Et les élus et la direction générale savent exactement ce sur quoi on va travailler, avec comme facteur limitant le budget alloué. Il a fallu retravailler le reporting pour mettre en évidence les économies réalisées et les projets que nous menons d’année en année.

>> Est ce que la mise en place de logiciels libres simplifie ou complexifie le travail des agents de la DSI ?

Globalement et avec une équipe différente, ça a simplifié. Les logiciels libres n’ont rien à envier en termes d’ergonomie aux logiciels propriétaires, vraiment rien. La raison de la simplification n’est pas vraiment les logiciels libres mais le travail que nous avons fait autour. Quand j’arrive, il n’y a aucune documentation dans l’équipe, pas de monitoring et personne ne sait ce qu’il se passe sur le réseau ou sur les serveurs. Le gros travail que nous avons fait est une réorganisation du service, la mise en place de monitoring… Tout est documenté chez nous, aussi bien pour les utilisateurs que pour les personnes en charge de la maintenance des différentes solutions. C’est ça qui nous simplifie la vie.

Globalement, l’équipe commence à ressentir une baisse de la charge de travail. Ça ne veut pas dire qu’on a du temps à ne rien faire mais qu’on a de nouveau le temps de gérer des projets alors qu’avant la vie était complètement bouffée par le quotidien et en mode réactif en permanence.

>> Dans la feuille de route donnée par l’équipe municipale au départ, quelles sont les motivations pour s’orienter en majorité vers les logiciels libres ?

On me demande de travailler quatre grands domaines qui n’ont rien de très original à l’époque. L’inclusion numérique, parce qu’on est une ville avec de vraies problématiques de langue, de formation au numérique et d’accès au droit. L’impact environnemental du numérique, en le réduisant et le maîtrisant le plus possible. L’autonomie, avec l’idée d’être le moins dépendant possible d’acteurs extérieurs et notamment des géants de la technologie américains, russes ou chinois. Et la bonne gestion des données personnelles des habitants.

On ne me demande donc pas de mettre en place les logiciels libres mais de répondre à ces quatre enjeux. Les logiciels libres sont la réponse à un certain nombre de sujets et notamment la partie autonomie, impact environnemental, bonne gestion des données personnelles, sécurité…

« Le passage à Linux, c’est quand même un peu le boss de fin de niveau »

>> Sur le site de la mairie, vous affichez utiliser Zorin OS, est-ce le cas pour tous les postes ? Et quels sont les autres outils que vous avez mis en place ?

Les outils, je ne pourrai pas tous les citer, il y en a des dizaines. Je parlerai de Linux après, parce qu’on a attaqué le passage il y a un peu plus d’un an, commencer par ça ce n’est pas la bonne idée. Il y a beaucoup de choses à faire qui ne touchent pas l’environnement des utilisateurs et qui peuvent être faites en open source.

Nous nous sommes mis dans un mode de fonctionnement particulier où, pour toute nouvelle solution qui est déployée, on étudie les solutions pour le faire avec des logiciels libres.

Par exemple, nous avons repris le streaming du conseil municipal (Échirolles a été une des premières villes à streamer en direct le conseil municipal) avec une machine sous Linux, avec Obs Studio (utilisé massivement par les youtubeurs) et un serveur PeerTube. On a acheté nos caméras, déployé notre propre réseau et nous gérons en autonomie. Au final, nous avons mis en place une solution à un coût ridicule par rapport à ce que ça coûte aux autres communes : 6 000 euros en investissement.

C’est valable aussi pour les interphones dans les crèches où on a mis une solution complètement libre. C’est une première, je crois. Le matériel, c’est les interphones du marché, mais on s’appuie sur une solution qui s’appelle FlexiSIP, solution open source développée par une société grenobloise qui s’appelle Belledonne Communications et qui est utilisée par l’immense majorité des constructeurs dans le monde.

On a donc installé chez nous, en interne, un serveur FlexiSIP et quand on appuie sur le bouton de l’interphone, c’est notre FlexiSIP qui est contacté. Nous avons aussi un système de téléphone sur IP avec un IPBX, solution open source aussi, qu’on opère nous-même. Si l’appel est redirigé vers un téléphone fixe chez nous, on a une petite configuration à faire sur notre serveur Xivo. Si l’appel est redirigé vers un smartphone, on a une solution libre qui s’appelle Linhome et qui permet de voir la personne avec la caméra de l’interphone, d’ouvrir la porte, etc.

Nous avons appliqué ça à absolument tout : l’affichage municipal est construit avec des mini-PC sous Linux, récupération de desktop de PC d’agents un peu juste pour faire tourner la bureautique. Ça nous permet de faire de l’affichage municipal sur tous les sites de la ville et que nous maitrisons.

On a aussi changé la messagerie, installé un Nextcloud, un Big Blue Button pour la visio. Aujourd’hui, ce n’est pas loin de 100 solutions libres différentes qu’on utilise, soit déployées sur des serveurs, soit sur des postes clients.

Le passage à Linux, c’est quand même un peu le boss de fin de niveau. Dans notre stratégie, je dis à mon équipe que c’est très bien de passer au libre mais que nous sommes à la merci d’un changement de majorité qui pourrait dire « marche arrière toute, on revient aux outils Microsoft ». Si l’informatique n’est pas un problème, que ça se passe bien et que les gens sont contents, il n’y aura ni pression ni soutien de la part des agents pour un retour en arrière, qui de fait couterait très cher. Il faut donc absolument travailler la satisfaction des utilisateurs.

Linux va directement les toucher car on touche à l’interface qu’ils utilisent au quotidien. On a travaillé sur le choix d’une distribution aussi proche que possible de Windows, qui ne vient pas les bouleverser complètement. On a donc choisi Zorin OS en version gratuite (Core), la version pro a un intérêt si on a besoin de support, ce qui n’est pas notre cas (nous gérons en interne).

Si on avait mis du Ubuntu, on aurait mis tout le monde en panique. Et nous faisons une introduction de Linux dans notre système d’information très très progressive et douce dans l’approche. Aujourd’hui, on a 10 % de PC seulement sous Linux alors qu’on a commencé il y a un an et demi. On a commencé par lancer un appel à volontariat et à déployer Linux chez des gens qui nous l’ont réclamé et qui donc accueillent d’emblée le changement.

Là, nous sommes entrés dans une phase d’incitation, c’est-à-dire qu’on propose systématiquement Linux aux personnes, mais s’ils refusent, aucun problème, on leur installe un Windows 11. On a prévu que cette phase dure trois ans. L’idée est que Linux apparaisse dans l’infrastructure, que les gens voient d’autres personnes utiliser Linux sans difficulté et que ça lève un certain nombre de craintes.

Les exceptions : la paie, les finances, l’état civil

>> L’OS est un point clé mais il y a aussi les applications métiers. Avez-vous des logiciels libres qui permettent de gérer la paie et tout ce qu’une mairie doit pouvoir utiliser ?

Non, aujourd’hui, pour la paie, les finances, l’état civil, il n’en existe pas. Pour ce genre d’applications métiers, il y a deux ou trois éditeurs qui se partagent tout le marché des collectivités. Ça s’explique parce que ce sont des logiciels qui sont très dépendants des évolutions législatives et quand un gouvernement décide qu’au 1ᵉʳ janvier, ça va être le prélèvement à la source, il faut qu’au niveau du logiciel RH, du logiciel de paie et du logiciel financier, ça soit prêt. Ça veut dire qu’il faut adapter le logiciel alors que ça ne concerne que la France. Et en général, un logiciel libre ne concerne pas que la France, il est déployé partout mais on ne peut pas avoir une équipe qui maintient en fonction des évolutions législatives de chaque pays.

Mais nous avons créé un collectif qui s’appelle France Numérique Libre qui rassemble 350 informatiques de collectivités représentant plus de 250 collectivités (conseils départementaux, régionaux, communes, partout en France, y compris dans les départements et territoires d’outre-mer).

Nous sommes tous frustrés par le fait qu’on n’ait pas de solution de logiciels libres pour ces logiciels métier. Nous commençons donc à nous organiser pour initier la naissance des logiciels que l’on financerait. Sur l’état civil, un groupe de travail s’est déjà constitué avec plusieurs collectivités qui sont prêtes à y aller et à financer.

>> Justement, y a-t-il des villes qui sont proches des interrogations d’Échirolles sur ces sujets ?

Oui. Il y a déjà une vraie dynamique locale autour de Grenoble : on a des liens très étroits avec un certain nombre de communes, qu’elles soient petites comme Saint-Martin-d’Uriage ou de plus importantes comme Pont-de-Claix, Saint-Martin-d’Hères, ou Saint-Égrève.

Au niveau national, grâce à France Numérique Libre, on a pu échanger avec des collègues et identifier quelques villes qui boostent comme Strasbourg où il y a une vraie dynamique, Colomiers (du côté de Toulouse), Lyon, Villejuif. Et les choix d’outils peuvent être très différents, mais tant mieux.

>> Concernant la gestion du mail qui demande une attention particulière, ça se passe comment ?

L’installation, le paramétrage, la formation des utilisateurs demandent du boulot. Mais nous avons une équipe qui sait gérer une messagerie sans difficulté. Nous avons choisi SOgo. Mais par exemple la ville de Claix est passée cette année de Microsoft Exchange à Open Exchange. Et peut être que demain, si on avait à changer de messagerie, on passerait aussi sur Open Exchange.

Opérer des messageries, ça se fait. Le SITPI, qui est un syndicat intercommunal dont nous sommes membres et par le biais duquel nous mutualisons un certain nombre d’outils avec d’autres collectivités, a fait le choix d’Open Exchange en migrant au mois d’octobre dernier.

On parle beaucoup d’Échirolles parce qu’on raconte ce qu’on fait mais aussi parce qu’on va chercher des choses sur lesquelles d’autres ne sont pas allés. Sur la partie infrastructure, par exemple, notre fournisseur d’accès nous fournit un « tuyau », mais le reste, il ne s’en occupe pas, nous avons nos propres adresses IP, nos propres routeurs BGP pour faire le routage sur Internet.

Et nous travaillons avec notre syndicat communal pour le connecter directement à Internet et qu’il devienne fournisseur d’accès à Internet pour les villes membres.

On construit un cercle vertueux : ça se sait qu’on travaille sur ce genre de projets et finalement, quand on ouvre un poste d’ingénieur réseau, on a des gens d’un niveau de compétence important qui postulent alors même qu’on leur rappelle que le niveau de rémunération n’est pas très élevé. Parce qu’ils savent qu’ils vont bosser sur des projets pointus et sympas et pas sur des contrats avec des prestataires à passer des coups de fil quand ça ne fonctionne plus.

Il y a plusieurs façons d’imaginer une DSI. Je peux tout à fait concevoir que quelqu’un se dise que le cœur de métier d’une mairie n’est pas de faire de l’informatique et qu’il va payer des prestataires pour la messagerie, pour le cloud, etc., et c’est eux qu’on appellera quand il y aura des soucis et on gèrera des contrats. C’est complètement compréhensible. Ce sont des choix politiques. Il y avait une volonté, nous, de la majorité, d’être cohérents, y compris sur la partie numérique, avec leur positionnement politique par ailleurs. D’autres choix sont possibles mais effectivement, on ne recrute pas les mêmes profils de personnes et on ne travaille pas du tout de la même façon…

>> N’y a-t-il pas quand même un coût de formation des personnels, par exemple, pour le passage à Zorin OS ?

Non, l’avantage de Zorin OS, c’est qu’on peut le configurer aux petits oignons et que les raccourcis et les menus sont les mêmes que sous Windows, par exemple. On va peut-être se mettre à faire des formations, mais plus pour faire de la communication. Nos formations à Linux seront plutôt l’occasion de parler du projet échirolois, de ses spécificités et de mettre en avant les quelques points forts de Linux, parce qu’il y en a.

Nous ne les mettons pas en place parce que les gens seraient perdus sous Linux. On a un exemple d’une agente, au début du plan de volontariat du passage à Linux, à qui on l’a refusé parce qu’elle était arrivée six mois avant et qu’en fait, elle était déjà sous Linux mais elle ne s’en était pas rendue compte. Le changement se fait sans difficulté.

Il y a aussi le fait qu’on part sur un plan de volontariat, mais aussi qu’on commence par la facilité : il est hors de question que je passe les infographistes de la ville qui travaillent sous Mac avec la suite Adobe sous Linux en premier. Ça serait de la folie. Ces outils sont tellement inscrits culturellement chez eux et chez tous les infographistes que je me dis que si je passe 1 498 PC sous Linux et que ces deux-là restent sous Mac, on pourra quand même dire qu’on est passé sous Linux. On contourne la difficulté parce que l’idée n’est pas d’avoir 100 % de postes sous Linux mais d’avoir autant de postes sous Linux que possible dans des conditions qui restent acceptables pour nos agents.

Je veux bien qu’on me dise que Zorin OS n’est pas la meilleure distribution pour nous ou que le passage à Linux, c’est très compliqué, mais les arguments portent peu dans la mesure où on l’a fait, voilà.

À l’époque où on choisit Zorin OS, c’est quand j’arrive et j’ai une équipe de Windowsiens convaincus que Windows c’est le meilleur système d’exploitation et c’est eux qui choisissent Zorin OS. Pour moi, c’est important car, culturellement, ils ont le même background que mes utilisateurs. On peut me dire que Debian, c’est mieux. Je recrute que des libristes, et pas un seul était sous Zorin OS, mais peu contestent que Zorin OS était le meilleur choix pour Échirolles parce qu’au quotidien, quand on est face aux utilisateurs à la hotline, on a intérêt à installer un OS dans lequel il est facile de mettre un raccourci sur un bureau, par exemple, parce que c’est comme ça qu’ils bossent.

>> Pour les autres logiciels, c’est comme pour du logiciel propriétaire ?

Oui et parfois mieux. On utilise Odoo, un ERP libre de recrutement. Avec notre service recrutement et avec plusieurs communes dans le cadre de notre syndicat intercommunal, on l’a mis en concurrence avec d’autres solutions du marché et tout le monde nous a dit « c’est celui-là qu’on veut ».

Les personnes qui arrivent à Échirolles et qui ont connu Google Workspace ou Microsoft 365 trouvent que Nextcloud est beaucoup mieux, aussi bien en termes de nombre de fonctionnalités disponibles qu’en termes d’ergonomie. Aujourd’hui, ce n’est plus « ça va être un peu moins bien mais c’est du logiciel libre ». Il y a beaucoup de logiciels libres qui sont meilleurs que les logiciels propriétaires du marché.

Beaucoup de gens nous disent que le passage à LibreOffice, c’est vraiment compliqué, mais on l’a fait et ça fonctionne. D’ailleurs, le passage à LibreOffice a été fait bien avant que j’arrive. Mais ça fonctionne pour tous les logiciels sauf les logiciels métier dont on a parlé avant (finance, RH, état civil).

Passer aux logiciels libres, c’est faisable, on l’a fait. Reste que ce n’est pas juste remplacer un logiciel propriétaire par un logiciel libre, ça nécessite plein de changements au niveau organisationnel pour que les choses soient bien faites.

Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

3 mars 2026 à 13:47
L’attaque des bots
Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

Un bot alimenté a utilisé les GitHub Actions pour compromettre des dépôts GitHub. Ironie du sort, il a piraté un scanner de sécurité (vulnérabilité, mauvaises configurations…), publié une extension VS Code malveillante et renommé le dépôt (en privé).

Il y a maintenant plus de sept ans que GitHub propose ses « Actions » pour automatiser des tâches, dont la mise en production automatique de code. On parle souvent de CI/CD avec CI pour Continuous Integration (intégration continue) et CD pour Continuous Deployment (déploiement continu).

La semaine dernière, un bot baptisé hackerbot-claw a utilisé l’intelligence artificielle générative (Claude Opus 4.5 selon sa propre présentation) pour exploiter activement la fonctionnalité GitHub Actions afin de faire des dégâts dans des dépôts GitHub.

Du code exécuté à distance sur au moins quatre cibles

StepSecurity (entreprise spécialisée dans la sécurité de l’automatisation de la livraison de code) a publié une analyse détaillée. De même pour Stéphane Robert, ingénieur DevOps et architecte cloud chez 3DS Outscale, sur son blog en se concentrant davantage sur une des attaques, contre le scanner de vulnérabilités open source Trivy. Il dresse un portrait au vitriol : « Un bot IA autonome qui compromet un scanner de sécurité, publie une extension VS Code malveillante, et renomme le dépôt en privé — le tout en quelques heures. On est clairement entrés dans une nouvelle ère ».

Durant plusieurs jours, une campagne d’attaques automatisées (avec cinq techniques différentes) a donc été lancée via GitHub Actions, « réussissant à exécuter du code à distance dans au moins 4 cibles sur 7 » selon le billet de blog de StepSecurity. Les cibles étaient prestigieuses : microsoft/ai-discovery-agent‍, DataDog/datadog-iac-scanner‍, avelino/awesome-go, ambient-code/platform, project-akri/akri, aquasecurity/trivy et RustPython/RustPython.

Dans un des cas, le bot a pu « exfiltrer un jeton GitHub d’un dépôt populaire, avec des autorisations d’écriture ». Pour d’autres, le bot a aussi mis en place une injection de script en ajoutant une charge malveillante dans un fichier version.sh, a modifié des noms de branches pour y ajouter du code, caché des commandes shell (en Base64) dans les noms de fichiers, injecté des prompts IA, etc.

Le dépôt hackerbot-claw a été fermé dans la journée d’hier. Il précisait auparavant être « un agent autonome qui analyse les dépôts publics à la recherche de workflows CI/CD mal configurés. Je les trouve. Je les vérifie. Je laisse un mot. Je n’exfiltre pas, je ne détruis pas, je ne persiste pas », affirmait la présentation, qui voulait donc le présenter comme un chevalier blanc.

Trivy, le scanner de vulnérabilités, se fait détrousser

L’attaque la plus médiatisée est celle contre Trivy, dont le dépôt officiel (24 000 étoiles) a été vidé. « Trivy est l’un des scanners de vulnérabilités open source les plus utilisés dans l’écosystème cloud native. Il scanne les images de conteneurs, les fichiers IaC (Terraform, Kubernetes), les dépôts de code, les SBOM… C’est un outil incontournable dans toute chaîne DevSecOps sérieuse », explique Stéphane Robert sur son blog.

Hormis le dépôt vide, le site officiel est toujours en place, comme la documentation de la version 0.69 et « la page d’installation référence même la version 0.69.1 dans ses exemples ». Le problème ne concerne que GitHub a priori, mais aussi par ricochet toutes les applications s’appuyant sur ce dépôt.

L’éditeur de Trivy, Aqua Security, explique de son côté que « le dépôt a été rendu privé et renommé (en private-trivy). Un dépôt vide a été poussé à la place du dépôt public. Les versions GitHub entre 0.27.0 et 0.69.1 ont été supprimées, y compris les discussions et ressources GitHub associées pour ces versions ».

Autre problème et pas des moindres : « Un artefact malveillant a été créé pour l’extension VScode de Trivy, puis poussé vers la marketplace Open VSIX (une alternative à la marketplace officielle de VSCode). Nous avons supprimé cet artefact et révoqué le jeton utilisé pour le publier ». L’équipe n’a pas trouvé d’autres « impacts » suite à cette attaque et se concentre sur un retour à la normale de l’ensemble des services.

Depuis, une nouvelle version 0.69.2 a été mise en ligne, la seule « considérée comme propre » par Stéphane Robert. « Si vous avez installé Trivy entre le 21 et le 28 février – vérifiez l’intégrité de votre binaire. En cas de doute, supprimez et réinstallez la v0.69.2 », ajoute-t-il.

Attaques CI/CD : « Vous ne pourrez plus dire “je ne savais pas” »

Pour StepSecurity, cette attaque de « Hackerbot-Claw démontre que les attaques CI/CD ne sont plus simplement théoriques. Des bots autonomes recherchent et exploitent activement les erreurs de configuration des flux de travail en production ».

Stéphane Robert lance lui aussi un avertissement sur LinkedIn : « Alors messieurs les RSSI, mesdames les responsables sécurité : l’attaque sur Trivy n’est pas un cas isolé. C’est un rappel. Vos pipelines sont une surface d’attaque. Ils ont des permissions d’écriture sur vos repos, accèdent à des secrets, et s’exécutent à chaque push. Vous ne pourrez plus dire “je ne savais pas” ».

Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

3 mars 2026 à 13:26
Oh wait...
Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.

On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.

La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».

Svenska Gagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.

L’intimité de l’entourage des utilisateurs révélée

S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.

« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.

Des retranscriptions de discussions privées avec l’appareil

Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.

Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.

Les conditions d’utilisation de Meta AI demandent de ne pas partager d’informations sensibles

Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.

Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».

Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.

Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.

Bientôt une enquête de la Commission européenne ?

Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.

Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.

À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».

En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».

USA : 7 ans de prison pour avoir volé, et vendu, des failles « 0days » à un courtier russe

3 mars 2026 à 11:44
L3Harris spotter
USA : 7 ans de prison pour avoir volé, et vendu, des failles « 0days » à un courtier russe

Le directeur général d’un vendeur américain de failles de sécurité susceptibles d’être exploitées par les services de renseignement techniques vient d’être condamné pour en avoir volé huit, et les avoir vendues à son principal concurrent… russe. Ce dernier, ainsi que cinq personnes et entités associées, viennent par ailleurs d’être sanctionnés.

Le business des « 0days », du nom donné aux vulnérabilités logicielles non identifiées par leurs éditeurs (et donc non patchées) est devenu tellement profitable que le directeur général d’un fournisseur attitré des États-Unis et de ses partenaires anglo-saxons de l’alliance des « Five Eyes » vient d’être condamné à sept ans et trois mois de prison pour en avoir volé et vendu huit, pour 4 millions de dollars en cryptoactifs, à un courtier russe.

La justice états-unienne n’a pas mentionné le nom de ce dernier dans son communiqué, mais le département du Trésor et le département d’État viennent, dans le même temps, de sanctionner Operation Zero, le principal broker russe de 0days, tout en le reliant explicitement à la condamnation de Peter Williams.

La journaliste spécialisée Kim Zetter raconte que cet Australien de 39 ans résidant à Washington avait initialement travaillé au sein de l’Australian Signals Directorate (ASD), l’agence australienne de renseignement électronique à l’étranger, partenaire de la NSA.

Après l’avoir quittée, il avait travaillé pour une entreprise privée australienne spécialisée dans la recherche de vulnérabilités et les « computer network operations » (CNE), du nom donné par les « Five Eyes » aux capacités cyberoffensives.

En 2018, le géant américain L3Harris rachetait Azimuth Security et Linchpin Labs, deux entreprises australiennes spécialisées dans le développement d’exploits, où Williams travaillait depuis son départ de l’ASD en 2016.

En octobre 2024, Peter Williams était nommé directeur général de Trenchant, l’entreprise née de ce rachat. Hasard ou coïncidence, Trenchant avait appris, à peu près au même moment, que certains de ses actifs logiciels avaient fuité hors de son réseau sécurisé, et se trouvaient entre les mains d’un courtier étranger.

Trenchant avait alors lancé, ce même mois d’octobre 2024, une enquête interne, supervisée par Williams lui-même. Elle avait conclu que le réseau sécurisé de Trenchant n’avait pas été compromis, « à l’exception d’un ancien employé qui, pendant qu’il était en poste, avait accédé de manière inappropriée à Internet à partir d’un appareil isolé ».

Kim Zetter souligne en effet que Trenchant conserve son code sensible sur un réseau sécurisé isolé déconnecté d’Internet (« air-gapped »), afin d’empêcher tout risque de fuite.

Pour tenter de brouiller les pistes, Peter Williams avait alors lui-même accusé un autre salarié de Trenchant d’être à l’origine de la fuite de plusieurs vulnérabilités inconnues du navigateur Chrome, avant de le licencier.

Une accusation d’autant plus improbable que le bouc émissaire faisait partie d’une équipe chargée exclusivement de l’identification de failles zero-day dans iOS et du développement de logiciels espions pour les terminaux Apple.

Encore plus étrangement, s’étonne Kim Zetter, Williams avait continué à vendre des exploits au broker russe alors même qu’il savait que le FBI enquêtait sur le vol de codes de Trenchant. En juin 2025, il avait même signé un nouveau contrat de 500 000 dollars avec le broker russe, et lui transmettait de nouveaux « secrets logiciels » quelques jours seulement avant de rencontrer le FBI à ce sujet.

Pire : après avoir reçu un premier versement, en crypto-monnaies, il l’avait blanchi, comme à son habitude, mais plutôt que de laisser la somme sur un compte dédié, et non relié à son identité, il avait transféré la somme correspondante sur l’un de ses comptes bancaires.

Un préjudice estimé à au moins 35 millions de dollars

D’après l’acte d’accusation, que nous avions déjà évoqué lors de son inculpation, en octobre 2025, Williams aurait obtenu 1,3 million de dollars en échange de ces secrets commerciaux entre 2022 et 2025, sur les 4 millions de dollars initialement escomptés, tempère Kim Zetter.

L’intégralité des fonds (y compris en cryptos) déposés dans sept comptes bancaires avait alors été saisie, ainsi qu’une liste d’objets de valeur à son domicile, dont plusieurs bagues de diamant Tiffany, un sac à main Louis Vuitton, des vestes Moncler, et 24 montres de luxe (dont huit « replicas », copies plutôt haut de gamme, difficiles à distinguer des originales).

Le procureur précise que Williams avait aussi acheté une Tesla Model X 2022, une Porsche Panamera 2018, des biens immobiliers, dépensé 5 000 dollars pour quatre bagages de luxe et plus de 715 000 dollars pour des vacances de luxe entre 2022 et 2025. 

Kim Zetter rapporte que le département de la Justice avait réclamé une peine de neuf années de prison, 250 000 dollars d’amendes, et le remboursement des 35 millions de dollars de pertes pour Trenchant.

Williams avait en effet lui-même estimé, auprès du FBI, que la vente de deux des « secrets » qu’il avait vendus au broker russe représentait à elle seule une perte d’environ 35 millions de dollars de préjudice pour Trenchant.

Cyberscoop indique qu’une audience visant à obtenir une restitution supplémentaire liée à ces 35 millions de dollars de préjudice est par ailleurs prévue en mai.

Des brokers russes prêts à payer jusqu’à 20 millions de dollars

Le Bureau du contrôle des avoirs étrangers (OFAC) du département du Trésor américain a donc, en parallèle, désigné Sergey Sergeyevich Zelenyuk (Zelenyuk) et sa société, Matrix LLC (opérant sous le nom d’Operation Zero), ainsi que cinq personnes et entités associées, pour leur acquisition et leur distribution d’outils informatiques nuisibles à la sécurité nationale des États-Unis. 

L’OFAC précise que « parmi les exploits acquis par Operation Zero figuraient au moins huit cyber-outils propriétaires, créés pour l’usage exclusif du gouvernement américain et de certains alliés, et qui avaient été volés à une entreprise américaine » :

« Cette action coïncide avec une enquête menée par le ministère de la Justice et le Federal Bureau of Investigation (FBI) sur Peter Williams, un ressortissant australien et ancien employé de la société américaine susmentionnée qui a plaidé coupable le 29 octobre 2025 de deux chefs d’accusation pour vol de secrets commerciaux. »

Si Operation Zero souligne sur son site web que « Nos clients sont exclusivement des organisations privées et gouvernementales russes », l’OFAC avance que Zelenyuk aurait déclaré qu’il ne vendrait d’exploits qu’à des clients de pays non membres de l’OTAN, et donc pas forcément russes.

En octobre 2023, arguant d’une forte demande du marché, Operation Zero avait été jusqu’à passer de 200 000 à 20 millions de dollars le montant maximum des primes proposées en échange d’exploits iOS ou Android, comme l’avait documenté TechCrunch.

Zelenyuk et Operation Zero auraient notamment cherché à « développer d’autres systèmes de cyber-renseignement, notamment des logiciels espions et des méthodes permettant d’extraire des informations d’identification personnelle et d’autres données sensibles téléchargées par les utilisateurs d’applications d’intelligence artificielle telles que les grands modèles de langage ».

L’OFAC désigne également Azizjon Makhmudovich Mamashoyev et Oleg Vyacheslavovich, pour avoir entretenu des relations professionnelles avec Operation Zero, ainsi que Marina Evgenyevna Vasanovich, l’assistante de Zelenyuk.

Ressortissant russe, Kucherov est soupçonné d’appartenir au groupe cybercriminel Trickbot, accusé de multiples attaques par ransomware contre le gouvernement américain, ainsi que contre des hôpitaux et des centres de soins de santé à travers les États-Unis. 

Next était revenu en détail sur leurs faits d’armes lorsque la justice états-unienne avait identifié sept de ses membres, dont une développeuse web de 55 ans arrêtée à Miami : Alla Witte, au profil somme toute détonant eu égard aux clichés d’ordinaire véhiculés au sujet des cybercriminels russophones.

Mamashoyev est quant à lui à la tête d’Advance Security Solutions, une autre société de courtage d’exploits et de cybersécurité offensive opérant aux Émirats arabes unis et en Ouzbékistan. 

Le département d’État précise dans un communiqué dédié que Zelenyuk avait lui aussi créé une société basée aux Émirats arabes unis, Special Technology Services LLC FZ (STS), afin de mener des activités commerciales avec divers pays d’Asie et du Moyen-Orient, tout en contournant les sanctions américaines imposées aux comptes bancaires russes.

Signe d’un business florissant, TechCrunch rappelle que lors de son lancement, l’an passé, Advance Security Solutions proposait lui aussi jusqu’à 20 millions de dollars de primes pour des failles 0days capables d’infecter un smartphone au moyen d’un message textuel.

C’est par ailleurs la première fois, souligne le département d’État, que le gouvernement sanctionne un individu et des entités en vertu de la loi sur la protection de la propriété intellectuelle américaine (Protecting American Intellectual Property Act, ou PAIPA).

Cette loi autorise les sanctions à l’encontre de toute personne ayant sciemment participé à un vol important de secrets commerciaux appartenant à des ressortissants américains ou en ayant tiré profit, « si le vol de ces secrets commerciaux est raisonnablement susceptible d’entraîner ou a contribué de manière significative à une menace importante pour la sécurité nationale, la politique étrangère, la santé économique ou la stabilité financière des États-Unis ».

Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

3 mars 2026 à 10:15
El ingenioso hidalgo
Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

Déjà très présent en Espagne, Amazon a annoncé lundi une nouvelle salve de projets qui représentent, en cumulé, 18 milliards d’euros d’investissements supplémentaires dans le pays. Dans les grandes plaines semi-désertiques d’Aragon, le géant américain évoque des datacenters, une usine d’assemblage de serveurs et un centre logistique. Un millième de son enveloppe est fléché vers le soutien à l’approvisionnement en eau dans la région.

Amazon double la mise en Espagne. Le géant américain a en effet profité du Mobile World Congress de Barcelone pour annoncer, lundi, une nouvelle salve d’investissements, à hauteur de 18 milliards d’euros, dans le pays. En 2024, Amazon s’était déjà engagé à y déployer 15,7 milliards d’euros sur dix ans. Ce second volet porte donc l’enveloppe totale promise à 33,7 milliards d’euros d’ici 2035.

C’est essentiellement en Aragón, cette communauté autonome du nord-est de la péninsule ibérique qui abrite déjà les datacenters espagnols d’Amazon Web Services (AWS), que devraient se concentrer ces investissements.

Deux usines et trois datacenters

Le groupe américain affirme que cette manne contribuera à hauteur de 31,7 milliards d’euros au PIB espagnol d’ici 2035, et générera l’équivalent de « 29 900 emplois directs, indirects et induits par an », aussi bien dans la construction de ses infrastructures que dans l’économie locale.

Si l’impact réel des datacenters en matière de création d’emploi reste sujet à débat, Amazon indique que la province espagnole d’Aragón a vocation à accueillir des installations industrielles, dédiées à l’assemblage et à la logistique des serveurs qui équipent ses infrastructures dans toute l’Europe.

« Le projet comprendra une usine de fabrication de serveurs pour l’assemblage et les tests, un entrepôt de production et de traitement des commandes, ainsi qu’une installation dédiée à la fabrication et à la réparation de serveurs d’IA et d’apprentissage automatique (ML), un élément clé de la stratégie d’économie circulaire d’Amazon », déclare le groupe dans un communiqué. Ces installations devraient représenter 1 800 emplois directs en vitesse de croisière.

À l’échelle de la région, Amazon affirme que ses projets induiront la création de 13 400 emplois aragonais, dont 4 200 emplois directs au sein de ses propres équipes. Le géant américain affirme que ses investissements devraient contribuer au PIB de l’Aragón à hauteur de 18,5 milliards d’euros d’ici 2035, soit une augmentation de plusieurs points du PIB annuel de la communauté autonome (41,8 milliards d’euros en 2023).

Outre ces usines d’assemblage et de reconditionnement de serveurs, c’est tout de même principalement dans les datacenters que devraient se concentrer les fonds promis. D’après le quotidien local El Heraldo de Aragón, Amazon prévoit en effet d’ajouter trois centres de données aux six que compte déjà la région de Saragosse, capitale de la communauté autonome.

Les projets d’Amazon sont soutenus par le président de la collectivité, le conservateur Jorge Azcón, réélu en février dernier et soutien affirmé du développement des infrastructures numériques, qu’il considère comme un « nouvel horizon économique ». El Mundo indique que l’administration aragonaise accélère les projets d’implantation de datacenters en leur octroyant le statut de projets d’intérêt général (Planes y Proyectos de Interés General de Aragón, ou PIGAS), qui simplifient grandement les formalités administratives associées.

Une contribution positive en eau à horizon 2030 ?

Cette simplification se fait-elle au prix de compromis sur les enjeux environnementaux et climatiques ? C’est la crainte exprimée par l’opposante socialiste Pilar Alegría, qui réclamait pendant sa campagne que les grands noms du numérique qui s’installent dans la communauté autonome soient frappés par une taxe de solidarité destinée aux populations locales, notamment pour compenser les risques soulevés en matière d’approvisionnement en énergie ou en eau.

Sur le volet énergétique, la majorité en place et Amazon rappellent d’une même voix que la province d’Aragón et ses grandes plaines désertiques sont un lieu propice au déploiement d’installations photovoltaïques. Amazon promet en la matière d’investir dans cent projets solaires et éoliens à l’échelle de l’Espagne, dont sept nouvelles fermes photovoltaïques. « En Aragón, les centres de données AWS compensent leur consommation d’électricité par de l’énergie 100 % renouvelable depuis leur ouverture en 2022 », affirme l’entreprise. Rappelons que la péninsule ibérique avait été frappée par une panne de courant de grande ampleur en avril 2025, dont la cause a été attribuée à un défaut des installations chargées de compenser ou réguler la tension sur le réseau.

Reste la question de l’eau, dans une zone où l’irrigation crée déjà des tensions et où les périodes de sécheresse sont parfois ponctuées par quelques épisodes d’inondations à grande échelle. Sur ce point, Amazon ne donne aucune indication précise quant à l’utilisation qui sera faite par ses infrastructures : fonctionneront-elles en circuit fermé (prélèvements marginaux une fois l’approvisionnement initial effectué) ou de façon ouverte, avec des pertes (et donc une consommation continue) à la clé ?

Dans sa communication, le groupe se contente de reprendre ses engagements globaux en matière d’eau, à savoir atteindre une contribution positive d’ici 2030. « Cela signifie que nous restituerons aux communautés et à l’environnement plus d’eau que nous n’en utilisons pour l’exploitation de nos centres de données. En 2024, AWS avait atteint 53 % de son objectif de bilan hydrique positif, contre 41 % en 2023 », explique-t-il.

En Aragón, cette ambition s’exprime par la participation à cinq projets hydriques, initialement annoncés en 2025. Ils concernent respectivement la détection des fuites sur le réseau d’eau potable, le réemploi de l’eau utilisée sur des parcelles agricoles voisines, la création d’un système visant à optimiser la gestion de l’eau à l’échelle de l’agglomération de Saragosse, la mise au point d’une IA destinée à l’irrigation agricole et la modernisation d’une conduite d’eau cruciale de la région. Ces cinq projets sont financés à hauteur de 17,2 millions d’euros, soit un millième de l’enveloppe globale évoquée lundi.

Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

3 mars 2026 à 09:07
Les Pixels toujours dans la course
Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

Motorola a été chercher GrapheneOS pour améliorer la sécurité de ses smartphones, mais aussi (et surtout) pour proposer officiellement ce système d’exploitation sécurisé avec certains de ses smartphones. Inutile de courir, aucun modèle n’est actuellement compatible, il faudra attendre 2027.

Pour le MWC de Barcelone, Motorola est « on fire » avec une dizaine de communiqués de presse sur la seule journée d’hier. Il y a évidemment des smartphones avec les Razr Fold et Edge 70 Fusion, des écouteurs sans fil Buds 2, mais surtout un « partenariat à long terme avec GrapheneOS », une alternative à Android de Google.

Motorola et GrapheneOS main dans la main

GrapheneOS mise sur la sécurité et n’était historiquement disponible que sur les smartphones Pixel de Google. La raison ? Ce sont les seuls terminaux laissant l’utilisateur reverrouiller complètement le bootloader avec des clés de chiffrement personnalisées. Depuis plusieurs mois, la rumeur courait d’un partenariat avec un fabricant de smartphones pour intégrer GrapheneOS, c’est donc Motorola.

Pour le moment ce sont seulement des annonces, avec rien de concret à se mettre sous la dent :

« Motorola inaugure une nouvelle ère de la sécurité des smartphones grâce à un partenariat à long terme avec la GrapheneOS Foundation, la principale organisation à but non lucratif spécialisée en sécurité mobile qui développe un système d’exploitation renforcé basé sur le projet Android Open Source. Ensemble, Motorola et GrapheneOS Foundation travailleront à renforcer la sécurité des smartphones et à collaborer sur de futurs appareils conçus avec la compatibilité GrapheneOS ».

De son côté, GrapheneOS se dit ravi de s’associer à Motorola afin de proposer son système d’exploitation « sur leur smartphone de nouvelle génération ». Les développeurs présentent ce partenariat comme une étape importante pour élargir la portée de GrapheneOS. Ils précisent que c’est Motorola qui les a contactés, afin de mettre en place ce partenariat et d’améliorer la sécurité de leurs smartphones.

« Ils vont fournir une prise en charge officielle de GrapheneOS et nous aider activement à assurer le support de leurs téléphones », ajoute le système d’exploitation. GrapheneOS en profite pour faire un appel du pied : « Les autres constructeurs devraient suivre leur exemple ». Les développeurs rappellent que « GrapheneOS étant un logiciel libre, ils n’avaient pas besoin de partenariat pour utiliser notre code ».

Les premiers smartphones Motorola avec GrapheneOS en 2027

Sur les réseaux sociaux, GrapheneOS donne un peu plus de détails sur les terminaux compatibles : « Il s’agira initialement des appareils phares de Motorola, mais cette technologie pourrait s’étendre à d’autres modèles par la suite. Prenons l’exemple des Motorola Signature (2026) et Motorola Razr Fold (2026), qui, pour la génération actuelle, ne répondent pas encore pleinement à nos besoins. Ce seront leurs successeurs ».

De manière générale, les smartphones « actuels, y compris ceux lancés cette année, ne répondent pas aux exigences. Seule la prochaine génération d’appareils est conçue pour répondre à tous nos besoins », affirme GrapheneOS. Un partenariat qui n’a donc pour le moment aucun fruit, il faudra attendre 2027.

GrapheneOS revient sur les différences entre son système d’exploitation et l’Android maison qui sera toujours proposé par Motorola : « Ce sera le même GrapheneOS que sur les Pixel. Il ne contiendra aucun bloatware. C’est un système d’exploitation totalement indépendant de leur propre système. Ils intégreront également certaines fonctionnalités et concepts de GrapheneOS à leur système d’exploitation principal, mais cela restera distinct de GrapheneOS ».

Android sur les Motorola devrait donc se renforcer au niveau sécurité, mais sans plus de précision. Attention, le cœur de l’annonce concerne l’amélioration des smartphones pour « assurer une prise en charge officielle de GrapheneOS ». Les améliorations de la version maison d’Android pour les Motorola font « l’objet d’un projet distinct », explique GrapheneOS sur Bluesky.

Les Pixel toujours supportés, GrapheneOS arrive sur le Pixel 10a

Sur X, le compte officiel de GrapheneOS précise que la prise en charge des terminaux Pixel de Google ne s’arrête pas avec ce partenariat : « Les Pixel répondent à nos exigences de sécurité et continueront d’être pris en charge. La compatibilité avec le Pixel 10a sera ajoutée prochainement ».

Ce n’est pas parce que les Pixels sont supportés que les applications Google sont présentes : « GrapheneOS n’inclura jamais ni les services Google Play ni une autre implémentation de services Google comme microG. Il est possible d’installer les services Play sous forme d’applications en mode bac à sable sans privilèges spéciaux via notre couche de compatibilité Google Play ».

Il y a quelques semaines, un article du Parisien avait, pour rappel, mis le feu aux poudres, accusant le système d’exploitation d’être une « botte secrète » pour les narcotrafiquants. GrapheneOS avait vivement réagi et retirait dans la foulée toutes ses ressources de France.

☕️ L’iPad Air passe à la puce M4, toujours à partir de 669 euros

3 mars 2026 à 07:33

Apple a procédé lundi au renouvellement annuel de sa tablette iPad Air, le modèle censé offrir le meilleur compromis entre portabilité et performances. L’édition 2026, toujours déclinée en versions 11 et 13 pouces, est identique en apparence à celle de l’iPad Air M3 lancée en 2025.

La seule nouveauté se situe sous le capot, avec le passage à une puce M4, déjà vue dans les MacBook Pro et l’iPad Pro l’an dernier. On retrouve donc ici la logique de gamme descendante d’Apple, où les produits phares de l’année N se retrouvent intégrés dans les produits plus abordables en année N+1.

Cette puce M4 devrait donc conférer un surcroît de performances à l’iPad Air, d’autant qu’elle se voit accompagnée de 12 Go de mémoire unifiée, contre 8 Go au sein de la puce M3 de la précédente génération. L’introduction des derniers coprocesseurs Apple (N1 et C1X) permet le passage au Wi-Fi 7 ainsi qu’au Bluetooth 6 et promet une connectivité améliorée sur les versions 5G.

iPad Air M4 – crédit Apple

Pour le reste (voir comparatif des spécifications), pas grand-chose à signaler, si ce n’est bien sûr la fourniture par défaut d’iPad OS 26. La tablette est toujours donnée pour 6,1 mm d’épaisseur dans sa version 11 pouces, pour un poids de 464 grammes (soit 4 grammes de plus que le modèle M3), avec une autonomie se montant, selon Apple, jusqu’à 10 heures « pour naviguer sur le Web en Wi‑Fi ou regarder des vidéos ».

Dotée d’un connecteur USB type-C, la tablette est toujours compatible avec les claviers physiques de la marque, ainsi qu’avec le stylet Apple Pencil Pro.

Côté prix, il faut compter 669 euros pour le modèle 11 pouces en Wi-Fi avec 128 Go de stockage, contre 869 euros pour l’équivalent en version 13 pouces. En versions Wi-Fi + Cellular (avec connectivité 5G donc via e-SIM), le prix passe à 839 euros pour la version 11 pouces 128 Go, et 1 039 euros pour le modèle 13 pouces.

Quatre coloris et quatre capacités sont proposés, jusqu’à 1 To. Dans sa configuration la plus haut de gamme (iPad Air 13 pouces 1 To Wi-Fi + Cellular), l’iPad Air atteint 1 669 euros.

Guerre en Iran : trois datacenters AWS touchés aux Émirats Arabes Unis et à Bahreïn

3 mars 2026 à 07:04
Les contingences physiques du nuage
Guerre en Iran : trois datacenters AWS touchés aux Émirats Arabes Unis et à Bahreïn

Amazon Web Services (AWS) signale que trois de ses datacenters du Moyen-Orient sont affectés par le conflit qui oppose Israël et les États-Unis à l’Iran. Deux de ses infrastructures situées aux Émirats Arabes Unis auraient été directement touchées, tandis qu’un site situé à Bahreïn a subi des dommages indirects. Amazon prévient que l’interruption de service associée est susceptible de se prolonger.

Le géant américain du cloud AWS fait partie des victimes collatérales de la réponse militaire de l’Iran à l’attaque lancée le 28 février dernier par les États-Unis et Israël. Via la page dédiée au statut de ses infrastructures, il a en effet signalé lundi avoir subi les conséquences des bombardements partis d’Iran au niveau de trois de ses sites, aux Émirats Arabes Unis et à Bahreïn.

Deux sites directement touchés, une victime collatérale

Amazon dispose de trois datacenters aux Émirats Arabes Unis. Deux d’entre eux (référencés comme mec1-az2 et mec1-az3 dans la nomenclature AWS) ont été directement touchés par des frappes de drones parties d’Iran, affirme l’entreprise sur la page « statut » de ses infrastructures.

Elle y décrit comment les premières perturbations sont survenues dans la nuit de dimanche à lundi, suite au déclenchement de la riposte iranienne contre les EAU. L’une de ses zones a d’abord été affectée par un problème d’alimentation électrique, avant que l’entreprise ne signale, quatre heures plus tard, avoir constaté que des objets avaient frappé le datacenter, entraînant un départ d’incendie.

« Les pompiers ont coupé l’alimentation électrique du bâtiment et des générateurs pendant l’intervention pour maîtriser l’incendie. Nous attendons toujours l’autorisation de rétablir le courant et, dès que ce sera fait, nous veillerons à rétablir l’alimentation et la connectivité en toute sécurité », décrivait alors AWS.

Quelques heures plus tard, bis repetita : un problème d’alimentation électrique, puis une interruption de service plus large, sont annoncés pour la deuxième zone concernée aux EAU. Dans un nouveau point d’étape, publié mardi 3 mars vers 2 heures du matin (heure de Paris), AWS confirme que les deux sites concernés ont bien été touchés directement par des tirs, et conseille à ses clients qui opèrent des services dans la région de basculer, dans la mesure du possible, vers d’autres infrastructures.

Par ricochet, la troisième zone dont dispose AWS aux EAU souffre en effet de problèmes de disponibilité, et la plupart des services courants sont signalés comme hors service ou fortement dégradés sur toute la « région » correspondant aux Émirats (ME-CENTRAL-1), mais aussi à celle, voisine, de Bahreïn (ME-SOUTH-1). Parmi les trois zones que compte cette dernière, un site a en effet lui aussi subi les conséquences des bombardements, sans avoir été directement visé : « une frappe de drone à proximité de l’une de nos installations a causé des dommages matériels à notre infrastructure », décrit ainsi l’entreprise.

Rétablissement progressif des services

Suite à ces incidents, Amazon décrit un double chantier de remise en état, aussi bien matériel que logiciel, sans pouvoir s’avancer quant à un horizon temporel de retour à la normale :

« Dans les deux régions, les clients constatent une augmentation des taux d’erreur et une disponibilité réduite pour certains services, notamment Amazon EC2, Amazon S3, Amazon DynamoDB, AWS Lambda, Amazon Kinesis, Amazon CloudWatch, Amazon RDS, ainsi que la console de gestion et l’interface de ligne de commande AWS. Nous mettons tout en œuvre pour rétablir la disponibilité complète du service dans les plus brefs délais, mais nous prévoyons que la reprise sera longue compte tenu de l’ampleur des dégâts matériels. »

L’entreprise indique privilégier le rétablissement de services clés tels que S3 ou DynamoDB, qui sous-tendent le fonctionnement de ses infrastructures, et promet ensuite de mettre l’accent sur les outils de migration et d’export, afin que les clients des zones concernées puissent transférer leurs données et leurs charges de travail vers des environnements fonctionnels.

Elle invite par ailleurs ses clients opérant dans la région à anticiper les conséquences potentielles du conflit :

« Nous recommandons aux clients dont les charges de travail s’exécutent au Moyen-Orient d’envisager dès maintenant de sauvegarder leurs données et, le cas échéant, de migrer leurs charges de travail vers d’autres régions AWS. Nous leur conseillons de mettre en œuvre leurs plans de reprise d’activité, de restaurer leurs données à partir de sauvegardes distantes stockées dans d’autres régions et de mettre à jour leurs applications afin de rediriger le trafic hors des régions affectées. »

Neuf zones et trois régions au Moyen-Orient

AWS dispose pour mémoire de trois « régions » au Moyen-Orient, avec une présence sous forme d’infrastructures physiques à Bahreïn depuis 2019, étendue aux Émirats Arabes Unis en 2022 et à Israël en 2023, tandis qu’un lancement a été annoncé pour 2026 en Arabie Saoudite (sans plus de précision). Chacun des trois pays déjà ouverts dispose de trois « zones de disponibilité » (un ou plusieurs centres de données à part entière dotés d’une alimentation redondante et d’une connectivité propre). Aux Émirats Arabes Unis, les trois zones d’AWS se répartissent entre Abu Dhabi et Dubaï.

AWS revendique trois régions et neuf zones au Moyen-Orient, auxquelles doit s’ajouter l’Arabie Saoudite – capture d’écran, source

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

2 mars 2026 à 16:40
IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

☕️ À Austin, les robotaxis de Tesla enregistrent quatre fois plus d’accidents que les humains


2 mars 2026 à 16:23

Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. 
Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.

Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Site de Tesla / Capture d’écran

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.

Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.

Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains. 


En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.

L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. 
Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.

À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.

☕️ Le CPU Intel Xeon 6+ (Clearwater Forest) avec 288 E-cores Darkmont arrivera ce semestre

2 mars 2026 à 15:52

Cela fait maintenant des mois qu’Intel parle de son futur Xeon 6 + avec 288 E-Cores. Il s’agit de cœurs CPU « efficaces » dans le sens efficacité énergétique, et donc moins performants que les P–Cores avec un P comme Performance. Les Xeon 6 actuels (Sierra Forest) ne dépassent pas les 144 cœurs (des E-Cores Crestmont). Une version avec 288 cœurs (une puce, deux dies) était annoncée, mais n’est jamais arrivée.

Quoi qu’il en soit, la relève est dans les starting-blocks avec les processeurs Xeon 6 + Clearwater Forest, qui monteront jusqu’à 288 E-Core Darkmont (et donc toujours autant de threads). Comme le rapporte Videocardz, Intel donne de plus amples détails à l’occasion du MWC de Barcelone.

Si cette annonce est faite durant le salon de Barcelone, c’est parce qu’Intel s’est trouvé un partenaire de choix – Ericsson, comme l’indique Computer Base – et en profite pour mettre en avant ses Xeon 6(+) pour les opérateurs de télécoms : « Basé sur le procédé Intel 18A et conçu pour une efficacité exceptionnelle, le Xeon 6 + offre aux opérateurs une plateforme qui fait évoluer les charges de travail de manière agressive, réduit la consommation d’énergie et permet des services réseau plus intelligents ».

Ils seront gravés avec la technologie maison 18A, celle utilisée pour la première fois sur les processeurs Core Ultra Series 3 (Panther Lake). Le TDP sera de 300 à 500 watts. Le processeur pourra être en configuration 1P ou 2P (un ou deux sockets sur la carte mère, soit jusqu’à 576 cœurs CPU), il prendra en charge 12 canaux de DDR5 à 8 000 MHz, 64 lignes CXL, 96 lignes PCIe, etc.

Au niveau de la conception, le processeur sera composé de douze tuiles, chacune avec six modules et quatre cœurs Darkmont par module, soit 288 cœurs : 4 (cœurs) x 6 (modules) x 12 (tuiles)= 288, le compte est bon.

Chaque module dispose de 4 Mo de mémoire cache L2, soit un total de 288 Mo de cache L2 sur la version 288 E-Cores, auxquels il faut ajouter 576 Mo de cache de dernier niveau (L3 ?). D’autres tuiles sont de la partie : trois de « Base » en Intel 3 (contrôleurs mémoire notamment) et deux autres « I/O » en Intel 7.

Les nouveaux Xeon 6 + sont attendus pour la première moitié de l’année 2026.

Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

2 mars 2026 à 15:26
Y’a-t-il un Copilot dans ton PC ?
Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

AMD vient d’annoncer trois processeurs, déclinés en douze références, pour les ordinateurs de bureau, avec les Ryzen AI 400 en AM5. Les CPU disposent d’un NPU de 50 TOPS leur permettant de prétendre à la certification Copilot+ PC de Microsoft. Ils seront disponibles à partir du deuxième trimestre 2026.

Au CES de Las Vegas en début d’année, AMD présentait ses « nouveautés », qui ressemblaient davantage à du réchauffé. Il y avait tout d’abord les Ryzen AI 400 pour les ordinateurs portables, mais qui n’étaient finalement que des Ryzen AI 300 avec parfois 100 MHz de plus en boost ou une partie graphique un peu améliorée.

Au MWC, des processeurs pour les ordinateurs de bureau

AMD profite du MWC de Barcelone (avec un M comme Mobile) pour annoncer de nouveaux Ryzen AI 400 pour… les ordinateurs de bureau. Trois processeurs sont disponibles, chacun décliné en quatre versions, soit douze références au total.

Nous avons les Ryzen AI 5 435G, AI 5 440G et AI 7 450G, avec un TDP de 64 watts. Viennent ensuite des versions « GE » avec un TDP de 35 watts. Nous sommes donc à six références. Doublez la mise avec des versions Pro de chaque processeur, nous sommes bien à 12. Comme leur nom l’indique, les déclinaisons « Pro » ont « des fonctions de sécurité et de gestion de niveau professionnel », mais exactement les mêmes caractéristiques techniques pour le reste.

Des cœurs Zen 5 exclusivement, contrairement au Ryzen AI 400 mobile

On pourrait penser que le Ryzen AI 5 435 (version mobile) et le Ryzen AI 5 435G ou 435GE sont très proches avec 6 cœurs et 12 threads dans les deux cas, mais ce n’est pas le cas. Il y a une différence fondamentale dans l’architecture des cœurs.

Le Ryzen AI 5 435 dispose de deux cœurs Zen 5 et de quatre cœurs Zen 5c allégés, tandis que les Ryzen AI 5 435G(E) ont six cœurs Zen 5. C’est la même chose sur le reste de la gamme, les nouveaux Ryzen AI 400 en AM5 proposent exclusivement des cœurs Zen 5. Pour rappel, sur mobile, AMD propose aussi des processeurs exclusivement en Zen 5 avec sa gamme Ryzen AI Max+.

NPU de 50 TOPS, mais iGPU 860M maximum

Quoi qu’il en soit, les nouveaux processeurs Ryzen AI 400 pour les ordinateurs de bureau disposent d’un NPU (architecture XDNA 2) de 50 TOPS, supérieur au seuil de 40 TOPS imposé par Microsoft pour obtenir la certification Copilot+ PC. Sur mobile, la puissance du NPU varie entre 50 et 60 TOPS.

Côté GPU intégré au processeur (iGPU), l’architecture RDNA 3.5 est dans tous les cas aux commandes. AMD assure par contre le service minimum avec une puce Radeon 860M pour le plus haut de gamme des processeurs et une Radeon 840M pour les deux autres. Sur les versions mobiles, AMD monte jusqu’à la Radeon 890M avec 16 cœurs GPU contre 8 pour la Radeon 860M.

AMD en garde certainement sous le pied pour de prochaines références à venir, avec douze cœurs PU par exemple. Selon l’entreprise, les premiers ordinateurs équipés des nouveaux processeurs arriveront au second trimestre de 2026.

Apple lance son iPhone 17e à partir de 719 euros

2 mars 2026 à 15:07
256 is the new 128
Apple lance son iPhone 17e à partir de 719 euros

Apple a ouvert le bal des nombreuses annonces produit attendues cette semaine avec le lancement de l’iPhone 17e, son nouveau modèle d’entrée de gamme, positionné à 719 euros en version 256 Go et 969 euros dans sa déclinaison 512 Go.

Apple n’a finalement pas attendu sa conférence de presse du 4 mars prochain pour dévoiler ses premières nouveautés. Alors que le Mobile World Congress ouvre ses portes à Barcelone, la firme de Cupertino a en effet ouvert lundi les précommandes pour le nouveau smartphone qui constitue désormais son entrée de gamme, l’iPhone 17e.

Les lignes sont similaires à celles de l’iPhone 16e présenté il y a tout juste un an, avec un écran 6,1 pouces (2 532 x 1 170 pixels à 460 ppp), un châssis décliné en trois coloris, et un unique capteur photo sur le dos de l’appareil. Comme sur l’iPhone 17, la face avant est désormais protégée par un revêtement Ceramic Shield 2 qui atténuerait les reflets et offrirait surtout « une résistance aux rayures 3x supé­rieure à celle de l’iPhone 16e ».

Une puce A19 amputée d’un cœur GPU

Doté d’un cadre en aluminium, l’iPhone 17e est animé par une puce A19, similaire donc à celle qui anime l’iPhone 17… à une petite différence près : la partie GPU, dotée de cinq cœurs sur l’A19 de l’iPhone 17, passe ici à seulement quatre cœurs, enrichis d’accélérateurs neuronaux qui complètent l’action du NPU 16 coeurs intégré.

Apple intègre également à son dernier né le modem C1X inauguré avec l’iPhone Air, qui promet des performances « deux fois plus rapides » que celles du modem C1 de l’iPhone 16e. Dans les faits, le nouveau venu (dépourvu de puce UWB) offre le même niveau de prise en charge que son prédécesseur, et reste donc cantonné au Wi-Fi 6 et au Bluetooth 5.3, là où l’iPhone 17 adopte Wi-Fi 7 et Bluetooth 6.

Sur la partie photo, pas de réel changement par rapport au 16e : Apple conserve son capteur principal à 48 mégapixels (avec vidéo jusqu’en 4K à 60 images par seconde), associé à un zoom optique x2, et positionne une caméra TrueDepth 12 mpx en face avant.

Recharge sans fil MagSafe jusqu’à 15W

Toujours compatible Apple Intelligence, l’iPhone 17e inaugure en revanche la recharge sans fil MagSafe jusqu’à 15W, là où le 16e se limitait à la recharge sans fil Qi jusqu’à 7,5W. Apple profite sans surprise de l’occasion pour sortir de nouveaux accessoires dédiés.

Côté mensurations, l’iPhone 17e est donné pour 7,8 mm d’épaisseur, et 170 grammes sur la balance. Des proportions identiques à celles du 16e (qui pèse trois grammes de moins) et légèrement mieux-disantes que celles de l’iPhone 17 (7,95 mm d’épaisseur, 177 grammes). Apple affiche une autonomie de 26 heures en lecture vidéo pour ce 17e.

Apple indique que les précommandes de l’iPhone 17e ouvriront mercredi 4 mars à 15h15, pour une disponibilité en magasin programmée au 11 mars. Trois coloris (rose, blanc, noir) et deux capacités sont proposés. Mise à prix : 719 euros pour la version 256 Go et 969 pour un modèle 512 Go. On pourra consulter la fiche produit, ou le module de comparaison de modèles pour affiner l’étude des caractéristiques.

☕️ [Linux] sudo-rs affiche maintenant des * par défaut quand on tape son mot de passe

2 mars 2026 à 14:12

Jusque-là, la fonction « magique » pour passer en mode super-utilisateur sur de nombreuses distributions Linux (sudo) n’affichait rien quand on tapait son mot de passe. L’utilisateur n’avait donc aucun retour sur le fait que la saisie d’une touche avait été prise en compte ou pas.

Mais les contributeurs qui maintiennent le code de sudo-rs (implémentation reprenant les fonctionnalités sudo et su écrites en Rust et visant à être plus fiable) ont décidé de changer le comportement par défaut de leur outil. Ainsi, depuis la dernière version de sudo-rs (0.2.12), l’option pwfeedback est maintenant activée par défaut et des astérisques s’affichent à chaque fois que l’utilisateur tape un caractère de son mot de passe.

« Cela résout un problème majeur d’UX pour les nouveaux utilisateurs. La sécurité est théoriquement moins bonne, car la longueur des mots de passe est visible par les personnes qui regardent votre écran, mais cet inconvénient est infinitésimal et largement compensé par l’amélioration de l’UX. En dehors de sudo/login, aucune autre interface de saisie de mot de passe n’omet les astérisques (y compris les autres sur Linux) », est-il expliqué dans le commit du changement.

Comme l’a repéré Phoronix, ce changement vient d’une demande d’un utilisateur faite en octobre dernier qui argumentait longuement dans ce sens.

Tous les utilisateurs ne sont pas contents de ce changement et ainsi l’un d’entre eux l’a signalé comme un bug, signalement dont le statut a été classé en « ne sera pas corrigé ».

Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

2 mars 2026 à 13:41
Fausse bonne idée
Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

Dans une lettre ouverte, 371 chercheuses et chercheurs de 30 pays s’opposent à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte.

Plusieurs centaines de chercheuses et chercheurs, notamment en informatique, ont signé une lettre ouverte demandant un moratoire sur le déploiement des solutions de vérification d’âge dans le monde numérique. On peut retrouver aussi bien les signatures de la chercheuse en droit du numérique du CNAM Suzanne Vergnolle que celles des cryptologues Ronald Linn Rivest (le « R » de l’algorithme RSA) et Bart Preneel.

Rappelons que, suivant l’Australie de près, la France est l’un des pays qui a pris rapidement la direction d’interdire les réseaux sociaux aux moins de 15 ans. L’Assemblée nationale a voté la loi qui doit maintenant être débattue au Sénat. Next avait évoqué les problèmes que le texte soulève.

Et le gouvernement français semble vouloir se montrer à la pointe du sujet en lançant plusieurs travaux sur les effets des usages de l’IA générative et des jeux vidéo sur les mineurs.

Le Royaume-Uni a lui aussi beaucoup avancé sur le sujet. Depuis l’été 2025, la loi sur « la sécurité en ligne » oblige certains sites à mettre en place un système de vérification d’identité pour leurs utilisateurs, ce qui a inquiété la Fondation Wikimedia. Pour l’instant, Wikipédia reste accessible outre-Manche sans système de ce genre.

Un contrôle allant beaucoup plus loin que ce qu’on connait hors ligne

Dans leur texte, les chercheuses et chercheurs expliquent que ces systèmes ont besoin d’aller beaucoup plus loin que ce qui a déjà été mis en place dans le monde hors ligne pour filtrer l’accès des casinos, de l’alcool ou des contenus pornographiques.

« Les discussions actuelles concernant la nécessité de réglementer les réseaux sociaux, les chatbots IA ou les messageries instantanées exigeraient que tous les utilisateurs, mineurs et adultes, prouvent leur âge pour discuter avec leurs amis et leur famille, lire l’actualité ou rechercher des informations, ce qui va bien au-delà de ce qui s’est jamais produit dans nos vies hors ligne », décrivent-ils dans leur lettre [PDF].

Ils pointent aussi que certaines recherches montrent l’utilité des plateformes en ligne et réseaux sociaux pour que les jeunes puissent s’informer, trouver des conseils et s’appuyer sur des communautés pour casser leur isolement.

Besoin d’un consensus scientifique avant de s’y aventurer

Leur idée n’est pas de s’opposer à toute solution de vérification d’âge. Ainsi, parmi les signataires, on retrouve le chercheur de l’École polytechnique, Olivier Blazy, qui avait collaboré avec la CNIL sur un démonstrateur du mécanisme de vérification de l’âge respectueux de la vie privée. Mais ils demandent qu’elle soit mise en place une fois qu’un consensus scientifique sera établi « sur les avantages et les inconvénients que peuvent apporter les technologies de préservation de la jeunesse, ainsi que sur la faisabilité technique d’un tel déploiement ». Et pour eux, il reste des « questions ouvertes sur la faisabilité d’un déploiement efficace ».

« Mentir sur son âge n’est pas difficile », rappelle la lettre qui mentionne la facilité de contournement des solutions actuellement mises en place via l’utilisation de VPN, l’achat d’identifiants validés ou même la simple fabrication de fausses pièces, comme Next l’a déjà montré.

Les systèmes d’estimation d’âge, trop intrusifs

Mais ils ajoutent que la mise en place de ces outils « peut en réalité nuire à la sécurité en ligne en exposant les utilisateurs à des logiciels malveillants et à des escroqueries lorsqu’ils ont recours à des services alternatifs qui ne mettent pas en œuvre de vérification — et les utilisateurs se tourneront sans aucun doute vers ces sources alternatives ».

Ils écartent dans leur texte les systèmes d’estimation d’âge, comme celui mis en place par OpenAI sur ChatGPT, qui manquent de fiabilité et qui sont « très intrusifs pour la vie privée » : « Ils reposent sur la collecte et le traitement de données sensibles et privées telles que les données biométriques ou les informations comportementales ou contextuelles (par exemple, l’utilisation de la langue). Par conséquent, le déploiement à grande échelle de ces méthodes de vérification de l’âge facilite la collecte et l’exploitation des données (des enfants) ».

Une infrastructure mondiale ?

Ces chercheurs et chercheuses l’assurent : « la mise en place d’une infrastructure mondiale fiable pour la vérification de l’âge n’est pas triviale ». Pour eux, avec les connaissances actuelles, cela demande de fait de s’appuyer sur des projets de vérification d’identité gouvernementaux s’appuyant sur des solutions de chiffrement très robuste pour chaque interrogation du service. « Cela entraînerait un usage difficile et l’exclusion de tous les utilisateurs ne disposant pas de papiers », commentent-ils.

De plus, ils expliquent qu’un tel système s’appuyant sur la vérification d’une preuve d’identité est « non seulement sujette à erreur, mais nécessite l’existence d’une infrastructure de confiance à l’échelle d’Internet », ce qui n’existe pas actuellement pour ça.

« Cela nécessite, entre autres, la mise en place d’émetteurs de confiance capables de fournir des certificats numériques à grande échelle, la mise en place de moyens permettant de fournir aux vérificateurs les clés de l’émetteur afin qu’ils puissent effectuer la vérification, et la mise en place de moyens permettant de révoquer les certificats », expliquent-ils. Pour mettre en place ce genre de chose pour sécuriser le HTTP (et le transformer en HTTPS), ça a mis plusieurs dizaines d’années.

Des dangers sur le contrôle de l’information et de l’expression en ligne

La lettre pointe enfin la problématique du choix des contenus qui sont accessibles sur Internet par certains et pas par d’autres : « Entre de mauvaises mains, comme celles d’un gouvernement autoritaire, cette influence pourrait être utilisée pour censurer des informations et empêcher les utilisateurs d’accéder à certains services, par exemple en bloquant l’accès à des contenus LGBTQ+ ».

☕️ Data centers : le DG d’iliad (Free) veut accélérer les procédures sur les friches industrielles

2 mars 2026 à 13:14

« Refuser de surtransposer le droit européen ; créer une procédure environnementale accélérée pour les projets installés sur des friches industrielles déjà artificialisées ; autoriser la réutilisation des études environnementales déjà réalisées afin d’éviter des redondances inutiles. »

Telles sont les requêtes de Thomas Reynaud, directeur général d’Iliad-Free, qui les formule dans une tribune publiée dans Les Échos. 
Le dirigeant s’indigne du temps que prend l’étude faune-flore (.pdf) à laquelle doit se soumettre tout projet industriel, et ce pendant « plusieurs mois (jusqu’à un an dans le cadre d’une étude dite "4 saisons" », selon la documentation (.pdf) de la Direction générale des Entreprises.

Concrètement, il s’agace de devoir y passer douze mois, alors que le projet de centre de données construit par OpCore (filiale à 50 % d’iliad et 50 % du fonds InfraVia) en Seine-et-Marne doit être construit sur le site de l’ancienne centrale à charbon de Montereau.

En l’espèce, Thomas Reynaud se fait l’écho à des requêtes de simplification de l’implantation de centres de données en France – promues par exemple via le soutien de l’article 15 de la loi de simplification de la vie économique, qui doit encore être votée par les parlementaires –, quoique de manière plus ciblée.

Soulignant que des centres de données sont construits très rapidement aux États-Unis ou en Chine, au prix de « non-sens écologiques », il décrit une France en train de perdre du temps « d’observation d’un sol stérile » alors même qu’elle « dispose d’un des mix électriques les plus décarbonés de la planète et des ingénieurs d’exception qui doivent faire de la France la première terre d’accueil des infrastructures d’IA en Europe et une des premières au monde ».

Et d’appeler à simplifier les procédures pour les fermes de serveurs dédiées à s’implanter sur des friches déjà artificialisées.

Data gouv lance son serveur MCP, les IA accèdent directement aux données publiques françaises

2 mars 2026 à 12:45
De MCP.data.gouv.fr à Sorry.data.gouv.fr/
Data gouv lance son serveur MCP, les IA accèdent directement aux données publiques françaises

La plateforme data.gouv.fr permet de rechercher et récupérer des données publiques françaises en open data. Elle vient de lancer un serveur MCP afin de permettre à des IA d’effectuer automatiquement des recherches puis de récupérer et d’utiliser des données. Une première étape sous la forme d’une expérimentation, avant une ouverture plus large.

La semaine dernière, la plateforme des données publiques françaises – data.gouv.fr – a lancé son « serveur MCP expérimental pour interagir avec les données françaises depuis son chatbot ». MCP signifie, pour rappel, Model Context Protocol. C’est un standard ouvert lancé par Anthropic (Claude) fin 2024 puis confié à la Linux Foundation. Il permet de connecter des modèles d’intelligence artificielle.

Lecture seule pour le moment

Cette première expérimentation « vise à tester, de manière encadrée, de nouvelles façons d’interroger et de valoriser les données publiques via des interfaces conversationnelles », explique data.gouv.fr. Le code du serveur MCP est disponible dans ce dépôt GitHub (licence MIT), avec des explications pour le connecter à différentes IA génératives. Un appel à contribution et à des retours (positifs comme négatifs) est lancé.

Des limitations sont présentes pour le moment : « À ce stade, le serveur MCP de datagouv fonctionne uniquement pour explorer les données publiques ouvertes en lecture, sans autoriser de modification. À terme, l’ambition est de tester également des usages pour éditer et publier de nouvelles données sur datagouv, toujours avec prudence, et en s’appuyant sur des modèles souverains ».

Nous avons testé l’expérience avec Claude, en version web et via Claude Code. Une seule adresse est à connaitre : celle du endpoint du serveur MCP de datagouv : https://mcp.data.gouv.fr/mcp. Dans Claude Code, il faut saisir la ligne suivante : claude mcp add --transport http data-gouv https://mcp.data.gouv.fr/mcp pour ajouter le serveur. Vous devez ensuite fermer (exit) et relancer Claude Code. Vous pouvez utiliser la commande claude -c, avec « c » comme continu pour reprendre la session précédente.

10 « outils » pour des jeux de données et des services

Dans la version web, rendez-vous dans les Paramètres puis Connecteurs. Cliquez sur Ajouter un connecteur personnalisé, donnez-lui un nom comme datagouv France et l’adresse https://mcp.data.gouv.fr/mcp.

Pour chaque « outil » (ou commande) du serveur MCP, il est possible de définir différents niveaux d’autorisations dans la version web : toujours autoriser, nécessite une approbation, bloqué.

  • search_datasets : rechercher des jeux de données par mots-clés
  • get_dataset_info : obtenir les métadonnées détaillées d’un jeu de données
  • list_dataset_resources : lister les données d’un dataset
  • get_resource_info : obtenir des infos détaillées sur une ressource
  • query_resource_data : interroger un dataset sans téléchargement
  • download_and_parse_resource : télécharger et parser une ressource
  • search_dataservices : rechercher des APIs sur data.gouv.fr
  • get_dataservice_info : infos détaillées sur une API
  • get_dataservice_openapi_spec : récupérer les specs OpenAPI d’une API
  • get_metrics : statistiques de visites et téléchargements d’un dataset ou ressource

Une fois connectée, l’IA peut utiliser le serveur MCP pour interagir avec les jeux de données de data.gouv.fr. Vous pouvez rechercher des ensembles de données par mots-clé (y compris avec des paramètres personnalisés si besoin), obtenir des informations sur les jeux de données, lister les ressources, télécharger les données, etc. Vous pouvez aussi rechercher des API sur data.gouv.fr et les utiliser. Enfin, des métriques sur les visites et les téléchargements sont également disponibles.

Par exemple, une recherche MCP depuis Claude Code pour les jeux de données sur la consommation électrique passera par la commande mcp__data-gouv__search_datasets query: "consommation électrique". Vous n’avez généralement rien à faire de votre côté, c’est l’IA qui se charge d’aller chercher les données.

Pour chaque jeu de données, le serveur MCP donne des informations avec un ID, l’origine des données, une URL, des commentaires, etc. Vous pouvez ensuite récupérer et utiliser les jeux de données, directement dans l’interface d’une IA.

Quelques exemples sont donnés par les développeurs du serveur MCP : « Au lieu de naviguer manuellement sur le site, vous pouvez simplement poser des questions comme « Quels jeux de données sont disponibles sur les prix de l’immobilier ?  » « ou "Montre-moi les dernières données de population pour Paris" et obtenir des réponses instantanées ».

Sorry.gouv.fr : « 🤕 Site en cours de maintenance »

Nous ne pouvons actuellement pas pousser beaucoup plus loin les tests puisque le site https://mcp.data.gouv.fr/ renvoie bien trop régulièrement vers https://sorry.data.gouv.fr/ avec un message d’erreur : « Site en cours de maintenance, nous faisons le maximum pour revenir en ligne rapidement ».

Ce problème est présent depuis le lancement la semaine dernière, comme le reconnait Antonin Garrone, responsable produit – pôle ouverture des données publiques (data.gouv.fr), sur X. Vendredi, il expliquait que « c’était lié au scaling à cause de la forte affluence d’aujourd’hui, c’est bon désormais ». Force est de constater que non…

Prudence : « Ce type de dispositif est difficile à auditer »

Pour résumer, le serveur MCP permet à des IA d’accéder aux jeux de données déjà publiés par datagouv, ce ne sont pas de nouvelles données. Les intelligences artificielles peuvent ensuite les utiliser pour créer des applications, des statistiques, des analyses, etc. Évidemment avec tous les risques d’erreurs et d’hallucinations liés à leur nature profonde (elles sont statistiques). L’avantage est que l’IA utilise automatiquement les dernières données disponibles à chaque fois.

Datagouv appelle à la prudence : « Ce type de dispositif est difficile à auditer. Les modèles de langage peuvent produire des réponses incomplètes, approximatives ou erronées. Ils ne constituent en aucun cas une source officielle ou fiable en tant que telle. Par ailleurs, il existe de nombreux serveurs MCP se présentant comme liés à data.gouv.fr sans être officiels. Une vigilance particulière est donc nécessaire quant aux outils utilisés et à leur provenance ».

Dans des commentaires sur LinkedIn, Antonin Garrone apporte une précision sur les serveurs MCP qui portent un nom similaire à celui de datagouv : « il s’agit moins d’un problème d’usurpation que de personnes ayant testé le protocole pour leurs propres cas d’usage, sans mauvaise intention ». Quoi qu’il en soit, il faut maintenant que le serveur MCP se stabilise et tienne autrement la charge que de manière épisodique.

☕️ Aux États-Unis, feu vert pour la fusion à 34,5 milliards de dollars entre Charter et Cox

2 mars 2026 à 12:16

En mai 2025, Charter Communications (qui propose des offres sous la marque Spectrum) et Cox Communications annonçaient « un accord définitif de fusion ». Comme le rappelle Reuters, il s’agit de regrouper « deux des plus grands opérateurs américains de câble et du haut débit dans leur bataille contre les sociétés de streaming et les opérateurs mobiles ».

Montant de la transaction : 34,5 milliards de dollars environ, pour reprendre Cox mais aussi ses 12,6 milliards de dollars de dette. « Le nouvel ensemble revendiquera ainsi la place de numéro un de l’Internet fixe au pays de l’oncle Sam », expliquait alors Les Échos. Reuters ajoute que cette nouvelle entité devrait regrouper « 38 millions d’abonnés, dépassant le leader du marché Comcast ».

La FCC (régulateur américain des télécoms) vient de donner son accord et son président, Brendan Carr, s’en félicite : « En approuvant cet accord, la FCC garantit des avantages considérables aux Américains. Cet accord signifie le retour aux États-Unis d’emplois délocalisés. Il signifie également le déploiement de réseaux modernes à haut débit dans davantage de zones rurales. Enfin, il permettra aux consommateurs d’accéder à des forfaits moins chers. De plus, l’accord consacre des protections contre la discrimination fondée sur la diversité, l’équité et l’inclusion. ».

Il ajoute que Charter prévoit d’investir des « milliards de dollars » pour améliorer son réseau après cette opération. « Cela signifie que les Américains bénéficieront d’un accès internet plus rapide et de prix plus bas », peut-on lire dans le document de la FCC.

Engadget tempère l’enthousiasme de la FCC : « Bien que la FCC de Carr dresse un tableau très favorable de l’acquisition de Charter, l’histoire a fourni de nombreux exemples de fusions ayant eu l’effet inverse sur les emplois et les prix. Par exemple, les redondances lors de la fusion de T-Mobile avec Sprint en 2020 ont entraîné une vague de licenciements chez l’opérateur ».

Nos confrères rappellent que, en 2018, « peu de temps après l’approbation de la fusion de Charter avec Time Warner Cable par la FCC, la société a augmenté les prix de son service Spectrum de plus de 91 dollars par an ».

❌