Vue lecture

Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

Co-intel pros
Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

Plus de 90 politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs, journalistes et hommes d’affaires avaient été espionnés entre 2020 et 2022. En 2024, la Cour suprême grecque avait innocenté le service de renseignement national et le gouvernement. Les quatre principaux prestataires viennent quant à eux d’être condamnés.

Quatre personnes liées au marchand de logiciels espions Intellexa ont été condamnées par un tribunal grec à des peines d’emprisonnement cumulées totalisant 126 ans et huit mois, mais dont seulement huit devront être purgés, précise eKathimerini, pour avoir espionné des dizaines de responsables politiques, hommes d’affaires, responsables militaires et journalistes.

L’affaire, surnommée « Predatorgate » ou « Watergate grec », avait éclaté en 2022 lorsque Nikos Androulakis, chef du principal parti d’opposition PASOK et membre du Parlement européen, avait découvert qu’un logiciel espion illégal appelé Predator, l’un des principaux concurrents du logiciel espion Pegasus de la société israélienne NSO, avait été installé sur son téléphone, rappelle Politico.

Reuters précise qu’un procureur avait également ouvert une enquête suite à la découverte, par un journaliste financier de CNN, Thanasis Koukakis, que son téléphone avait été infecté par le logiciel espion Predator de la société Cytrox, qui faisait partie du consortium Intellexa.

Des traces de Predator avaient ensuite été retrouvées dans les téléphones de plus de 90 Grecs, politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs et hommes d’affaires, rappelle The Record.

L’exécution de leurs peines est suspendue à la procédure en appel

Cette affaire avait ébranlé le gouvernement de centre droit, entraînant le limogeage du chef du service national de renseignement (EYP) et du chef de cabinet du Premier ministre. L’administration, qui a nié toute malversation ou écoute téléphonique délibérée, avait néanmoins survécu à un vote de défiance en 2023, relève Reuters.

En 2024, la Cour suprême grecque avait innocenté l’EYP et les responsables politiques de tout acte répréhensible, et renvoyé les quatre accusés devant le tribunal correctionnel. Nikos Androulakis a depuis fait appel devant la Cour européenne des droits de l’homme.

Lors du procès, les quatre prévenus, Tal Dilian (ancien officier militaire israélien et fondateur d’Intellexa), sa partenaire commerciale Sara Aleksandra Fayssal Hamou, Felix Bitzios (ancien administrateur adjoint et actionnaire d’Intellexa) et Yiannis Lavranos (dont la société Krikel a acheté le logiciel espion), ont nié avoir commis des actes répréhensibles.

Jeudi 27 février, le tribunal les a néanmoins déclarés coupables d’« atteinte à la confidentialité des communications téléphoniques », d’« altération répétée d’un système d’archivage de données à caractère personnel » et d’« accès illégal à un système d’information ou à des données ». L’exécution de leurs peines est suspendue dans l’attente de l’examen de la procédure en appel.

Intellexa, toujours en activité, en partie sanctionné aux États-Unis

« Ce fut une bonne journée pour la démocratie et l’État de droit en Grèce », a déclaré Thanasis Koukakis à l’AFP devant le tribunal, ajoutant que le verdict « ouvrait la voie » à d’autres poursuites contre des suspects dans la même affaire. D’autant que « la moitié du cabinet et des généraux de haut rang étaient sous surveillance de l’agence nationale de sécurité et du logiciel espion Predator ».

Le 18 février, Amnesty International avait cela dit révélé que Predator avait infecté le téléphone d’un éminent défenseur de la liberté de la presse en Angola en 2024, note The Record. En décembre, les chercheurs d’Amnesty avaient quant à eux découvert qu’un avocat pakistanais spécialisé dans les droits humains avait également été pris pour cible par Predator au cours de l’été 2025.

Le département du Commerce américain avait ajouté Intellexa et sa filiale Cytrox à sa liste noire en 2023. Les dirigeants et consultants d’Intellexa, dont Dilian et Hamou, avaient été sanctionnés par l’administration Biden en 2024. Mais l’administration Trump a annulé les sanctions contre Hamou et deux autres dirigeants d’Intellexa en décembre dernier, bien que Dilian figure toujours sur la liste noire.

Nexa (ex-Amesys), le sulfureux partenaire français d’Intellexa

En 2023, Amnesty International a également découvert que Predator avait été vendu à 25 pays, dont plusieurs régimes autoritaires, par un consortium d’entreprises européennes qui a contourné les règlements européens et internationaux via la filiale dubaïote de Nexa Technologies (ex-Amesys), le partenaire français d’Intellexa.

Les responsables de Nexa avaient été mis en examen en 2021 pour « complicité de tortures » et « disparitions forcées » en Libye, puis « pour complicité de torture et de disparitions forcées » en Égypte, avant d’être placés en 2022 « sous le statut plus favorable de témoin assisté, éloignant ainsi la menace d’un procès à leur encontre ». 

Nexa s’est depuis retirée du marché de la surveillance et du consortium Intellexa, et a été rachetée par Chapsvision, le nouveau champion français de la cybersurveillance, dont le modèle économique vise d’après ses dires à aider les handicapés mentaux à communiquer, comme nous l’avions relaté.

  •  

☕️ GPT-5.3 Instant : OpenAI promet un ChatGPT moins moralisateur, plus direct et naturel

Depuis quelques jours, Anthropic et son IA Claude ont le vent en poupe, face à OpenAI et son ChatGPT dont les désinstallations de l’application ont explosé ces derniers jours. C’est la conjonction de deux événements liés. L’interdiction faite par Donald Trump d’utiliser les modèles d’Anthropic dans les armées et administrations américaines pour commencer. Ensuite, le fait que Sam Altman s’empresse de signer un contrat avec le Pentagone.

Alors qu’Anthropic surfe sur une vague de popularité, l’entreprise a décidé de permettre à tous les comptes, même les gratuits, d’utiliser la fonction Import Memory (pour faciliter une transition de ChatGPT à Claude, par exemple), OpenAI revient sur le devant de la scène avec encore un nouveau modèle, ou plutôt une mise à jour : GPT-5.3 Instant.

Lors du lancement de GPT-5.2 en décembre dernier, il était annoncé dans trois formats : Instant, Thinking et Pro. En février, c’était au tour de GPT-5.3-Codex de débarquer (à quelques minutes d’écart, Anthropic annonçait Claude Opus 4.6). Comme son nom l’indique – Codex –, c’est un modèle pensé pour le code informatique. OpenAI annonce aujourd’hui un modèle plus grand public : GPT‑5.3 Instant. Thinking et Pro suivront, mais plus tard.

Il promet « des conversations plus fluides et plus utiles au quotidien ». Nous avons droit au lot habituel de promesses : « réponses plus précises, résultats plus riches et mieux contextualisés lors des recherches sur le web, moins d’impasses inutiles, d’avertissements et de formulations trop affirmatives qui peuvent interrompre le fil de la conversation ».

OpenAI indique avoir reçu des retours d’utilisateurs indiquant que « GPT‑5.2 Instant refusait parfois de répondre à des questions auxquelles il devrait pouvoir répondre en toute sécurité, ou adoptait un ton trop prudent ou moralisateur, en particulier sur des sujets sensibles ». GPT‑5.3 Instant « réduit nettement les refus inutiles, tout en atténuant les préambules trop défensifs ou moralisateurs avant de répondre à la question ».

Concernant les informations glanées en ligne, GPT-5.3 Instant « équilibre plus efficacement […] avec ses propres connaissances et son raisonnement. Par exemple, il s’appuie sur sa compréhension existante pour contextualiser l’actualité récente plutôt que de simplement résumer les résultats de recherche ». Le Web ne sera plus survalorisé, promet OpenAI.

Enfin, l’entreprise de Sam Altman reconnait que « le ton de GPT‑5.2 Instant pouvait parfois mettre mal à l’aise, perçu comme envahissant ou faisant des suppositions injustifiées sur l’intention ou les émotions de l’utilisateur ». Avec GPT-5.3 Instant, le style devrait être plus naturel. Des exemples sont disponibles sur cette page.

GPT‑5.3 Instant est disponible dès maintenant, pour tous les utilisateurs de ChatGPT. Les mises à jour des modèles Thinking et Pro « suivront bientôt ». Enfin, GPT‑5.2 Instant restera disponible pendant trois mois pour les clients payants (il sera retiré le 3 juin 2026).

  •  

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

Too Quick and too dirty?
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.

Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.

Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.

Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.

Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.

Des utilisateurs américains ont abandonné ChatGPT en masse

Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.

En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.

Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

Un changement qui n’aborde pas directement la question des armes autonomes

Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.

Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».

C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.

Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».

Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».

Une rupture avec Anthropic plus sur la forme que sur le fond

Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».

Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.

Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.

  •  

☕️ Seagate Mozaic 4+ : les expéditions en volume de HDD de 44 To ont commencé

La gamme de disques durs Mozaic de Seagate débute à la série « 3 + », avec des HDD de 30 To et plus exploitant la technologie HAMR (Heat Assisted Magnetic Recording, avec un faisceau laser). L’année dernière, Seagate passait à 36 To, aujourd’hui il est question de 44 To.

Le constructeur explique que « sa plateforme Mozaic 4 + […] est désormais qualifiée et en production chez deux fournisseurs cloud hyperscale de premier plan », mais sans les nommer.

De plus, les « disques durs Mozaic 4 + avec des capacités allant jusqu’à 44 To sont désormais expédiés en volume vers deux principaux fournisseurs cloud hyperscale ». La densité augmente puisque, en juin dernier, John Morris (CTO de Seagate) affirmait avoir « livré à ses clients de premiers échantillons à 40 To ».

La disponibilité plus large des disques durs Mozaic 4 + est prévue « à mesure que la production continue d’augmenter », sans plus de détails. Avoir des disques durs toujours plus gros permet d’augmenter la densité du stockage dans les datacenters, mais aussi d’utiliser moins de HDD pour une capacité donnée, et donc de réduire la consommation électrique.

Seagate prévoit toujours d’atteindre 10 To par plateau, soit 100 To avec 10 plateaux dans un disque dur classique de 3,5 pouces. En laboratoire, le fabricant a atteint 6,9 To par plateau fin 2025, pour rappel. Il faudrait encore attendre six ans selon l’entreprise pour avoir 100 To. En attendant, le passage par Mozaic 5 (50 To et plus) est prévu aux alentours de 2028.

  •  

Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

Fusiiiionnnnnn !
Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

Deux nouvelles puces arrivent chez Apple : les M5 Pro et Max, avec des « super cœurs » pour la partie CPU. On les retrouve dans les nouveaux MacBook Pro de 14 et 16 pouces. Apple met aussi à jour son MacBook Air qui passe à la puce M5 pour l’occasion.

MacBook Air 13 et 15 pouces en M5, à partir de 1 199 euros

Après les iPhone 17e et l’iPad Air avec une puce M4, Apple continue sur sa lancée avec deux nouvelles annonces ce jour. Commençons par le MacBook Air avec une puce M5, dont les caractéristiques techniques peuvent changer suivant la taille de la diagonale de l’écran.

« Tous les modèles 15 pouces sont équipés de la puce M5 avec CPU 10 cœurs et GPU 10 cœurs », explique Apple. De son côté, le modèle de 13 pouces intègre 8 ou 10 cœurs GPU suivant les configurations, mais 10 cœurs CPU dans tous les cas. 16, 24 ou 32 Go de mémoire unifiée (partagés entre CPU et GPU) sont de la partie.

« Le MacBook Air dispose désormais d’un stockage de base deux fois plus important, porté à 512 Go, et d’une technologie SSD plus rapide », affirme Apple. Côté connectivité, c’est la puce maison N1 qui est aux commandes pour le Wi-Fi 7 et le Bluetooth 6. La connectique comprend deux ports Thunderbolt 4 (connecteur USB).

Niveau performances, Apple annonce que le MacBook Air M5 offre des performances « jusqu’à 4 fois plus rapides pour les tâches d’IA que son prédécesseur équipé de la puce M4, et jusqu’à 9,5 fois plus rapides que le MacBook Air avec puce M1 ».

Le MacBook Air 13 pouces M5 est proposé à partir de 1 199 euros avec 16 Go de mémoire et 512 Go de stockage (ajoutez 125 euros pour avec 10 cœurs GPU à la place de 8). De son côté, le MacBook Air 15 pouces M5 est vendu à partir de de 1 499 euros. Augmenter la mémoire vive vous coûtera 250 euros pour 8 Go de plus (24 Go au total) et 500 euros passer de 16 à 32 Go. 32 Go est toujours le maximum.

Les MacBook Pro de 14 et 16 pouces passent aux M5 Pro et Max

Passons aux MacBook Pro, avec de nouvelles puces M5 Pro et Max. Apple, comme toujours, n’est pas avare en superlatifs concernant ces deux nouveaux SoC : « nouveau CPU avec le cœur de CPU le plus rapide au monde, GPU nouvelle génération avec Neural Accelerator dans chaque cœur et bande passante mémoire unifiée plus élevée ». Elle passe de 153 Go/s sur la puce M5 à 307 Go/s sur la Pro et 614 Go/s sur la Max avec 40 cœurs GPU, mais « seulement » 460 Go/s pour le M5 Max avec 32 cœurs GPU.

Comme sur le MacBook Air, Apple vante le SSD des nouveaux MacBook Pro qui est « jusqu’à deux fois plus performant », avec 14,5 Go/s au maximum. Le stockage de base passe à 1 To pour le MacBook Pro en M5 ou M5 Pro et à 2 To pour le modèle M5 Max, au lieu de 512 Go sur le modèle d’octobre dernier en M5.

Pour la connectivité, la puce N1 est de nouveau présente, tandis que les ports USB Type-C prennent désormais en charge Thunderbolt 5. Un MacBook Pro avec une puce M5 Pro prend en charge deux écrans externes, contre quatre pour la version M5 Max.

Côté tarif, le MacBook Pro M5 avec 1 To débute à 1 899 euros (1 799 euros avec 512 Go auparavant), tandis que l’addition passe à 2 499 euros minimum pour un SoC M5 Pro… et encore ajoutez 200 euros de plus pour la version « complète » du SoC avec 18 cœurs CPU et 20 cœurs GPU (au lieu de 15 et 16 respectivement).

Pour le MacBook Pro M5 Max, le tarif débute à 4 199 euros avec 18 cœurs CPU et 32 cœurs GPU, puis il faut ajouter 375 euros pour avoir les 40 cœurs GPU. Ce sont les tarifs pour la version de 14 pouces, en 16 pouces comptez 2 999 euros en M5 Pro (il n’est pas disponible en M5) et 4 499 euros pour pour la puce M5 Max.

Du M1 au M5 Max, toutes les caractéristiques des puces Apple Silicon

Revenons aux deux nouvelles puces M5 Pro et Max, avec la mise a jour de notre grand tableau comparatif pour commencer :

Comme avec la M5 de « base », chaque cœur GPU dispose d’un « accélérateur neuronal ». Apple affirme que « les puces M5 Pro et M5 Max assurent un traitement des prompts LLM jusqu’à quatre fois plus rapide que les M4 Pro et M4 Max, et une génération d’images par IA jusqu’à huit fois plus rapide que les M1 Pro et M1 Max ».

Les précommandes des nouveaux MacBook Air et Pro ouvriront le 4 mars, les livraisons sont prévues à partir du 11 mars.

Des puces « pensées de A à Z pour l’IA » avec des 5 ou 6 « super-cœurs »

Les M5 Pro et M5 Max « intègrent un nouveau CPU de 18 cœurs, dont 6 super-cœurs, le cœur de CPU le plus rapide au monde, et 12 tout nouveaux cœurs de performance, optimisés pour des performances multithreads économes en énergie ». Pour la version 15 cœurs CPU du M5 Pro, il y a 5 super-cœurs et donc 10 efficaces. Apple ne parle pas de cœurs efficaces, mais « performance ». Les puces M5 Pro et Max ont donc un mélange de « super cœurs » et de « cœurs de performance ».

Auparavant, les puces M4 Pro et Max avaient entre 8 et 12 cœurs « performances », avec 4 cœurs « haute efficacité énergétique » (efficaces). Même chose sur la puce M5, les « super cœurs » n’existaient pas encore et les cœurs efficaces étaient toujours présents. À voir maintenant les résultats dans les tests.

Apple affirme que « la nouvelle architecture du processeur du M5 Pro améliore considérablement les performances multithread jusqu’à 30 % pour les charges de travail professionnelles ». Mais cette comparaison est faite entre des MacBook Pro M4 Pro avec 14 cœurs et M5 Pro avec 18 cœurs, soit… 30 % de cœurs en plus. La répartition entre les cœurs n’est pas non plus la même pour rappel.

Le fabricant ne s’en cache pas : il mise tout sur l’IA : « Les puces M5 Pro et M5 Max reposent sur la nouvelle architecture Fusion signée Apple et sont pensées de A à Z pour l’IA. Cette conception innovante combine deux puces en un seul système pour un gain de performances considérable ».

La version Max du M5 intègre deux encodeurs vidéo et deux encodeurs/décodeurs ProRes. Un comparatif de MacBook Pro 14 avec des puces M5, M5 Pro et M5 Max est disponible par ici.

  •  

Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

Come to me
Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

Alors que ses modèles connaissent une soudaine vague de popularité suite aux démêlés d’Anthropic avec l’administration Trump, l’entreprise éditrice de Claude vient d’ouvrir à tous les comptes, même gratuits, la fonction qui permet d’importer la « mémoire » de l’utilisateur d’une autre IA. Un levier malin pour encourager les migrations, qui illustre à la fois l’enjeu économique de rétention… et la valeur potentielle de cet historique.

En prononçant vendredi 27 février l’interdiction d’utiliser les modèles d’Anthropic au sein des armées et administrations américaines, Donald Trump a donné un coup de projecteur sur Anthropic et son CEO, Dario Amodei. Et Sam Altman, qui s’est empressé d’annoncer la signature d’un accord entre le Pentagone et son entreprise OpenAI, n’a rien fait pour limiter cet effet Streisand, au contraire.

Résultat des courses, la popularité de Claude a explosé sur les kiosques de téléchargement d’Apple et d’Android, jusqu’à devenir et rester encore aujourd’hui l’application gratuite la plus demandée du moment.

Claude est l’application gratuite numéro un du classement de l’App Store d’Apple, devant ses concurrentes ChatGPT et Gemini – capture d’écran Next

Import en deux clics

Anthropic a saisi cette balle séduisante au bond lundi, en ouvrant les vannes et en simplifiant l’accès à sa fonction Import Memory. Lancée à l’automne 2025, celle-ci était jusqu’ici réservée aux souscripteurs d’un abonnement payant. Elle permet d’injecter, dans Claude, l’historique et les informations contextuelles que l’utilisateur a pu accumuler en utilisant un modèle concurrent comme ChatGPT, Gemini, Le Chat et consorts.

Ce faisant, l’internaute peut conserver à la fois l’historique de ses conversations, projets, requêtes, etc., ainsi que les éventuels éléments personnels qu’il aurait enseignés au modèle pour adapter les sorties à ses attentes.

La fonction d’import est désormais accessible en un clic via l’onglet Capacités des paramètres du site Claude.ai. Anthropic fournit un prompt prêt à l’emploi (rédigé en anglais) qu’il suffit de copier dans le modèle que l’on quitte, puis une fenêtre destinée à l’import des résultats obtenus.

La fonction d’import propose une invite (prompt) prête à l’emploi – capture d’écran Next

Pour que la requête soit efficace, il faut bien entendu que l’internaute ait au préalable utilisé un modèle concurrent, et que les options de mémoire de ce dernier aient été pleinement activées, ce qui n’est par exemple pas le cas par défaut sur un compte ChatGPT gratuit. Dans ce scénario, l’utilisateur peut bien visualiser un historique de ses conversations avec le chatbot, mais ce dernier n’établit pas de lien entre les différents fils de discussion, même si les réglages correspondants sont activés dans les paramètres. Sur un compte gratuit pour lequel aucun élément de personnalisation n’a été rempli, ChatGPT répond donc par un fichier vide au prompt proposé par Anthropic.

La donne change avec un abonnement payant, comme nous avons pu en faire l’expérience. La sortie proposée par ChatGPT reprend les infos personnalisées qui ont été renseignées, et propose ensuite une sorte de digest des différents fils de discussion initiés par l’utilisateur. La sortie est globalement fidèle à la réalité des échanges passés, mais elle ignore certains projets ou thèmes abordés, et témoigne parfois d’une interprétation hasardeuse de la finalité initiale de la demande.

Dans la lignée de nos précédentes expérimentations, notre rapide test montre par ailleurs que la sortie n’est pas constante dans le temps : il ne s’agit donc pas d’un export (au sens accès à l’intégralité des données brutes par exemple), mais bel et bien du résultat de la requête transmise à un modèle probabiliste. ChatGPT (et les autres) proposent heureusement une fonction d’archivage qui permet quant à elle de récupérer la totalité de son historique, mais le fichier qui en découle n’est évidemment pas prévu pour être injecté en un clic dans Claude.

De la difficulté de retenir les utilisateurs ?

Est-ce de toute façon vraiment l’efficacité de cette fonction qui prime dans le contexte actuel ? Plusieurs spécialistes de la mesure d’audience affirment que le regain de popularité de l’application Claude s’est accompagné d’une vague de désinstallation de l’application ChatGPT. Autrement dit, les gens ne se seraient pas simplement intéressés à Claude : ils auraient vraiment décidé de changer de crèmerie.

Et c’est précisément pour étayer l’idée selon laquelle il est facile de passer, sans perte, d’une IA à une autre, qu’Anthropic a ouvert les vannes de sa fonction d’import : elle montre qu’au-delà de simplement essayer Claude pour voir, on peut très vite y transférer sa « mémoire ».

Dans la course aux financements que se livrent les géants de l’IA, il y a nécessairement une prime à celui qui réunit le plus grand nombre d’utilisateurs, et c’est encore plus vrai pour Anthropic et OpenAI qui ne peuvent pas, comme Microsoft ou Google, s’appuyer sur une base conséquente d’utilisateurs captifs via d’autres produits déjà très répandus (Windows, Office, Android, Chrome, etc.). Cette problématique de rétention est d’ailleurs l’un des arguments qui motive la course aux agents IA : il est plus difficile de se départir d’un outil auquel on a délégué des tâches concrètes de son quotidien…

  •  

Municipales : « passer aux logiciels libres, c’est faisable, on l’a fait », mais…

« Le passage à Linux, c’est quand même un peu le boss de fin de niveau »
Municipales : « passer aux logiciels libres, c’est faisable, on l’a fait », mais…

Comment les mairies peuvent-elles s’emparer des questions de souveraineté numérique ? À l’occasion des municipales qui auront lieu les 15 et 22 mars 2026, Next vous propose un entretien avec Nicolas Vivant, directeur de la stratégie numérique embauché par la ville d’Échirolles en 2021 pour mettre en œuvre une politique du numérique prenant en compte une volonté d’autonomie.

Les élections municipales approchent et les questions sur la souveraineté et l’utilisation des logiciels libres sont de nouveau sur le devant de la scène. Next a voulu savoir comment ça se passait concrètement dans une ville qui a choisi de passer au libre.

La ville d’Échirolles (dont la maire est Amandine Demore, PCF), près de Grenoble, est connue depuis quelques années pour avoir mis en place une politique du numérique tournée vers le logiciel libre. Next a interrogé Nicolas Vivant qui travaille pour la ville en tant que directeur de la stratégie numérique depuis 2021.

>> Quand la ville d’Échirolles a vraiment eu une politique tournée vers les logiciels libres ?

C’est difficile à dire. En 2014, l’élu en charge du sujet, Aurélien Farge, a signé la charte des logiciels libres et a cette volonté d’avancer sur le sujet. Mais, il n’y a pas grand-chose d’autre qui est structuré à ce moment-là. Le lien avec le service informatique n’est pas vraiment établi. C’est une prise de parole politique mais qui, sur le mandat 2014 - 2020, n’est pas vraiment déclinée au niveau opérationnel.

Mais, en 2020, il y a, de la part du même élu, une volonté d’avancer concrètement sur le sujet en disant qu’il y a des enjeux politiques autour du numérique et qu’il faut les travailler.

Il y a donc deux périodes, 2014 - 2020 puis 2020 - 2025, avec cette fois-là, la direction générale qui affirme que si on veut vraiment avancer sur ce sujet, il faut se structurer. Ça passe par la commande d’une étude sur le numérique à un cabinet local. Mais aussi par la création d’un groupe de travail des élus sur le numérique.

Ça, c’est vraiment très intéressant, j’ai rarement vu ça : cet adjoint réunit 5 ou 6 autres adjoints (celui aux CCAS, aux RH,…) et ils réfléchissent ensemble sur ce que représente le numérique chacun dans leur délégation. Et, ils rédigent une feuille de route du numérique pour la ville. En parallèle, avec l’appui de la direction générale des services, il crée un poste de directeur de la stratégie et de la culture numérique. Un très bon réflexe qu’ils ont, c’est de mettre le service informatique interne sous ma responsabilité hiérarchique, ce qui me donne les moyens d’influer sur ce qui peut se passer.

Depuis 2021, je déroule, ça a commencé doucement car on avait une équipe qui n’avait ni compétence ni appétence particulière pour ces problématiques : nous étions une DSI comme toutes les autres. Il a fallu prendre le temps de construire une DSI compétente et partante pour avancer sur ces sujets.

L’une des premières choses que j’ai faites était de revoir notre politique de recrutement pour qu’à chaque fois qu’un informaticien quitte le service, on prenne garde de recruter un informaticien avec des compétences sur des logiciels open source et une conviction que c’était une voie sur laquelle il était intéressant de s’engager.

Ça fait que peu à peu, depuis septembre 2023, on dispose de « furieux » avec de vraies compétences techniques et qui sont capables d’installer à peu près n’importe quoi, de maintenir, de documenter, de monitorer dans un environnement open source. Et on commence à mettre des logiciels libres partout.

>> Combien de personnes travaillent pour la DSI d’Échirolles ?

Ça dépend comment on compte et ce qu’on inclut dans la DSI, mais nous sommes dix personnes avec 8,5 équivalents temps plein d’informaticiens.

« Quand on travaille avec des logiciels libres, on ne dépense plus d’argent »

>> Cette question des logiciels libres change-t-elle quelque chose à la taille de la DSI ?

Non, rien. À l’exception de mon recrutement, on a fonctionné à budget constant. On a remplacé les informaticiens qui partaient sur leurs postes jusqu’à fin 2025, où on a demandé la création d’un poste côté support.

Quand on travaille avec des logiciels libres, on ne dépense plus d’argent et on déploie beaucoup plus facilement des outils ouverts pour tout le monde. Entre 2021 et 2025, le nombre de logiciels disponibles pour les agents a été multiplié par deux, ce qui augmente la charge de travail de manière assez significative. De 2021 à 2025, nous n’avons proposé que des budgets en baisse, mais là, en fin de mandat, on commençait à tirer la langue côté support.

>> Ce nouveau besoin de support arrive-t-il parce que les gens sont peu habitués à ces solutions ?

Non, nous aurions mis le même nombre de solutions propriétaires avec l’ancienne équipe et il nous aurait fallu un poste supplémentaire aussi. Ce n’est pas une spécificité des logiciels libres.

On dématérialise de plus en plus : il y a dix ans, personne n’avait de cloud et maintenant tout le monde en veut un. Avant le Covid-19, il n’y avait pas de solution de visioconférence dans les mairies, mais aujourd’hui tout le monde a des solutions de visioconférence. Tout ça, ce sont des solutions qu’il faut installer, intégrer, maintenir et sur lesquelles il faut faire le support. Quel que soit le choix technique ou politique, on aurait donc demandé un poste supplémentaire.

>> Concernant les budgets proposés en baisse, est-ce possible de chiffrer précisément ?

Les économies sur la durée du mandat, c’est 350 000 euros par an, multiplié par 6, ça fait à peu près 2 millions d’euros d’économie à l’échelle du mandat, pour 1 500 PC et 1 000 employés environ. C’est d’ailleurs l’un des changements du passage aux logiciels libres que je n’avais pas du tout anticipé.

Quand on travaille avec des logiciels propriétaires, il faut les acheter et payer un contrat de maintenance et il faut donc un budget. La période de la préparation budgétaire est donc une période où l’on donne de la visibilité sur les projets qu’on va mener dans l’année. Et l’arbitrage budgétaire donne la feuille de route pour l’année. Et les élus et la direction générale savent exactement ce sur quoi on va travailler, avec comme facteur limitant le budget alloué. Il a fallu retravailler le reporting pour mettre en évidence les économies réalisées et les projets que nous menons d’année en année.

>> Est ce que la mise en place de logiciels libres simplifie ou complexifie le travail des agents de la DSI ?

Globalement et avec une équipe différente, ça a simplifié. Les logiciels libres n’ont rien à envier en termes d’ergonomie aux logiciels propriétaires, vraiment rien. La raison de la simplification n’est pas vraiment les logiciels libres mais le travail que nous avons fait autour. Quand j’arrive, il n’y a aucune documentation dans l’équipe, pas de monitoring et personne ne sait ce qu’il se passe sur le réseau ou sur les serveurs. Le gros travail que nous avons fait est une réorganisation du service, la mise en place de monitoring… Tout est documenté chez nous, aussi bien pour les utilisateurs que pour les personnes en charge de la maintenance des différentes solutions. C’est ça qui nous simplifie la vie.

Globalement, l’équipe commence à ressentir une baisse de la charge de travail. Ça ne veut pas dire qu’on a du temps à ne rien faire mais qu’on a de nouveau le temps de gérer des projets alors qu’avant la vie était complètement bouffée par le quotidien et en mode réactif en permanence.

>> Dans la feuille de route donnée par l’équipe municipale au départ, quelles sont les motivations pour s’orienter en majorité vers les logiciels libres ?

On me demande de travailler quatre grands domaines qui n’ont rien de très original à l’époque. L’inclusion numérique, parce qu’on est une ville avec de vraies problématiques de langue, de formation au numérique et d’accès au droit. L’impact environnemental du numérique, en le réduisant et le maîtrisant le plus possible. L’autonomie, avec l’idée d’être le moins dépendant possible d’acteurs extérieurs et notamment des géants de la technologie américains, russes ou chinois. Et la bonne gestion des données personnelles des habitants.

On ne me demande donc pas de mettre en place les logiciels libres mais de répondre à ces quatre enjeux. Les logiciels libres sont la réponse à un certain nombre de sujets et notamment la partie autonomie, impact environnemental, bonne gestion des données personnelles, sécurité…

« Le passage à Linux, c’est quand même un peu le boss de fin de niveau »

>> Sur le site de la mairie, vous affichez utiliser Zorin OS, est-ce le cas pour tous les postes ? Et quels sont les autres outils que vous avez mis en place ?

Les outils, je ne pourrai pas tous les citer, il y en a des dizaines. Je parlerai de Linux après, parce qu’on a attaqué le passage il y a un peu plus d’un an, commencer par ça ce n’est pas la bonne idée. Il y a beaucoup de choses à faire qui ne touchent pas l’environnement des utilisateurs et qui peuvent être faites en open source.

Nous nous sommes mis dans un mode de fonctionnement particulier où, pour toute nouvelle solution qui est déployée, on étudie les solutions pour le faire avec des logiciels libres.

Par exemple, nous avons repris le streaming du conseil municipal (Échirolles a été une des premières villes à streamer en direct le conseil municipal) avec une machine sous Linux, avec Obs Studio (utilisé massivement par les youtubeurs) et un serveur PeerTube. On a acheté nos caméras, déployé notre propre réseau et nous gérons en autonomie. Au final, nous avons mis en place une solution à un coût ridicule par rapport à ce que ça coûte aux autres communes : 6 000 euros en investissement.

C’est valable aussi pour les interphones dans les crèches où on a mis une solution complètement libre. C’est une première, je crois. Le matériel, c’est les interphones du marché, mais on s’appuie sur une solution qui s’appelle FlexiSIP, solution open source développée par une société grenobloise qui s’appelle Belledonne Communications et qui est utilisée par l’immense majorité des constructeurs dans le monde.

On a donc installé chez nous, en interne, un serveur FlexiSIP et quand on appuie sur le bouton de l’interphone, c’est notre FlexiSIP qui est contacté. Nous avons aussi un système de téléphone sur IP avec un IPBX, solution open source aussi, qu’on opère nous-même. Si l’appel est redirigé vers un téléphone fixe chez nous, on a une petite configuration à faire sur notre serveur Xivo. Si l’appel est redirigé vers un smartphone, on a une solution libre qui s’appelle Linhome et qui permet de voir la personne avec la caméra de l’interphone, d’ouvrir la porte, etc.

Nous avons appliqué ça à absolument tout : l’affichage municipal est construit avec des mini-PC sous Linux, récupération de desktop de PC d’agents un peu juste pour faire tourner la bureautique. Ça nous permet de faire de l’affichage municipal sur tous les sites de la ville et que nous maitrisons.

On a aussi changé la messagerie, installé un Nextcloud, un Big Blue Button pour la visio. Aujourd’hui, ce n’est pas loin de 100 solutions libres différentes qu’on utilise, soit déployées sur des serveurs, soit sur des postes clients.

Le passage à Linux, c’est quand même un peu le boss de fin de niveau. Dans notre stratégie, je dis à mon équipe que c’est très bien de passer au libre mais que nous sommes à la merci d’un changement de majorité qui pourrait dire « marche arrière toute, on revient aux outils Microsoft ». Si l’informatique n’est pas un problème, que ça se passe bien et que les gens sont contents, il n’y aura ni pression ni soutien de la part des agents pour un retour en arrière, qui de fait couterait très cher. Il faut donc absolument travailler la satisfaction des utilisateurs.

Linux va directement les toucher car on touche à l’interface qu’ils utilisent au quotidien. On a travaillé sur le choix d’une distribution aussi proche que possible de Windows, qui ne vient pas les bouleverser complètement. On a donc choisi Zorin OS en version gratuite (Core), la version pro a un intérêt si on a besoin de support, ce qui n’est pas notre cas (nous gérons en interne).

Si on avait mis du Ubuntu, on aurait mis tout le monde en panique. Et nous faisons une introduction de Linux dans notre système d’information très très progressive et douce dans l’approche. Aujourd’hui, on a 10 % de PC seulement sous Linux alors qu’on a commencé il y a un an et demi. On a commencé par lancer un appel à volontariat et à déployer Linux chez des gens qui nous l’ont réclamé et qui donc accueillent d’emblée le changement.

Là, nous sommes entrés dans une phase d’incitation, c’est-à-dire qu’on propose systématiquement Linux aux personnes, mais s’ils refusent, aucun problème, on leur installe un Windows 11. On a prévu que cette phase dure trois ans. L’idée est que Linux apparaisse dans l’infrastructure, que les gens voient d’autres personnes utiliser Linux sans difficulté et que ça lève un certain nombre de craintes.

Les exceptions : la paie, les finances, l’état civil

>> L’OS est un point clé mais il y a aussi les applications métiers. Avez-vous des logiciels libres qui permettent de gérer la paie et tout ce qu’une mairie doit pouvoir utiliser ?

Non, aujourd’hui, pour la paie, les finances, l’état civil, il n’en existe pas. Pour ce genre d’applications métiers, il y a deux ou trois éditeurs qui se partagent tout le marché des collectivités. Ça s’explique parce que ce sont des logiciels qui sont très dépendants des évolutions législatives et quand un gouvernement décide qu’au 1ᵉʳ janvier, ça va être le prélèvement à la source, il faut qu’au niveau du logiciel RH, du logiciel de paie et du logiciel financier, ça soit prêt. Ça veut dire qu’il faut adapter le logiciel alors que ça ne concerne que la France. Et en général, un logiciel libre ne concerne pas que la France, il est déployé partout mais on ne peut pas avoir une équipe qui maintient en fonction des évolutions législatives de chaque pays.

Mais nous avons créé un collectif qui s’appelle France Numérique Libre qui rassemble 350 informatiques de collectivités représentant plus de 250 collectivités (conseils départementaux, régionaux, communes, partout en France, y compris dans les départements et territoires d’outre-mer).

Nous sommes tous frustrés par le fait qu’on n’ait pas de solution de logiciels libres pour ces logiciels métier. Nous commençons donc à nous organiser pour initier la naissance des logiciels que l’on financerait. Sur l’état civil, un groupe de travail s’est déjà constitué avec plusieurs collectivités qui sont prêtes à y aller et à financer.

>> Justement, y a-t-il des villes qui sont proches des interrogations d’Échirolles sur ces sujets ?

Oui. Il y a déjà une vraie dynamique locale autour de Grenoble : on a des liens très étroits avec un certain nombre de communes, qu’elles soient petites comme Saint-Martin-d’Uriage ou de plus importantes comme Pont-de-Claix, Saint-Martin-d’Hères, ou Saint-Égrève.

Au niveau national, grâce à France Numérique Libre, on a pu échanger avec des collègues et identifier quelques villes qui boostent comme Strasbourg où il y a une vraie dynamique, Colomiers (du côté de Toulouse), Lyon, Villejuif. Et les choix d’outils peuvent être très différents, mais tant mieux.

>> Concernant la gestion du mail qui demande une attention particulière, ça se passe comment ?

L’installation, le paramétrage, la formation des utilisateurs demandent du boulot. Mais nous avons une équipe qui sait gérer une messagerie sans difficulté. Nous avons choisi SOgo. Mais par exemple la ville de Claix est passée cette année de Microsoft Exchange à Open-Xchange. Et peut être que demain, si on avait à changer de messagerie, on passerait aussi surOpen-Xchange.

Opérer des messageries, ça se fait. Le SITPI, qui est un syndicat intercommunal dont nous sommes membres et par le biais duquel nous mutualisons un certain nombre d’outils avec d’autres collectivités, a fait le choix d’Open-Xchange en migrant au mois d’octobre dernier.

On parle beaucoup d’Échirolles parce qu’on raconte ce qu’on fait mais aussi parce qu’on va chercher des choses sur lesquelles d’autres ne sont pas allés. Sur la partie infrastructure, par exemple, notre fournisseur d’accès nous fournit un « tuyau », mais le reste, il ne s’en occupe pas, nous avons nos propres adresses IP, nos propres routeurs BGP pour faire le routage sur Internet.

Et nous travaillons avec notre syndicat communal pour le connecter directement à Internet et qu’il devienne fournisseur d’accès à Internet pour les villes membres.

On construit un cercle vertueux : ça se sait qu’on travaille sur ce genre de projets et finalement, quand on ouvre un poste d’ingénieur réseau, on a des gens d’un niveau de compétence important qui postulent alors même qu’on leur rappelle que le niveau de rémunération n’est pas très élevé. Parce qu’ils savent qu’ils vont bosser sur des projets pointus et sympas et pas sur des contrats avec des prestataires à passer des coups de fil quand ça ne fonctionne plus.

Il y a plusieurs façons d’imaginer une DSI. Je peux tout à fait concevoir que quelqu’un se dise que le cœur de métier d’une mairie n’est pas de faire de l’informatique et qu’il va payer des prestataires pour la messagerie, pour le cloud, etc., et c’est eux qu’on appellera quand il y aura des soucis et on gèrera des contrats. C’est complètement compréhensible. Ce sont des choix politiques. Il y avait une volonté, nous, de la majorité, d’être cohérents, y compris sur la partie numérique, avec leur positionnement politique par ailleurs. D’autres choix sont possibles mais effectivement, on ne recrute pas les mêmes profils de personnes et on ne travaille pas du tout de la même façon…

>> N’y a-t-il pas quand même un coût de formation des personnels, par exemple, pour le passage à Zorin OS ?

Non, l’avantage de Zorin OS, c’est qu’on peut le configurer aux petits oignons et que les raccourcis et les menus sont les mêmes que sous Windows, par exemple. On va peut-être se mettre à faire des formations, mais plus pour faire de la communication. Nos formations à Linux seront plutôt l’occasion de parler du projet échirolois, de ses spécificités et de mettre en avant les quelques points forts de Linux, parce qu’il y en a.

Nous ne les mettons pas en place parce que les gens seraient perdus sous Linux. On a un exemple d’une agente, au début du plan de volontariat du passage à Linux, à qui on l’a refusé parce qu’elle était arrivée six mois avant et qu’en fait, elle était déjà sous Linux mais elle ne s’en était pas rendue compte. Le changement se fait sans difficulté.

Il y a aussi le fait qu’on part sur un plan de volontariat, mais aussi qu’on commence par la facilité : il est hors de question que je passe les infographistes de la ville qui travaillent sous Mac avec la suite Adobe sous Linux en premier. Ça serait de la folie. Ces outils sont tellement inscrits culturellement chez eux et chez tous les infographistes que je me dis que si je passe 1 498 PC sous Linux et que ces deux-là restent sous Mac, on pourra quand même dire qu’on est passé sous Linux. On contourne la difficulté parce que l’idée n’est pas d’avoir 100 % de postes sous Linux mais d’avoir autant de postes sous Linux que possible dans des conditions qui restent acceptables pour nos agents.

Je veux bien qu’on me dise que Zorin OS n’est pas la meilleure distribution pour nous ou que le passage à Linux, c’est très compliqué, mais les arguments portent peu dans la mesure où on l’a fait, voilà.

À l’époque où on choisit Zorin OS, c’est quand j’arrive et j’ai une équipe de Windowsiens convaincus que Windows c’est le meilleur système d’exploitation et c’est eux qui choisissent Zorin OS. Pour moi, c’est important car, culturellement, ils ont le même background que mes utilisateurs. On peut me dire que Debian, c’est mieux. Je recrute que des libristes, et pas un seul était sous Zorin OS, mais peu contestent que Zorin OS était le meilleur choix pour Échirolles parce qu’au quotidien, quand on est face aux utilisateurs à la hotline, on a intérêt à installer un OS dans lequel il est facile de mettre un raccourci sur un bureau, par exemple, parce que c’est comme ça qu’ils bossent.

>> Pour les autres logiciels, c’est comme pour du logiciel propriétaire ?

Oui et parfois mieux. On utilise Odoo, un ERP libre de recrutement. Avec notre service recrutement et avec plusieurs communes dans le cadre de notre syndicat intercommunal, on l’a mis en concurrence avec d’autres solutions du marché et tout le monde nous a dit « c’est celui-là qu’on veut ».

Les personnes qui arrivent à Échirolles et qui ont connu Google Workspace ou Microsoft 365 trouvent que Nextcloud est beaucoup mieux, aussi bien en termes de nombre de fonctionnalités disponibles qu’en termes d’ergonomie. Aujourd’hui, ce n’est plus « ça va être un peu moins bien mais c’est du logiciel libre ». Il y a beaucoup de logiciels libres qui sont meilleurs que les logiciels propriétaires du marché.

Beaucoup de gens nous disent que le passage à LibreOffice, c’est vraiment compliqué, mais on l’a fait et ça fonctionne. D’ailleurs, le passage à LibreOffice a été fait bien avant que j’arrive. Mais ça fonctionne pour tous les logiciels sauf les logiciels métier dont on a parlé avant (finance, RH, état civil).

Passer aux logiciels libres, c’est faisable, on l’a fait. Reste que ce n’est pas juste remplacer un logiciel propriétaire par un logiciel libre, ça nécessite plein de changements au niveau organisationnel pour que les choses soient bien faites.

  •  

Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

L’attaque des bots
Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

Un bot alimenté a utilisé les GitHub Actions pour compromettre des dépôts GitHub. Ironie du sort, il a piraté un scanner de sécurité (vulnérabilité, mauvaises configurations…), publié une extension VS Code malveillante et renommé le dépôt (en privé).

Il y a maintenant plus de sept ans que GitHub propose ses « Actions » pour automatiser des tâches, dont la mise en production automatique de code. On parle souvent de CI/CD avec CI pour Continuous Integration (intégration continue) et CD pour Continuous Deployment (déploiement continu).

La semaine dernière, un bot baptisé hackerbot-claw a utilisé l’intelligence artificielle générative (Claude Opus 4.5 selon sa propre présentation) pour exploiter activement la fonctionnalité GitHub Actions afin de faire des dégâts dans des dépôts GitHub.

Du code exécuté à distance sur au moins quatre cibles

StepSecurity (entreprise spécialisée dans la sécurité de l’automatisation de la livraison de code) a publié une analyse détaillée. De même pour Stéphane Robert, ingénieur DevOps et architecte cloud chez 3DS Outscale, sur son blog en se concentrant davantage sur une des attaques, contre le scanner de vulnérabilités open source Trivy. Il dresse un portrait au vitriol : « Un bot IA autonome qui compromet un scanner de sécurité, publie une extension VS Code malveillante, et renomme le dépôt en privé — le tout en quelques heures. On est clairement entrés dans une nouvelle ère ».

Durant plusieurs jours, une campagne d’attaques automatisées (avec cinq techniques différentes) a donc été lancée via GitHub Actions, « réussissant à exécuter du code à distance dans au moins 4 cibles sur 7 » selon le billet de blog de StepSecurity. Les cibles étaient prestigieuses : microsoft/ai-discovery-agent‍, DataDog/datadog-iac-scanner‍, avelino/awesome-go, ambient-code/platform, project-akri/akri, aquasecurity/trivy et RustPython/RustPython.

Dans un des cas, le bot a pu « exfiltrer un jeton GitHub d’un dépôt populaire, avec des autorisations d’écriture ». Pour d’autres, le bot a aussi mis en place une injection de script en ajoutant une charge malveillante dans un fichier version.sh, a modifié des noms de branches pour y ajouter du code, caché des commandes shell (en Base64) dans les noms de fichiers, injecté des prompts IA, etc.

Le dépôt hackerbot-claw a été fermé dans la journée d’hier. Il précisait auparavant être « un agent autonome qui analyse les dépôts publics à la recherche de workflows CI/CD mal configurés. Je les trouve. Je les vérifie. Je laisse un mot. Je n’exfiltre pas, je ne détruis pas, je ne persiste pas », affirmait la présentation, qui voulait donc le présenter comme un chevalier blanc.

Trivy, le scanner de vulnérabilités, se fait détrousser

L’attaque la plus médiatisée est celle contre Trivy, dont le dépôt officiel (24 000 étoiles) a été vidé. « Trivy est l’un des scanners de vulnérabilités open source les plus utilisés dans l’écosystème cloud native. Il scanne les images de conteneurs, les fichiers IaC (Terraform, Kubernetes), les dépôts de code, les SBOM… C’est un outil incontournable dans toute chaîne DevSecOps sérieuse », explique Stéphane Robert sur son blog.

Hormis le dépôt vide, le site officiel est toujours en place, comme la documentation de la version 0.69 et « la page d’installation référence même la version 0.69.1 dans ses exemples ». Le problème ne concerne que GitHub a priori, mais aussi par ricochet toutes les applications s’appuyant sur ce dépôt.

L’éditeur de Trivy, Aqua Security, explique de son côté que « le dépôt a été rendu privé et renommé (en private-trivy). Un dépôt vide a été poussé à la place du dépôt public. Les versions GitHub entre 0.27.0 et 0.69.1 ont été supprimées, y compris les discussions et ressources GitHub associées pour ces versions ».

Autre problème et pas des moindres : « Un artefact malveillant a été créé pour l’extension VScode de Trivy, puis poussé vers la marketplace Open VSIX (une alternative à la marketplace officielle de VSCode). Nous avons supprimé cet artefact et révoqué le jeton utilisé pour le publier ». L’équipe n’a pas trouvé d’autres « impacts » suite à cette attaque et se concentre sur un retour à la normale de l’ensemble des services.

Depuis, une nouvelle version 0.69.2 a été mise en ligne, la seule « considérée comme propre » par Stéphane Robert. « Si vous avez installé Trivy entre le 21 et le 28 février – vérifiez l’intégrité de votre binaire. En cas de doute, supprimez et réinstallez la v0.69.2 », ajoute-t-il.

Attaques CI/CD : « Vous ne pourrez plus dire “je ne savais pas” »

Pour StepSecurity, cette attaque de « Hackerbot-Claw démontre que les attaques CI/CD ne sont plus simplement théoriques. Des bots autonomes recherchent et exploitent activement les erreurs de configuration des flux de travail en production ».

Stéphane Robert lance lui aussi un avertissement sur LinkedIn : « Alors messieurs les RSSI, mesdames les responsables sécurité : l’attaque sur Trivy n’est pas un cas isolé. C’est un rappel. Vos pipelines sont une surface d’attaque. Ils ont des permissions d’écriture sur vos repos, accèdent à des secrets, et s’exécutent à chaque push. Vous ne pourrez plus dire “je ne savais pas” ».

  •  

Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Oh wait...
Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.

On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.

La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».

Svenska Gagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.

L’intimité de l’entourage des utilisateurs révélée

S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.

« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.

Des retranscriptions de discussions privées avec l’appareil

Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.

Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.

Les conditions d’utilisation de Meta AI demandent de ne pas partager d’informations sensibles

Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.

Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».

Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.

Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.

Bientôt une enquête de la Commission européenne ?

Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.

Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.

À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».

En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».

  •  

USA : 7 ans de prison pour avoir volé, et vendu, des failles « 0days » à un courtier russe

L3Harris spotter
USA : 7 ans de prison pour avoir volé, et vendu, des failles « 0days » à un courtier russe

Le directeur général d’un vendeur américain de failles de sécurité susceptibles d’être exploitées par les services de renseignement techniques vient d’être condamné pour en avoir volé huit, et les avoir vendues à son principal concurrent… russe. Ce dernier, ainsi que cinq personnes et entités associées, viennent par ailleurs d’être sanctionnés.

Le business des « 0days », du nom donné aux vulnérabilités logicielles non identifiées par leurs éditeurs (et donc non patchées) est devenu tellement profitable que le directeur général d’un fournisseur attitré des États-Unis et de ses partenaires anglo-saxons de l’alliance des « Five Eyes » vient d’être condamné à sept ans et trois mois de prison pour en avoir volé et vendu huit, pour 4 millions de dollars en cryptoactifs, à un courtier russe.

La justice états-unienne n’a pas mentionné le nom de ce dernier dans son communiqué, mais le département du Trésor et le département d’État viennent, dans le même temps, de sanctionner Operation Zero, le principal broker russe de 0days, tout en le reliant explicitement à la condamnation de Peter Williams.

La journaliste spécialisée Kim Zetter raconte que cet Australien de 39 ans résidant à Washington avait initialement travaillé au sein de l’Australian Signals Directorate (ASD), l’agence australienne de renseignement électronique à l’étranger, partenaire de la NSA.

Après l’avoir quittée, il avait travaillé pour une entreprise privée australienne spécialisée dans la recherche de vulnérabilités et les « computer network operations » (CNE), du nom donné par les « Five Eyes » aux capacités cyberoffensives.

En 2018, le géant américain L3Harris rachetait Azimuth Security et Linchpin Labs, deux entreprises australiennes spécialisées dans le développement d’exploits, où Williams travaillait depuis son départ de l’ASD en 2016.

En octobre 2024, Peter Williams était nommé directeur général de Trenchant, l’entreprise née de ce rachat. Hasard ou coïncidence, Trenchant avait appris, à peu près au même moment, que certains de ses actifs logiciels avaient fuité hors de son réseau sécurisé, et se trouvaient entre les mains d’un courtier étranger.

Trenchant avait alors lancé, ce même mois d’octobre 2024, une enquête interne, supervisée par Williams lui-même. Elle avait conclu que le réseau sécurisé de Trenchant n’avait pas été compromis, « à l’exception d’un ancien employé qui, pendant qu’il était en poste, avait accédé de manière inappropriée à Internet à partir d’un appareil isolé ».

Kim Zetter souligne en effet que Trenchant conserve son code sensible sur un réseau sécurisé isolé déconnecté d’Internet (« air-gapped »), afin d’empêcher tout risque de fuite.

Pour tenter de brouiller les pistes, Peter Williams avait alors lui-même accusé un autre salarié de Trenchant d’être à l’origine de la fuite de plusieurs vulnérabilités inconnues du navigateur Chrome, avant de le licencier.

Une accusation d’autant plus improbable que le bouc émissaire faisait partie d’une équipe chargée exclusivement de l’identification de failles zero-day dans iOS et du développement de logiciels espions pour les terminaux Apple.

Encore plus étrangement, s’étonne Kim Zetter, Williams avait continué à vendre des exploits au broker russe alors même qu’il savait que le FBI enquêtait sur le vol de codes de Trenchant. En juin 2025, il avait même signé un nouveau contrat de 500 000 dollars avec le broker russe, et lui transmettait de nouveaux « secrets logiciels » quelques jours seulement avant de rencontrer le FBI à ce sujet.

Pire : après avoir reçu un premier versement, en crypto-monnaies, il l’avait blanchi, comme à son habitude, mais plutôt que de laisser la somme sur un compte dédié, et non relié à son identité, il avait transféré la somme correspondante sur l’un de ses comptes bancaires.

Un préjudice estimé à au moins 35 millions de dollars

D’après l’acte d’accusation, que nous avions déjà évoqué lors de son inculpation, en octobre 2025, Williams aurait obtenu 1,3 million de dollars en échange de ces secrets commerciaux entre 2022 et 2025, sur les 4 millions de dollars initialement escomptés, tempère Kim Zetter.

L’intégralité des fonds (y compris en cryptos) déposés dans sept comptes bancaires avait alors été saisie, ainsi qu’une liste d’objets de valeur à son domicile, dont plusieurs bagues de diamant Tiffany, un sac à main Louis Vuitton, des vestes Moncler, et 24 montres de luxe (dont huit « replicas », copies plutôt haut de gamme, difficiles à distinguer des originales).

Le procureur précise que Williams avait aussi acheté une Tesla Model X 2022, une Porsche Panamera 2018, des biens immobiliers, dépensé 5 000 dollars pour quatre bagages de luxe et plus de 715 000 dollars pour des vacances de luxe entre 2022 et 2025. 

Kim Zetter rapporte que le département de la Justice avait réclamé une peine de neuf années de prison, 250 000 dollars d’amendes, et le remboursement des 35 millions de dollars de pertes pour Trenchant.

Williams avait en effet lui-même estimé, auprès du FBI, que la vente de deux des « secrets » qu’il avait vendus au broker russe représentait à elle seule une perte d’environ 35 millions de dollars de préjudice pour Trenchant.

Cyberscoop indique qu’une audience visant à obtenir une restitution supplémentaire liée à ces 35 millions de dollars de préjudice est par ailleurs prévue en mai.

Des brokers russes prêts à payer jusqu’à 20 millions de dollars

Le Bureau du contrôle des avoirs étrangers (OFAC) du département du Trésor américain a donc, en parallèle, désigné Sergey Sergeyevich Zelenyuk (Zelenyuk) et sa société, Matrix LLC (opérant sous le nom d’Operation Zero), ainsi que cinq personnes et entités associées, pour leur acquisition et leur distribution d’outils informatiques nuisibles à la sécurité nationale des États-Unis. 

L’OFAC précise que « parmi les exploits acquis par Operation Zero figuraient au moins huit cyber-outils propriétaires, créés pour l’usage exclusif du gouvernement américain et de certains alliés, et qui avaient été volés à une entreprise américaine » :

« Cette action coïncide avec une enquête menée par le ministère de la Justice et le Federal Bureau of Investigation (FBI) sur Peter Williams, un ressortissant australien et ancien employé de la société américaine susmentionnée qui a plaidé coupable le 29 octobre 2025 de deux chefs d’accusation pour vol de secrets commerciaux. »

Si Operation Zero souligne sur son site web que « Nos clients sont exclusivement des organisations privées et gouvernementales russes », l’OFAC avance que Zelenyuk aurait déclaré qu’il ne vendrait d’exploits qu’à des clients de pays non membres de l’OTAN, et donc pas forcément russes.

En octobre 2023, arguant d’une forte demande du marché, Operation Zero avait été jusqu’à passer de 200 000 à 20 millions de dollars le montant maximum des primes proposées en échange d’exploits iOS ou Android, comme l’avait documenté TechCrunch.

Zelenyuk et Operation Zero auraient notamment cherché à « développer d’autres systèmes de cyber-renseignement, notamment des logiciels espions et des méthodes permettant d’extraire des informations d’identification personnelle et d’autres données sensibles téléchargées par les utilisateurs d’applications d’intelligence artificielle telles que les grands modèles de langage ».

L’OFAC désigne également Azizjon Makhmudovich Mamashoyev et Oleg Vyacheslavovich, pour avoir entretenu des relations professionnelles avec Operation Zero, ainsi que Marina Evgenyevna Vasanovich, l’assistante de Zelenyuk.

Ressortissant russe, Kucherov est soupçonné d’appartenir au groupe cybercriminel Trickbot, accusé de multiples attaques par ransomware contre le gouvernement américain, ainsi que contre des hôpitaux et des centres de soins de santé à travers les États-Unis. 

Next était revenu en détail sur leurs faits d’armes lorsque la justice états-unienne avait identifié sept de ses membres, dont une développeuse web de 55 ans arrêtée à Miami : Alla Witte, au profil somme toute détonant eu égard aux clichés d’ordinaire véhiculés au sujet des cybercriminels russophones.

Mamashoyev est quant à lui à la tête d’Advance Security Solutions, une autre société de courtage d’exploits et de cybersécurité offensive opérant aux Émirats arabes unis et en Ouzbékistan. 

Le département d’État précise dans un communiqué dédié que Zelenyuk avait lui aussi créé une société basée aux Émirats arabes unis, Special Technology Services LLC FZ (STS), afin de mener des activités commerciales avec divers pays d’Asie et du Moyen-Orient, tout en contournant les sanctions américaines imposées aux comptes bancaires russes.

Signe d’un business florissant, TechCrunch rappelle que lors de son lancement, l’an passé, Advance Security Solutions proposait lui aussi jusqu’à 20 millions de dollars de primes pour des failles 0days capables d’infecter un smartphone au moyen d’un message textuel.

C’est par ailleurs la première fois, souligne le département d’État, que le gouvernement sanctionne un individu et des entités en vertu de la loi sur la protection de la propriété intellectuelle américaine (Protecting American Intellectual Property Act, ou PAIPA).

Cette loi autorise les sanctions à l’encontre de toute personne ayant sciemment participé à un vol important de secrets commerciaux appartenant à des ressortissants américains ou en ayant tiré profit, « si le vol de ces secrets commerciaux est raisonnablement susceptible d’entraîner ou a contribué de manière significative à une menace importante pour la sécurité nationale, la politique étrangère, la santé économique ou la stabilité financière des États-Unis ».

  •  

Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

El ingenioso hidalgo
Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

Déjà très présent en Espagne, Amazon a annoncé lundi une nouvelle salve de projets qui représentent, en cumulé, 18 milliards d’euros d’investissements supplémentaires dans le pays. Dans les grandes plaines semi-désertiques d’Aragon, le géant américain évoque des datacenters, une usine d’assemblage de serveurs et un centre logistique. Un millième de son enveloppe est fléché vers le soutien à l’approvisionnement en eau dans la région.

Amazon double la mise en Espagne. Le géant américain a en effet profité du Mobile World Congress de Barcelone pour annoncer, lundi, une nouvelle salve d’investissements, à hauteur de 18 milliards d’euros, dans le pays. En 2024, Amazon s’était déjà engagé à y déployer 15,7 milliards d’euros sur dix ans. Ce second volet porte donc l’enveloppe totale promise à 33,7 milliards d’euros d’ici 2035.

C’est essentiellement en Aragón, cette communauté autonome du nord-est de la péninsule ibérique qui abrite déjà les datacenters espagnols d’Amazon Web Services (AWS), que devraient se concentrer ces investissements.

Deux usines et trois datacenters

Le groupe américain affirme que cette manne contribuera à hauteur de 31,7 milliards d’euros au PIB espagnol d’ici 2035, et générera l’équivalent de « 29 900 emplois directs, indirects et induits par an », aussi bien dans la construction de ses infrastructures que dans l’économie locale.

Si l’impact réel des datacenters en matière de création d’emploi reste sujet à débat, Amazon indique que la province espagnole d’Aragón a vocation à accueillir des installations industrielles, dédiées à l’assemblage et à la logistique des serveurs qui équipent ses infrastructures dans toute l’Europe.

« Le projet comprendra une usine de fabrication de serveurs pour l’assemblage et les tests, un entrepôt de production et de traitement des commandes, ainsi qu’une installation dédiée à la fabrication et à la réparation de serveurs d’IA et d’apprentissage automatique (ML), un élément clé de la stratégie d’économie circulaire d’Amazon », déclare le groupe dans un communiqué. Ces installations devraient représenter 1 800 emplois directs en vitesse de croisière.

À l’échelle de la région, Amazon affirme que ses projets induiront la création de 13 400 emplois aragonais, dont 4 200 emplois directs au sein de ses propres équipes. Le géant américain affirme que ses investissements devraient contribuer au PIB de l’Aragón à hauteur de 18,5 milliards d’euros d’ici 2035, soit une augmentation de plusieurs points du PIB annuel de la communauté autonome (41,8 milliards d’euros en 2023).

Outre ces usines d’assemblage et de reconditionnement de serveurs, c’est tout de même principalement dans les datacenters que devraient se concentrer les fonds promis. D’après le quotidien local El Heraldo de Aragón, Amazon prévoit en effet d’ajouter trois centres de données aux six que compte déjà la région de Saragosse, capitale de la communauté autonome.

Les projets d’Amazon sont soutenus par le président de la collectivité, le conservateur Jorge Azcón, réélu en février dernier et soutien affirmé du développement des infrastructures numériques, qu’il considère comme un « nouvel horizon économique ». El Mundo indique que l’administration aragonaise accélère les projets d’implantation de datacenters en leur octroyant le statut de projets d’intérêt général (Planes y Proyectos de Interés General de Aragón, ou PIGAS), qui simplifient grandement les formalités administratives associées.

Une contribution positive en eau à horizon 2030 ?

Cette simplification se fait-elle au prix de compromis sur les enjeux environnementaux et climatiques ? C’est la crainte exprimée par l’opposante socialiste Pilar Alegría, qui réclamait pendant sa campagne que les grands noms du numérique qui s’installent dans la communauté autonome soient frappés par une taxe de solidarité destinée aux populations locales, notamment pour compenser les risques soulevés en matière d’approvisionnement en énergie ou en eau.

Sur le volet énergétique, la majorité en place et Amazon rappellent d’une même voix que la province d’Aragón et ses grandes plaines désertiques sont un lieu propice au déploiement d’installations photovoltaïques. Amazon promet en la matière d’investir dans cent projets solaires et éoliens à l’échelle de l’Espagne, dont sept nouvelles fermes photovoltaïques. « En Aragón, les centres de données AWS compensent leur consommation d’électricité par de l’énergie 100 % renouvelable depuis leur ouverture en 2022 », affirme l’entreprise. Rappelons que la péninsule ibérique avait été frappée par une panne de courant de grande ampleur en avril 2025, dont la cause a été attribuée à un défaut des installations chargées de compenser ou réguler la tension sur le réseau.

Reste la question de l’eau, dans une zone où l’irrigation crée déjà des tensions et où les périodes de sécheresse sont parfois ponctuées par quelques épisodes d’inondations à grande échelle. Sur ce point, Amazon ne donne aucune indication précise quant à l’utilisation qui sera faite par ses infrastructures : fonctionneront-elles en circuit fermé (prélèvements marginaux une fois l’approvisionnement initial effectué) ou de façon ouverte, avec des pertes (et donc une consommation continue) à la clé ?

Dans sa communication, le groupe se contente de reprendre ses engagements globaux en matière d’eau, à savoir atteindre une contribution positive d’ici 2030. « Cela signifie que nous restituerons aux communautés et à l’environnement plus d’eau que nous n’en utilisons pour l’exploitation de nos centres de données. En 2024, AWS avait atteint 53 % de son objectif de bilan hydrique positif, contre 41 % en 2023 », explique-t-il.

En Aragón, cette ambition s’exprime par la participation à cinq projets hydriques, initialement annoncés en 2025. Ils concernent respectivement la détection des fuites sur le réseau d’eau potable, le réemploi de l’eau utilisée sur des parcelles agricoles voisines, la création d’un système visant à optimiser la gestion de l’eau à l’échelle de l’agglomération de Saragosse, la mise au point d’une IA destinée à l’irrigation agricole et la modernisation d’une conduite d’eau cruciale de la région. Ces cinq projets sont financés à hauteur de 17,2 millions d’euros, soit un millième de l’enveloppe globale évoquée lundi.

  •  

Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

Les Pixels toujours dans la course
Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

Motorola a été chercher GrapheneOS pour améliorer la sécurité de ses smartphones, mais aussi (et surtout) pour proposer officiellement ce système d’exploitation sécurisé avec certains de ses smartphones. Inutile de courir, aucun modèle n’est actuellement compatible, il faudra attendre 2027.

Pour le MWC de Barcelone, Motorola est « on fire » avec une dizaine de communiqués de presse sur la seule journée d’hier. Il y a évidemment des smartphones avec les Razr Fold et Edge 70 Fusion, des écouteurs sans fil Buds 2, mais surtout un « partenariat à long terme avec GrapheneOS », une alternative à Android de Google.

Motorola et GrapheneOS main dans la main

GrapheneOS mise sur la sécurité et n’était historiquement disponible que sur les smartphones Pixel de Google. La raison ? Ce sont les seuls terminaux laissant l’utilisateur reverrouiller complètement le bootloader avec des clés de chiffrement personnalisées. Depuis plusieurs mois, la rumeur courait d’un partenariat avec un fabricant de smartphones pour intégrer GrapheneOS, c’est donc Motorola.

Pour le moment ce sont seulement des annonces, avec rien de concret à se mettre sous la dent :

« Motorola inaugure une nouvelle ère de la sécurité des smartphones grâce à un partenariat à long terme avec la GrapheneOS Foundation, la principale organisation à but non lucratif spécialisée en sécurité mobile qui développe un système d’exploitation renforcé basé sur le projet Android Open Source. Ensemble, Motorola et GrapheneOS Foundation travailleront à renforcer la sécurité des smartphones et à collaborer sur de futurs appareils conçus avec la compatibilité GrapheneOS ».

De son côté, GrapheneOS se dit ravi de s’associer à Motorola afin de proposer son système d’exploitation « sur leur smartphone de nouvelle génération ». Les développeurs présentent ce partenariat comme une étape importante pour élargir la portée de GrapheneOS. Ils précisent que c’est Motorola qui les a contactés, afin de mettre en place ce partenariat et d’améliorer la sécurité de leurs smartphones.

« Ils vont fournir une prise en charge officielle de GrapheneOS et nous aider activement à assurer le support de leurs téléphones », ajoute le système d’exploitation. GrapheneOS en profite pour faire un appel du pied : « Les autres constructeurs devraient suivre leur exemple ». Les développeurs rappellent que « GrapheneOS étant un logiciel libre, ils n’avaient pas besoin de partenariat pour utiliser notre code ».

Les premiers smartphones Motorola avec GrapheneOS en 2027

Sur les réseaux sociaux, GrapheneOS donne un peu plus de détails sur les terminaux compatibles : « Il s’agira initialement des appareils phares de Motorola, mais cette technologie pourrait s’étendre à d’autres modèles par la suite. Prenons l’exemple des Motorola Signature (2026) et Motorola Razr Fold (2026), qui, pour la génération actuelle, ne répondent pas encore pleinement à nos besoins. Ce seront leurs successeurs ».

De manière générale, les smartphones « actuels, y compris ceux lancés cette année, ne répondent pas aux exigences. Seule la prochaine génération d’appareils est conçue pour répondre à tous nos besoins », affirme GrapheneOS. Un partenariat qui n’a donc pour le moment aucun fruit, il faudra attendre 2027.

GrapheneOS revient sur les différences entre son système d’exploitation et l’Android maison qui sera toujours proposé par Motorola : « Ce sera le même GrapheneOS que sur les Pixel. Il ne contiendra aucun bloatware. C’est un système d’exploitation totalement indépendant de leur propre système. Ils intégreront également certaines fonctionnalités et concepts de GrapheneOS à leur système d’exploitation principal, mais cela restera distinct de GrapheneOS ».

Android sur les Motorola devrait donc se renforcer au niveau sécurité, mais sans plus de précision. Attention, le cœur de l’annonce concerne l’amélioration des smartphones pour « assurer une prise en charge officielle de GrapheneOS ». Les améliorations de la version maison d’Android pour les Motorola font « l’objet d’un projet distinct », explique GrapheneOS sur Bluesky.

Les Pixel toujours supportés, GrapheneOS arrive sur le Pixel 10a

Sur X, le compte officiel de GrapheneOS précise que la prise en charge des terminaux Pixel de Google ne s’arrête pas avec ce partenariat : « Les Pixel répondent à nos exigences de sécurité et continueront d’être pris en charge. La compatibilité avec le Pixel 10a sera ajoutée prochainement ».

Ce n’est pas parce que les Pixels sont supportés que les applications Google sont présentes : « GrapheneOS n’inclura jamais ni les services Google Play ni une autre implémentation de services Google comme microG. Il est possible d’installer les services Play sous forme d’applications en mode bac à sable sans privilèges spéciaux via notre couche de compatibilité Google Play ».

Il y a quelques semaines, un article du Parisien avait, pour rappel, mis le feu aux poudres, accusant le système d’exploitation d’être une « botte secrète » pour les narcotrafiquants. GrapheneOS avait vivement réagi et retirait dans la foulée toutes ses ressources de France.

  •  

☕️ L’iPad Air passe à la puce M4, toujours à partir de 669 euros

Apple a procédé lundi au renouvellement annuel de sa tablette iPad Air, le modèle censé offrir le meilleur compromis entre portabilité et performances. L’édition 2026, toujours déclinée en versions 11 et 13 pouces, est identique en apparence à celle de l’iPad Air M3 lancée en 2025.

La seule nouveauté se situe sous le capot, avec le passage à une puce M4, déjà vue dans les MacBook Pro et l’iPad Pro l’an dernier. On retrouve donc ici la logique de gamme descendante d’Apple, où les produits phares de l’année N se retrouvent intégrés dans les produits plus abordables en année N+1.

Cette puce M4 devrait donc conférer un surcroît de performances à l’iPad Air, d’autant qu’elle se voit accompagnée de 12 Go de mémoire unifiée, contre 8 Go au sein de la puce M3 de la précédente génération. L’introduction des derniers coprocesseurs Apple (N1 et C1X) permet le passage au Wi-Fi 7 ainsi qu’au Bluetooth 6 et promet une connectivité améliorée sur les versions 5G.

iPad Air M4 – crédit Apple

Pour le reste (voir comparatif des spécifications), pas grand-chose à signaler, si ce n’est bien sûr la fourniture par défaut d’iPad OS 26. La tablette est toujours donnée pour 6,1 mm d’épaisseur dans sa version 11 pouces, pour un poids de 464 grammes (soit 4 grammes de plus que le modèle M3), avec une autonomie se montant, selon Apple, jusqu’à 10 heures « pour naviguer sur le Web en Wi‑Fi ou regarder des vidéos ».

Dotée d’un connecteur USB type-C, la tablette est toujours compatible avec les claviers physiques de la marque, ainsi qu’avec le stylet Apple Pencil Pro.

Côté prix, il faut compter 669 euros pour le modèle 11 pouces en Wi-Fi avec 128 Go de stockage, contre 869 euros pour l’équivalent en version 13 pouces. En versions Wi-Fi + Cellular (avec connectivité 5G donc via e-SIM), le prix passe à 839 euros pour la version 11 pouces 128 Go, et 1 039 euros pour le modèle 13 pouces.

Quatre coloris et quatre capacités sont proposés, jusqu’à 1 To. Dans sa configuration la plus haut de gamme (iPad Air 13 pouces 1 To Wi-Fi + Cellular), l’iPad Air atteint 1 669 euros.

  •  

Guerre en Iran : trois datacenters AWS touchés aux Émirats Arabes Unis et à Bahreïn

Les contingences physiques du nuage
Guerre en Iran : trois datacenters AWS touchés aux Émirats Arabes Unis et à Bahreïn

Amazon Web Services (AWS) signale que trois de ses datacenters du Moyen-Orient sont affectés par le conflit qui oppose Israël et les États-Unis à l’Iran. Deux de ses infrastructures situées aux Émirats Arabes Unis auraient été directement touchées, tandis qu’un site situé à Bahreïn a subi des dommages indirects. Amazon prévient que l’interruption de service associée est susceptible de se prolonger.

Le géant américain du cloud AWS fait partie des victimes collatérales de la réponse militaire de l’Iran à l’attaque lancée le 28 février dernier par les États-Unis et Israël. Via la page dédiée au statut de ses infrastructures, il a en effet signalé lundi avoir subi les conséquences des bombardements partis d’Iran au niveau de trois de ses sites, aux Émirats Arabes Unis et à Bahreïn.

Deux sites directement touchés, une victime collatérale

Amazon dispose de trois datacenters aux Émirats Arabes Unis. Deux d’entre eux (référencés comme mec1-az2 et mec1-az3 dans la nomenclature AWS) ont été directement touchés par des frappes de drones parties d’Iran, affirme l’entreprise sur la page « statut » de ses infrastructures.

Elle y décrit comment les premières perturbations sont survenues dans la nuit de dimanche à lundi, suite au déclenchement de la riposte iranienne contre les EAU. L’une de ses zones a d’abord été affectée par un problème d’alimentation électrique, avant que l’entreprise ne signale, quatre heures plus tard, avoir constaté que des objets avaient frappé le datacenter, entraînant un départ d’incendie.

« Les pompiers ont coupé l’alimentation électrique du bâtiment et des générateurs pendant l’intervention pour maîtriser l’incendie. Nous attendons toujours l’autorisation de rétablir le courant et, dès que ce sera fait, nous veillerons à rétablir l’alimentation et la connectivité en toute sécurité », décrivait alors AWS.

Quelques heures plus tard, bis repetita : un problème d’alimentation électrique, puis une interruption de service plus large, sont annoncés pour la deuxième zone concernée aux EAU. Dans un nouveau point d’étape, publié mardi 3 mars vers 2 heures du matin (heure de Paris), AWS confirme que les deux sites concernés ont bien été touchés directement par des tirs, et conseille à ses clients qui opèrent des services dans la région de basculer, dans la mesure du possible, vers d’autres infrastructures.

Par ricochet, la troisième zone dont dispose AWS aux EAU souffre en effet de problèmes de disponibilité, et la plupart des services courants sont signalés comme hors service ou fortement dégradés sur toute la « région » correspondant aux Émirats (ME-CENTRAL-1), mais aussi à celle, voisine, de Bahreïn (ME-SOUTH-1). Parmi les trois zones que compte cette dernière, un site a en effet lui aussi subi les conséquences des bombardements, sans avoir été directement visé : « une frappe de drone à proximité de l’une de nos installations a causé des dommages matériels à notre infrastructure », décrit ainsi l’entreprise.

Rétablissement progressif des services

Suite à ces incidents, Amazon décrit un double chantier de remise en état, aussi bien matériel que logiciel, sans pouvoir s’avancer quant à un horizon temporel de retour à la normale :

« Dans les deux régions, les clients constatent une augmentation des taux d’erreur et une disponibilité réduite pour certains services, notamment Amazon EC2, Amazon S3, Amazon DynamoDB, AWS Lambda, Amazon Kinesis, Amazon CloudWatch, Amazon RDS, ainsi que la console de gestion et l’interface de ligne de commande AWS. Nous mettons tout en œuvre pour rétablir la disponibilité complète du service dans les plus brefs délais, mais nous prévoyons que la reprise sera longue compte tenu de l’ampleur des dégâts matériels. »

L’entreprise indique privilégier le rétablissement de services clés tels que S3 ou DynamoDB, qui sous-tendent le fonctionnement de ses infrastructures, et promet ensuite de mettre l’accent sur les outils de migration et d’export, afin que les clients des zones concernées puissent transférer leurs données et leurs charges de travail vers des environnements fonctionnels.

Elle invite par ailleurs ses clients opérant dans la région à anticiper les conséquences potentielles du conflit :

« Nous recommandons aux clients dont les charges de travail s’exécutent au Moyen-Orient d’envisager dès maintenant de sauvegarder leurs données et, le cas échéant, de migrer leurs charges de travail vers d’autres régions AWS. Nous leur conseillons de mettre en œuvre leurs plans de reprise d’activité, de restaurer leurs données à partir de sauvegardes distantes stockées dans d’autres régions et de mettre à jour leurs applications afin de rediriger le trafic hors des régions affectées. »

Neuf zones et trois régions au Moyen-Orient

AWS dispose pour mémoire de trois « régions » au Moyen-Orient, avec une présence sous forme d’infrastructures physiques à Bahreïn depuis 2019, étendue aux Émirats Arabes Unis en 2022 et à Israël en 2023, tandis qu’un lancement a été annoncé pour 2026 en Arabie Saoudite (sans plus de précision). Chacun des trois pays déjà ouverts dispose de trois « zones de disponibilité » (un ou plusieurs centres de données à part entière dotés d’une alimentation redondante et d’une connectivité propre). Aux Émirats Arabes Unis, les trois zones d’AWS se répartissent entre Abu Dhabi et Dubaï.

AWS revendique trois régions et neuf zones au Moyen-Orient, auxquelles doit s’ajouter l’Arabie Saoudite – capture d’écran, source
  •  

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

  •  

☕️ À Austin, les robotaxis de Tesla enregistrent quatre fois plus d’accidents que les humains


Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. 
Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.

Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Site de Tesla / Capture d’écran

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.

Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.

Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains. 


En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.

L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. 
Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.

À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.

  •  

☕️ Le CPU Intel Xeon 6+ (Clearwater Forest) avec 288 E-cores Darkmont arrivera ce semestre

Cela fait maintenant des mois qu’Intel parle de son futur Xeon 6 + avec 288 E-Cores. Il s’agit de cœurs CPU « efficaces » dans le sens efficacité énergétique, et donc moins performants que les P–Cores avec un P comme Performance. Les Xeon 6 actuels (Sierra Forest) ne dépassent pas les 144 cœurs (des E-Cores Crestmont). Une version avec 288 cœurs (une puce, deux dies) était annoncée, mais n’est jamais arrivée.

Quoi qu’il en soit, la relève est dans les starting-blocks avec les processeurs Xeon 6 + Clearwater Forest, qui monteront jusqu’à 288 E-Core Darkmont (et donc toujours autant de threads). Comme le rapporte Videocardz, Intel donne de plus amples détails à l’occasion du MWC de Barcelone.

Si cette annonce est faite durant le salon de Barcelone, c’est parce qu’Intel s’est trouvé un partenaire de choix – Ericsson, comme l’indique Computer Base – et en profite pour mettre en avant ses Xeon 6(+) pour les opérateurs de télécoms : « Basé sur le procédé Intel 18A et conçu pour une efficacité exceptionnelle, le Xeon 6 + offre aux opérateurs une plateforme qui fait évoluer les charges de travail de manière agressive, réduit la consommation d’énergie et permet des services réseau plus intelligents ».

Ils seront gravés avec la technologie maison 18A, celle utilisée pour la première fois sur les processeurs Core Ultra Series 3 (Panther Lake). Le TDP sera de 300 à 500 watts. Le processeur pourra être en configuration 1P ou 2P (un ou deux sockets sur la carte mère, soit jusqu’à 576 cœurs CPU), il prendra en charge 12 canaux de DDR5 à 8 000 MHz, 64 lignes CXL, 96 lignes PCIe, etc.

Au niveau de la conception, le processeur sera composé de douze tuiles, chacune avec six modules et quatre cœurs Darkmont par module, soit 288 cœurs : 4 (cœurs) x 6 (modules) x 12 (tuiles)= 288, le compte est bon.

Chaque module dispose de 4 Mo de mémoire cache L2, soit un total de 288 Mo de cache L2 sur la version 288 E-Cores, auxquels il faut ajouter 576 Mo de cache de dernier niveau (L3 ?). D’autres tuiles sont de la partie : trois de « Base » en Intel 3 (contrôleurs mémoire notamment) et deux autres « I/O » en Intel 7.

Les nouveaux Xeon 6 + sont attendus pour la première moitié de l’année 2026.

  •  

Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

Y’a-t-il un Copilot dans ton PC ?
Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

AMD vient d’annoncer trois processeurs, déclinés en douze références, pour les ordinateurs de bureau, avec les Ryzen AI 400 en AM5. Les CPU disposent d’un NPU de 50 TOPS leur permettant de prétendre à la certification Copilot+ PC de Microsoft. Ils seront disponibles à partir du deuxième trimestre 2026.

Au CES de Las Vegas en début d’année, AMD présentait ses « nouveautés », qui ressemblaient davantage à du réchauffé. Il y avait tout d’abord les Ryzen AI 400 pour les ordinateurs portables, mais qui n’étaient finalement que des Ryzen AI 300 avec parfois 100 MHz de plus en boost ou une partie graphique un peu améliorée.

Au MWC, des processeurs pour les ordinateurs de bureau

AMD profite du MWC de Barcelone (avec un M comme Mobile) pour annoncer de nouveaux Ryzen AI 400 pour… les ordinateurs de bureau. Trois processeurs sont disponibles, chacun décliné en quatre versions, soit douze références au total.

Nous avons les Ryzen AI 5 435G, AI 5 440G et AI 7 450G, avec un TDP de 64 watts. Viennent ensuite des versions « GE » avec un TDP de 35 watts. Nous sommes donc à six références. Doublez la mise avec des versions Pro de chaque processeur, nous sommes bien à 12. Comme leur nom l’indique, les déclinaisons « Pro » ont « des fonctions de sécurité et de gestion de niveau professionnel », mais exactement les mêmes caractéristiques techniques pour le reste.

Des cœurs Zen 5 exclusivement, contrairement au Ryzen AI 400 mobile

On pourrait penser que le Ryzen AI 5 435 (version mobile) et le Ryzen AI 5 435G ou 435GE sont très proches avec 6 cœurs et 12 threads dans les deux cas, mais ce n’est pas le cas. Il y a une différence fondamentale dans l’architecture des cœurs.

Le Ryzen AI 5 435 dispose de deux cœurs Zen 5 et de quatre cœurs Zen 5c allégés, tandis que les Ryzen AI 5 435G(E) ont six cœurs Zen 5. C’est la même chose sur le reste de la gamme, les nouveaux Ryzen AI 400 en AM5 proposent exclusivement des cœurs Zen 5. Pour rappel, sur mobile, AMD propose aussi des processeurs exclusivement en Zen 5 avec sa gamme Ryzen AI Max+.

NPU de 50 TOPS, mais iGPU 860M maximum

Quoi qu’il en soit, les nouveaux processeurs Ryzen AI 400 pour les ordinateurs de bureau disposent d’un NPU (architecture XDNA 2) de 50 TOPS, supérieur au seuil de 40 TOPS imposé par Microsoft pour obtenir la certification Copilot+ PC. Sur mobile, la puissance du NPU varie entre 50 et 60 TOPS.

Côté GPU intégré au processeur (iGPU), l’architecture RDNA 3.5 est dans tous les cas aux commandes. AMD assure par contre le service minimum avec une puce Radeon 860M pour le plus haut de gamme des processeurs et une Radeon 840M pour les deux autres. Sur les versions mobiles, AMD monte jusqu’à la Radeon 890M avec 16 cœurs GPU contre 8 pour la Radeon 860M.

AMD en garde certainement sous le pied pour de prochaines références à venir, avec douze cœurs PU par exemple. Selon l’entreprise, les premiers ordinateurs équipés des nouveaux processeurs arriveront au second trimestre de 2026.

  •  

Apple lance son iPhone 17e à partir de 719 euros

256 is the new 128
Apple lance son iPhone 17e à partir de 719 euros

Apple a ouvert le bal des nombreuses annonces produit attendues cette semaine avec le lancement de l’iPhone 17e, son nouveau modèle d’entrée de gamme, positionné à 719 euros en version 256 Go et 969 euros dans sa déclinaison 512 Go.

Apple n’a finalement pas attendu sa conférence de presse du 4 mars prochain pour dévoiler ses premières nouveautés. Alors que le Mobile World Congress ouvre ses portes à Barcelone, la firme de Cupertino a en effet ouvert lundi les précommandes pour le nouveau smartphone qui constitue désormais son entrée de gamme, l’iPhone 17e.

Les lignes sont similaires à celles de l’iPhone 16e présenté il y a tout juste un an, avec un écran 6,1 pouces (2 532 x 1 170 pixels à 460 ppp), un châssis décliné en trois coloris, et un unique capteur photo sur le dos de l’appareil. Comme sur l’iPhone 17, la face avant est désormais protégée par un revêtement Ceramic Shield 2 qui atténuerait les reflets et offrirait surtout « une résistance aux rayures 3x supé­rieure à celle de l’iPhone 16e ».

Une puce A19 amputée d’un cœur GPU

Doté d’un cadre en aluminium, l’iPhone 17e est animé par une puce A19, similaire donc à celle qui anime l’iPhone 17… à une petite différence près : la partie GPU, dotée de cinq cœurs sur l’A19 de l’iPhone 17, passe ici à seulement quatre cœurs, enrichis d’accélérateurs neuronaux qui complètent l’action du NPU 16 coeurs intégré.

Apple intègre également à son dernier né le modem C1X inauguré avec l’iPhone Air, qui promet des performances « deux fois plus rapides » que celles du modem C1 de l’iPhone 16e. Dans les faits, le nouveau venu (dépourvu de puce UWB) offre le même niveau de prise en charge que son prédécesseur, et reste donc cantonné au Wi-Fi 6 et au Bluetooth 5.3, là où l’iPhone 17 adopte Wi-Fi 7 et Bluetooth 6.

Sur la partie photo, pas de réel changement par rapport au 16e : Apple conserve son capteur principal à 48 mégapixels (avec vidéo jusqu’en 4K à 60 images par seconde), associé à un zoom optique x2, et positionne une caméra TrueDepth 12 mpx en face avant.

Recharge sans fil MagSafe jusqu’à 15W

Toujours compatible Apple Intelligence, l’iPhone 17e inaugure en revanche la recharge sans fil MagSafe jusqu’à 15W, là où le 16e se limitait à la recharge sans fil Qi jusqu’à 7,5W. Apple profite sans surprise de l’occasion pour sortir de nouveaux accessoires dédiés.

Côté mensurations, l’iPhone 17e est donné pour 7,8 mm d’épaisseur, et 170 grammes sur la balance. Des proportions identiques à celles du 16e (qui pèse trois grammes de moins) et légèrement mieux-disantes que celles de l’iPhone 17 (7,95 mm d’épaisseur, 177 grammes). Apple affiche une autonomie de 26 heures en lecture vidéo pour ce 17e.

Apple indique que les précommandes de l’iPhone 17e ouvriront mercredi 4 mars à 15h15, pour une disponibilité en magasin programmée au 11 mars. Trois coloris (rose, blanc, noir) et deux capacités sont proposés. Mise à prix : 719 euros pour la version 256 Go et 969 pour un modèle 512 Go. On pourra consulter la fiche produit, ou le module de comparaison de modèles pour affiner l’étude des caractéristiques.

  •  

☕️ [Linux] sudo-rs affiche maintenant des * par défaut quand on tape son mot de passe

Jusque-là, la fonction « magique » pour passer en mode super-utilisateur sur de nombreuses distributions Linux (sudo) n’affichait rien quand on tapait son mot de passe. L’utilisateur n’avait donc aucun retour sur le fait que la saisie d’une touche avait été prise en compte ou pas.

Mais les contributeurs qui maintiennent le code de sudo-rs (implémentation reprenant les fonctionnalités sudo et su écrites en Rust et visant à être plus fiable) ont décidé de changer le comportement par défaut de leur outil. Ainsi, depuis la dernière version de sudo-rs (0.2.12), l’option pwfeedback est maintenant activée par défaut et des astérisques s’affichent à chaque fois que l’utilisateur tape un caractère de son mot de passe.

« Cela résout un problème majeur d’UX pour les nouveaux utilisateurs. La sécurité est théoriquement moins bonne, car la longueur des mots de passe est visible par les personnes qui regardent votre écran, mais cet inconvénient est infinitésimal et largement compensé par l’amélioration de l’UX. En dehors de sudo/login, aucune autre interface de saisie de mot de passe n’omet les astérisques (y compris les autres sur Linux) », est-il expliqué dans le commit du changement.

Comme l’a repéré Phoronix, ce changement vient d’une demande d’un utilisateur faite en octobre dernier qui argumentait longuement dans ce sens.

Tous les utilisateurs ne sont pas contents de ce changement et ainsi l’un d’entre eux l’a signalé comme un bug, signalement dont le statut a été classé en « ne sera pas corrigé ».

  •  
❌