Vue normale

Reçu — 13 mars 2026 Next - Articles gratuits

Les autorités démantèlent Socksescort et son réseau proxy de modems infectés

13 mars 2026 à 07:51
Sucksescort
Les autorités démantèlent Socksescort et son réseau proxy de modems infectés

Basé sur plus d’un million de modems infectés par le malware AVRecon, le réseau de proxy Socksescort a été démantelé mercredi à l’issue d’une opération conjointe des autorités, en Europe comme aux États-Unis. Socksescort, qui proposait à la location des adresses IP résidentielles, aurait permis de générer plus de 5 millions d’euros de chiffre d’affaires, blanchis au travers du processeur de paiement crypto Bitsidy, lui aussi saisi.

Qu’il s’agisse de contourner un blocage géographique, gruger les systèmes antispam des sites de recommandation ou envoyer des emails en masse, le réseau Socksescort promettait l’accès par proxy SOCKS5 à un vaste réseau d’adresses IP résidentielles.

« Toutes nos adresses IP sont statiques et durables », affirmait le site, qui revendiquait un stock permanent de plusieurs dizaines de milliers de points de terminaison, répartis dans le monde entier.

Un réseau de modems infectés, les box épargnées

Le service était bien sûr proposé contre espèces sonnantes et trébuchantes : à partir de 15 dollars par mois pour 30 proxies, avec des tarifs dégressifs pour les utilisations en volume ou les engagements de durée, et un paiement possible dans les cryptomonnaies les plus courantes.

Actif depuis 2021 sous sa forme actuelle, Socksescort affiche depuis le 11 mars un bandeau d’information aux couleurs d’Europol, du FBI et des forces de police de plusieurs pays européens, dont la France. Le site a en effet l’objet d’une « action coordonnée » qui a mené à la saisie de 23 serveurs dans sept pays, et à sa mise hors ligne.

Socksescort et Bitsidy affichent un bandeau annonçant la saisie des serveurs et l’opération de police associée

L’enquête préalable avait quant à elle permis de mettre au jour le fonctionnement de Socksescort, qui « s’adossait en réalité sur 1 million de modems dans le monde infectés par le malware AVRecon », selon un communiqué (PDF) signé par Laure Beccuau, procureure de Paris.

« Ce malware, qui sévissait depuis 2019, infectait les modems appartenant à des particuliers ou des organisations et les plaçaient sous le contrôle de Socksescort.com. Les machines infectées devenaient ainsi à l’insu de leur légitime propriétaires des relais de trafic pour les clients de Socksescort.com », décrit encore le Parquet.

L’affaire éveillera peut-être chez certains des échos du malware Mirai, qui avait défrayé la chronique en 2016 en infectant plusieurs centaines de milliers de modems routeurs fournis par Deutsche Telekom à ses clients.

D’après le FBI (PDF), AVRecon ciblait environ 1 200 modèles de modems et routeurs fournis par des acteurs tels que « Cisco, D-Link, Hikvision, MikroTik, Netgear, TP-Link, et Zyxel ».

Publiée par le FBI, cette liste représente les 20 modèles les plus fréquemment touchés par le malware AVrecon

Une infrastructure partiellement basée en France

La France n’était que faiblement représentée dans l’architecture du réseau Socksescort, probablement en raison de la très forte représentation des « box » opérateurs : « Le 4 mars 2026, la société affichait sur son site web qu’elle disposait de 35 915 proxys dans 102 pays, dont 454 en France, 14 720 aux USA, 5 317 au Royaume-Unis, 695 en Italie ».

Une partie de l’infrastructure identifiée lors de l’enquête se situait toutefois en France, ce qui explique que le parquet de Paris ait ouvert une enquête préliminaire, confiée à l’Office français anti cybercriminalité (OFAC) dès 2024.

C’est a priori des États-Unis qu’est partie l’enquête, en raison de suspicions de fraudes et d’arnaques réalisées au travers du service.

« Des cybercriminels ont utilisé l’accès acheté sur Socksescort pour dissimuler leurs véritables adresses IP et localisations, facilitant ainsi des fraudes telles que le piratage de comptes bancaires et de cryptomonnaies américains et des demandes d’allocations chômage frauduleuses », décrivent les autorités états-uniennes, qui ont par ailleurs saisi l’équivalent de 3,5 millions de dollars en cryptomonnaies lors du coup de filet.

Blanchiment en crypto

Les autorités ont dans le même temps saisi et mis hors ligne la plateforme de paiement en cryptomonnaies Bitsidy, administrée par la même équipe selon le parquet de Paris :

« L’enquête a également établi que la plateforme de paiement Bitsidy.com était administrée par les mêmes personnes que le service de proxy et que cette plateforme a perçu plus de 5 millions d’euros des clients de socksescort.com. »

Relativement confidentiel, Bitsidy se positionnait comme un processeur de paiement destiné aux e-commerçants désireux d’autoriser le paiement en cryptomonnaies sur leur site marchand.

☕️ Chrome sera bientôt disponible pour Linux sur Arm

13 mars 2026 à 07:08


Google vient (enfin) d’annoncer la disponibilité prochaine de Chrome sur les machines Linux équipées d’un processeur Arm. La date exacte n’a pas été communiquée mais les binaires correspondants sont attendus pour le courant du deuxième trimestre, ce qui laisse augurer une publication dans les prochaines semaines.

Le moteur de recherche complète ainsi sa couverture du marché des ordinateurs à processeur Arm, après la publication d’une version compatible pour macOS en 2020, puis de sa déclinaison Windows début 2024.

« Cette initiative répond à la demande croissante d’une expérience de navigation qui combine les avantages du projet open-source Chromium avec l’écosystème d’applications et de fonctionnalités de Google », commente l’entreprise, qui promet un accès complet à l’éventail d’outils et de services associés à son navigateur.

Logo de Google Chrome
Logo Chrome

Google profite de l’occasion pour annoncer un partenariat avec NVIDIA autour du DGX Spark, son calculateur en forme de mini PC dédié à l’IA. La machine, annoncée en 2025, devrait ainsi offrir une option pour « faciliter l’installation » de Chrome.

« Ce lancement marque une étape majeure dans notre engagement envers la communauté Linux et l’écosystème Arm. Nous avons hâte de voir comment les développeurs et les utilisateurs avancés exploiteront Chrome sur cette nouvelle génération d’appareils hautes performances », conclut Google.

Faut-il voir dans cet appel final un signe précurseur des annonces attendues la semaine prochaine à l’occasion de la NVIDIA GTC (GPU Technology Conference) ? Courant février, les dernières fuites laissaient entendre que la firme au caméléon prévoyait d’y présenter les puces N1 et N1X, des puces tout-en-un associant cœurs ARM et GPU de classe Blackwell visant précisément à pénétrer le marché des PC.

Reçu — 12 mars 2026 Next - Articles gratuits

☕️ Apple patche la faille Coruna sur les anciennes versions d’iOS

12 mars 2026 à 07:50


Apple a mis en ligne le 11 mars une mise à jour destinée aux terminaux (iPhone ou iPad) bloqués sous les versions 15 ou 16 de son environnement mobile. Les quatre versions distribuées (iOS 15.8.7 ou iPadOS 15.8.7, iOS 16.7.15 ou iPadOS 16.7.15) interviennent principalement pour combler la vulnérabilité dite Coruna, récemment découverte par des chercheurs de Google.

La gamme des appareils concernés comprend l’iPhone 8, l’iPhone 8 Plus, l’iPhone X, l’iPad 5e génération, l’iPad Pro 9,7 pouces et le premier iPad Pro 12,9 pouces pour iOS et iPadOS 16.7.5. La mise à jour iOS et iPadOS 15.8.7 concerne quant à elle les iPhone 6 s, 7 et SE première génération ainsi que les iPad Air 2 et mini 4 sans oublier l’iPod Touch 7.

La rustine s’applique au niveau de webkit, au sein duquel l’exposition à un contenu malveillant était susceptible d’entraîner une corruption de la mémoire, décrit Apple.

Notes de version Apple du 11 mars 2026 en réponse à la faille CVE-2023-43010 – capture d’écran

« Ce correctif, lié à la faille Coruna, a été intégré à iOS 17.2 le 11 décembre 2023. Cette mise à jour apporte ce correctif aux appareils ne pouvant pas être mis à jour vers la dernière version d’iOS », indiquent les notes de version.

Le nom Coruna désigne plus précisément un logiciel malveillant récemment découvert. Reposant sur pas moins de cinq chaînes d’exploitation iOS complètes et un total de 23 exploits iOS, il a déjà été mis en œuvre dans plusieurs cyberattaques, et son histoire, à lire sur Next, implique à la fois la NSA, le renseignement russe et des scammers chinois.

Reçu — 11 mars 2026 Next - Articles gratuits

☕️ Cybersécurité : Google finalise l’acquisition de Wiz

11 mars 2026 à 13:58


Cette fois, c’est la bonne : Google a annoncé mercredi 11 mars avoir finalisé l’acquisition de Wiz, la startup israélo-américaine spécialisée dans la cybersécurité dont il a initié le rachat au printemps 2025, après plusieurs mois de tractation.

Comme souvent dans ce genre d’opérations de grande envergure (la transaction portait sur un montant de 32 milliards de dollars), le processus était figé dans l’attente des indispensables validations réglementaires.

Du côté de la Commission européenne, le viatique a finalement été prononcé le 10 février dernier, Bruxelles ayant estimé que ni Google Cloud Platform, ni Wiz n’occupait une position suffisamment prépondérante sur le marché pour que l’union des deux entraine une distorsion de concurrence.

« Google se situe derrière Amazon et Microsoft en termes de parts de marché dans l’infrastructure cloud, et notre évaluation a confirmé que les clients continueront de disposer d’alternatives crédibles et de la possibilité de changer de fournisseur », commente Teresa Ribera, commissaire européenne à la Concurrence.

Google, qui s’était déjà offert Mandiant dans le secteur en 2022, affirme que l’association de ses propres outils à la plateforme de Wiz offre une solution de premier plan pour sécuriser les environnements cloud, particulièrement à l’heure de l’IA. L’ensemble permettrait notamment de « garder une longueur d’avance en détectant les menaces émergentes créées par des modèles d’IA, en se protégeant contre les menaces ciblant ces modèles et en utilisant ces derniers pour aider les professionnels de la sécurité à traquer les menaces plus efficacement ».

Google finalise le rachat de Wiz, acté en mars 2025 – crédit Google

Wiz ne se fond cependant pas dans l’offre GCP. « Wiz demeure une plateforme multicloud. Aujourd’hui, nous collaborons avec la plupart des entreprises du Fortune 100 et la majorité des laboratoires d’IA de pointe, ainsi qu’avec de nombreuses entreprises cloud-native parmi les plus dynamiques au monde. Nos clients utilisent AWS, Azure, GCP et OCI. Notre objectif est de protéger l’intégralité de leur environnement : chaque charge de travail, chaque application et chaque cloud majeur », promet ainsi Assaf Rappaport, CEO et cofondateur de Wiz.

Dans son propre billet sur l’événement, Wiz souligne de son côté quelques faits d’armes récents avec, entre autres découvertes réalisées en 2025, les vulnérabilités inhérentes à Moltbook (tout juste racheté par Meta), la découverte préventive d’une faille dans CodeBuild qui aurait pu compromettre les référentiels GitHub d’AWS (épisode CodeBreach, début 2025), ou la fameuse vulnérabilité dite Redishell, découverte dans Redis en octobre dernier et créditée d’une sévérité CVSS de 10.

☕️ Paris sportifs suspects : Polymarket s’associe à Palantir et TWG AI

11 mars 2026 à 11:21


Interdit en France, le site dédié aux paris sur l’actualité Polymarket a déjà montré qu’il soulevait des risques en matière de délits d’initiés, notamment quand un internaute bien informé a remporté 430 000 dollars en pariant, pile au bon moment, sur la chute de Maduro au Venezuela.

Conscient que ce risque est susceptible d’entraver son développement commercial dans le monde des jeux d’argent en ligne, alors même que des voix s’élèvent aux États-Unis pour interroger son impact sur la vie publique, Polymarket a entrepris de s’outiller pour surveiller en temps réel les flux de paris et mettre en place des « contrôles d’intégrité ».

Pour ce faire, Shayne Coplan, cofondateur et CEO de Polymarket, a choisi de se tourner vers Palantir, le géant de l’analyse de données cofondé par Peter Thiel et Alex Karp, très lié au monde du renseignement (y compris en France) et à l’administration Trump.

Dans un communiqué daté du 10 mars, Polymarket explique vouloir mettre en œuvre Vergence AI, une plateforme d’analyse décisionnelle codéveloppée par Palantir et TWG AI, éditeur de solutions décisionnelles, pour garantir aux ligues et aux équipes sportives que les paris en ligne enregistrés sur sa plateforme ne risquent pas de saper la confiance du public.

Polymarket permet de parier sur une infinité d’événements, du résultat de rencontres sportives à la date possible de cesser-le-feu entre l’Iran et les États-Unis – capture d’écran

Pour éviter, par exemple, qu’un athlète parie sur le résultat d’une rencontre dont il pourrait influencer l’issue, cette plateforme fournira à Polymarket la possibilité de « surveiller l’intégrité des opérations pré-pari et post-pari, à travers le flux d’ordres, les données d’exécution et l’activité de règlement ». Elle opèrera également des modèles prédictifs chargés de détecter les comportements suspects, les initiés, ou les manœuvres coordonnées.

Elle est enfin censée permettre à Polymarket d’automatiser la production des alertes, documentations et rapports de supervision nécessaires à des fins de conformité réglementaire.

« Notre partenariat établit une nouvelle norme pour les marchés de prédiction, et nous sommes ravis d’être au cœur de cette transformation », se réjouit Alex Karp, dont l’acolyte Peter Thiel fait partie des investisseurs historiques de Polymarket.

☕️ Interpellée par le logiciel libre, Bruxelles ajoute un ODS à sa consultation Cybersécurité

11 mars 2026 à 07:42


Il n’y a pas de petite victoire. La Document Foundation, qui pilote le développement de la suite bureautique libre et gratuite LibreOffice, s’est félicitée mardi 10 mars d’avoir obtenu gain de cause en 24 heures auprès de la Commission européenne.

Elle réclamait l’ajout d’un modèle de document au format ODS (feuille de calcul de format OpenDocument) en parallèle du modèle XLSX (format propriétaire Microsoft basé sur OpenXML) proposé par défaut dans le cadre de la consultation ouverte par Bruxelles sur le futur Cyber Resilience Act (CRA, règlement sur la cybersécurité).

« Il s’agit d’une première étape importante vers l’interopérabilité que les formats propriétaires ne permettent pas, et qu’ils cherchent même à limiter en rendant les formats DOCX, XLSX et PPTX de plus en plus différents d’une norme par l’ajout de complexités inutiles », écrit la Document Foundation, selon qui Microsoft entretient une impression fallacieuse d’ouverture en ayant réussi à faire d’Office Open XML (OOXML) une norme ISO, mais en implémentant une version différente dans ses logiciels.

« À tous ceux qui persistent à considérer OOXML comme une norme du simple fait de son approbation par l’ISO, et à tous les logiciels qui prennent en charge OOXML en l’utilisant comme format par défaut, nous vous rappelons que vous allez à l’encontre non seulement de vos propres intérêts, mais aussi de ceux de tous les citoyens du monde, et en premier lieu des citoyens européens. »

La fondation résumait ses arguments dans sa demande initiale à la DG Connect, la direction de Bruxelles chargée de la consultation sur le CRA, publiée le 5 mars dernier.

Rappelons que le projet LibreOffice et l’Open Document Format ont respectivement fêté leurs 15 ans et leurs 20 ans en 2025. Bien que Microsoft continue de régner en maitre sur la bureautique, l’ODF a remporté quelques succès notables. Il est ainsi le format de document par défaut dans certaines administrations, dont l’OTAN, le Brésil, l’Inde ou encore l’Afrique du Sud. En France, le référentiel général d’interopérabilité préconise également l’ODF dans les administrations.

Les fichiers de la consultation comportent désormais une version ODS du modèle de contribution – capture d’écran

Reçu — 10 mars 2026 Next - Articles gratuits

☕️ Meta met la main sur Moltbook, le réseau social dédié aux agents IA

10 mars 2026 à 16:19


Meta a confirmé mardi 10 mars l’acquisition de Moltbook, le simili Reddit dédié aux agents IA qui avait défrayé la chronique en début d’année, dans la foulée du lancement d’OpenClaw. Révélée par Axios, la transaction a été confirmée par un porte-parole du groupe.

Il précise que l’équipe de Moltbook, principalement constituée de ses deux fondateurs, rejoindra Meta Superintelligence Labs, la division dédiée aux projets d’intelligence artificielle du groupe :

« Leur approche, qui consiste à connecter les agents via un annuaire toujours disponible, représente une avancée novatrice dans un secteur en pleine expansion, et nous sommes impatients de collaborer avec eux afin d’offrir à tous des expériences d’agent innovantes et sécurisées. »

L’allusion explicite à la sécurité fera certainement sourire certains observateurs : notre analyse du phénomène Moltbook, début février, soulignait à quel point la plateforme, au-delà de la curiosité légitime qu’elle suscite, présentait des risques sérieux en matière de cybersécurité.

Moltbook selon Flock pour sa chronique hebdomadaire sur Next

Avant Moltbook, il y a pour mémoire OpenClaw (ex Clawdbot), un agent IA que l’utilisateur peut installer en local, sur sa machine, et connecter au modèle de son choix (Claude, ChatGPT, etc.) ainsi qu’à ses canaux de communication de prédilection (WhatsApp, Discord, etc.), pour ensuite lui confier l’exécution de missions en toute autonomie.

Lancé en novembre 2025 et devenu très rapidement un véritable phénomène sur GitHub, OpenClaw a suscité la convoitise d’OpenAI qui a proposé un pont d’or pour recruter son créateur mi-février, mais assure que le projet restera open source.

Apparu dans la foulée d’OpenClaw, Moltbook se présente pour sa part comme un réseau social où les agents IA (autrement dit, des instances OpenClaw exécutées sur les machines d’internautes) sont censés pouvoir discuter entre eux, pendant que les humains les observent.

☕️ Claude lance Code Review, un outil de luxe pour faciliter la relecture de code

10 mars 2026 à 15:22


Créer le problème pour ensuite vendre la solution : de façon probablement non intentionnelle, Anthropic vient de faire sien l’un des principes de base du marketing. L’entreprise a en effet annoncé lundi 9 mars le lancement d’un nouvel outil, pour l’instant limité aux clients des plans Teams et Entreprise : Claude Code Review, un ensemble d’agents IA dédiés à la relecture du code.

Elle explique avoir développé cette nouvelle brique de son offre en raison d’un problème auquel elle a été directement confrontée : la quantité de code produite par chacun de ses ingénieurs aurait augmenté de 200 % en 2025, et ce gain de productivité généralisé se traduirait par un goulet d’étranglement au niveau de l’étape de la relecture de code (code review), c’est-à-dire l’étape à laquelle une pull request (PR) est relue avant d’être fusionnée au niveau d’un dépôt.

L’outil tournerait déjà en interne :

« Chez Anthropic, Code Review tourne sur presque toutes les PR. Auparavant, seulement 16 % d’entre elles recevaient des commentaires de relecture pertinents. Ce taux atteint désormais 54 %. Le système n’approuve pas les PR – la décision finale revient toujours à un humain – mais il comble les lacunes pour que les relecteurs puissent réellement se concentrer sur les modifications déployées ».

Anthropic

En pratique, Code Review prendrait la forme non pas d’une instance unique, mais d’une multitude d’agents chargés d’examiner en parallèle le code à la recherche de bugs. Anthropic revendique, sur la base de ses usages internes, une efficacité supérieure à 99 % (moins de 1 % des retours formulés par Code Review seraient considérés comme incorrects).

Anthropic ne rentre pas dans le détail du degré de précision des agents mis en œuvre ou de la façon dont la relecture de code est parallélisée. « Chaque agent recherche un type de problème différent, puis une étape de vérification compare les candidats au comportement réel du code afin d’éliminer les faux positifs. Les résultats sont dédupliqués, classés par ordre de gravité et affichés sous forme de commentaires directement sur les lignes de code concernées. », explique simplement l’entreprise.

Réalisée sur ses infrastructures, la relecture de code se révèle logiquement gourmande en ressources. Sur ce point, Anthropic évoque un coût unitaire de l’ordre de 15 à 25 dollars par relecture de PR, en précisant que ce dernier est bien sûr proportionnel à la taille et à la complexité de l’échantillon soumis à examen. L’entreprise propose donc aux administrateurs de piloter le déploiement de Code Review auprès de leurs équipes soit à partir d’un quota mensuel (distribué à tous), soit en autorisant l’accès à l’échelle du dépôt.

Résultats par IA : Qwant teste un partage de revenus avec des éditeurs de presse

10 mars 2026 à 09:00

Résultats par IA : Qwant teste un partage de revenus avec des éditeurs de presse

Le moteur de recherche Qwant annonce l’ouverture d’une expérimentation de neuf mois visant à établir les bases d’un modèle de partage de revenus avec les éditeurs de presse dans le cadre des réponses générées par IA, alors que Google retarde toujours le lancement en France de sa fonction AI Overviews.

Qwant montre patte blanche avec le secteur des médias. Le moteur de recherche français, désormais développé conjointement avec Ecosia et Lilo au sein d’une entreprise détenue par Octave Klaba (OVHcloud) annonce mardi la mise en place d’une expérimentation visant à élaborer les modalités de partage de revenus associés à la réponse flash, le module généré par IA grâce auquel Qwant essaie de répondre directement aux requêtes de l’internaute (en lui évitant donc d’avoir à se rendre sur un site tiers).

Qwant signe avec un large panel de médias

Cette expérimentation, programmée pour neuf mois, prévoit selon Qwant « un partage des informations liées à l’usage de la fonctionnalité, ainsi qu’un modèle de partage des revenus publicitaires générés dans cet espace, fondé sur un principe de répartition équitable entre Qwant et les éditeurs participants ». Le moteur précise que pour cette première phase, c’est le principe d’un partage à égalité qui a été retenu, et indique que différents formats publicitaires seront testés.

Qwant va dans le même temps proposer aux médias partenaires d’intégrer sa réponse flash sur leur propre site. « Cette approche vise à tester, dans des conditions réelles d’usage, l’intégration de la Réponse Flash au sein des plateformes des médias, ainsi que les modalités de suivi des performances et de partage des revenus associés, dans un cadre défini avec chaque éditeur », décrit le moteur, selon qui ces travaux préparatoires sont indispensables pour accompagner les nouveaux usages en matière de recherche en ligne.

Qwant, qui a récemment conclu un accord de droits voisins avec l’Alliance de la presse d’information générale, a monté cette expérimentation par l’entremise de cette dernière, ainsi que par celle du Groupement des éditeurs de services en ligne (Geste), ce qui lui permet d’afficher une longue liste de médias partenaires, des titres du groupe Ebra à France Médias Monde en passant par L’Équipe, Les Échos, Le Parisien, RMC, BFM, Ouest France ou L’Express.

Ce faisant, l’entreprise s’affranchit du reproche formulé par de nombreux médias à l’encontre d’acteurs comme OpenAI ou Perplexity, qui ont préféré signer des contrats ad hoc avec quelques médias précis (principalement Le Monde) plutôt que de chercher à collaborer avec un large panel d’acteurs.

Des réponses flash sur une partie des requêtes

Qwant, rapproché d’Ecosia au sein d’une structure commune depuis 2024, cherche à faire oublier l’ère des résultats exclusivement générés par Bing en développant son propre « index de recherche européen », qui a fait ses débuts en production au printemps 2025, et doit à terme traiter l’essentiel des requêtes des internautes. À ce stade, Qwant ne communique pas sur le volume de cet index, ou sur sa représentation au sein des pages de résultats.

L’entreprise ne fait en revanche pas mystère de son intérêt pour l’IA générative. Elle a d’abord fait l’objet d’un premier pilote baptisé « Qwant Next », qui prenait la forme d’une interface de type chatbot, avec un système de conversation, des requêtes en langage naturel et des résultats issus des outils de recherche maison.

« Aujourd’hui, l’utilisateur va soit sur un moteur de recherche, soit sur ChatGPT, on pense que ces deux univers vont élargir leur spectre, et que ça correspond à une nouvelle façon de chercher. Nous ne sommes d’ailleurs pas les seuls, c’est par exemple la direction prise par Perplexity », nous expliquait à l’époque Olivier Abecassis.

Un an plus tard, le chatbot est intégré sous forme d’option au moteur de recherche. Rebaptisé Chat IA, il n’est plus proposé dès la page d’accueil, mais on peut l’activer depuis la page de résultats, pour prolonger par exemple la requête initiale, ou lancer une nouvelle conversation.

En parallèle, Qwant propose donc ces fameuses réponses Flash, qui prennent la forme d’un bloc dédié à une réponse générée par IA à la requête de l’internaute, avec un texte de quelques lignes, quelques mentions des sites Web ayant servi de source à la réponse, et sur certaines requêtes, un lien sponsorisé dédié à la monétisation. Ce sont ces liens sponsorisés (ou autres formats publicitaires à venir) qui donneront lieu au partage de revenus promis avec les éditeurs, pour compenser l’éventuelle perte de trafic associée à la réponse flash.

Exemple de réponse flash générée par Qwant – capture d’écran

Qwant affirme que la recherche est gérée par ses propres services tandis que la génération de la réponse est opérée par les modèles de Mistral. Au printemps 2025, au sujet des recours fréquents à un LLM, Olivier Abecassis affirmait déjà « Il y avait un coût qu’on a largement optimisé, aujourd’hui on sait l’absorber. »

Si les coûts sont maitrisés, reste à voir quel est le potentiel réel des réponses flash de Qwant en matière de chiffre d’affaires publicitaire, et donc de rétrocession aux médias partenaires dont les contenus auront pu être exploités. Le moteur de recherche, hébergé dans sa nouvelle structure European Search Perspective, ne communique ni chiffre d’affaires, ni volume d’audience, mais sa fréquentation reste anecdotique comparée à celle de Google, leader incontesté sur le marché français.

Google temporise le lancement de ses Aperçus IA

Cette expérimentation intervient alors que la France fait figure de pierre dans le jardin de Google autour de son propre service de réponses générées automatiquement, AI Overviews (Aperçus IA ou Résumés IA en français). Disponible de longue date aux États-Unis, ce dernier a été lancé à l’international dans 110 pays, dont la majorité du continent européen… à l’exception notable de l’Hexagone.

Échaudée par les longues batailles autour des droits voisins, la firme de Mountain View sait en effet qu’elle s’expose à une levée de boucliers de la part des éditeurs de presse, qui alertent depuis des mois sur les conséquences négatives potentielles en matière de perte d’audience, et donc de chiffre d’affaires.

Outre-Atlantique, plusieurs grands médias ont déjà signalé des baisses significatives du trafic entrant en provenance de la recherche Google sur leurs sites. Google de son côté défend l’idée que les résumés IA améliorent le service rendu à l’internaute, et que ce faisant, l’audience et les revenus publicitaires qu’ils génèrent sont nettement mieux qualifiés, dont plus rémunérateurs pour les éditeurs.

La promesse ne fait pas précisément consensus. Attaquée devant la Commission européenne par un réseau d’éditeurs indépendants, et régulièrement incriminée pour ses hallucinations ou ses résumés trompeurs, AI Overviews vient d’être mis en cause comme l’une des causes de la chute d’audience enregistrée par les principaux médias en ligne de la scène tech aux États-Unis.

AMI Labs : Yann LeCun lève 890 M€ pour créer des IA qui comprennent le monde réel

10 mars 2026 à 06:59
Touch me until i get my satisfaction
AMI Labs : Yann LeCun lève 890 M€ pour créer des IA qui comprennent le monde réel

Yann LeCun a confirmé mardi le coup d’envoi officiel de sa société AMI Labs et révèle avoir les moyens de ses ambitions : à peine constituée, la startup annonce avoir levé 890 millions d’euros, auprès d’un large panel d’investisseurs français et internationaux, et se lance à Paris, Montréal, New York, et Singapour.

Depuis son départ de Meta, Yann LeCun répète à qui veut l’entendre que l’intelligence artificielle générale, celle qui égalerait les capacités humaines, proviendra non pas de la maitrise du langage, mais de l’appréhension et de la compréhension du monde physique. Il va désormais avoir l’occasion de développer cette approche : mardi, le prix Turing 2018 et ancien responsable des laboratoires IA de Meta a en effet donné le coup d’envoi officiel de sa nouvelle startup, Advanced Machine Intelligence (AMI ou AMI Labs), et quelques bonnes fées se sont penchées sur le berceau de cette dernière.

1 milliard de dollars levés avant même le lancement

Les rumeurs d’une levée de fonds significative circulaient depuis mi-décembre. Le tour de table se révèle finalement bien supérieur aux hypothèses envisagées : à 65 ans, LeCun peut se targuer d’avoir réuni 1,03 milliard de dollars, soit environ 890 millions d’euros, auprès d’un contingent d’investisseurs venus du monde entier.

Le tour de table est emmené par les fonds Cathay Innovation, Greycroft, Hiro Capital, HV Capital, et Bezos Expeditions, mais il associe également, entre autres et de façon non exhaustive, Toyota Ventures, New Legacy Ventures, Temasek (fonds souverain de Singapour), SBVA (Softbank), NVIDIA, Mark Cuban (juré de l’émission Shark Tank), Sea, et Alpha Intelligence Capital.

En France, AMI fédère l’Association Familiale Mulliez (Auchan), le groupe industriel Marcel Dassault, Artémis (famille Pinault), Aglaé (famille Arnault), Xavier Niel, Publicis Groupe, Bpifrance Digital Venture, le fonds startup de CMA-CGM. Pour faire bonne mesure, Eric Schmidt, et le couple Berners-Lee figurent aussi au rang des soutiens.

La levée de fonds se fait sur la base d’une valorisation de 3,5 milliards de dollars, soit 3 milliards d’euros.

Page d’accueil du site AMI – capture d’écran

Des bureaux à Paris, Montréal, New York et Singapour

Déjà évoqués, les noms de Laurent Solly, ex-directeur de Meta France et d’Alexandre Lebrun, cofondateur de la start-up d’IA générative en santé Nabla, sont confirmés. Le premier devrait assurer des fonctions opérationnelles (COO) tandis que le second assurera la direction de l’entreprise. La direction scientifique est confiée à Saining Xie (passé par Google DeepMind) tandis que deux autres anciens de Meta complètent l’équipe : Michael Rabbat prendra en charge les architectures de world models et Pascale Fung pilotera la recherche.

Pour accompagner ce premier cercle, AMI ouvre des postes, et se dote pour ce faire de quatre bureaux sur trois continents, à Paris (siège social), Montréal, New York et Singapour.

« Nous construisons une nouvelle génération de systèmes d’IA qui (1) comprennent le monde réel, (2) ont une mémoire persistante, (3) peuvent raisonner et planifier, et (4) sont contrôlables et sûrs », promet l’entreprise, qui recrute à la fois des chercheurs et des ingénieurs :

« Vous travaillerez au sein d’une équipe sur des projets de recherche en modélisation du monde, notamment :
– Méthodes d’apprentissage auto-supervisé pour un apprentissage efficace à partir de vidéos et d’autres signaux continus de grande dimension
– Nouvelles architectures permettant de prédire efficacement la dynamique du monde à partir de vidéos et d’autres signaux de grande dimension
– Algorithmes évolutifs pour le prétraitement et l’organisation des données vidéo
– Évaluations pour l’analyse comparative de la compréhension, de la prédiction et de la planification des modèles du monde
– Algorithmes efficaces pour la planification et le raisonnement basés sur des modèles
 ».

Des agents capables de comprendre la vie réelle

Alors qu’OpenClaw, Claude Cowork et consorts illustrent le potentiel de l’automatisation par l’IA, AMI revendique une approche nettement plus ambitieuse, parce qu’ancrée dans le monde physique et donc la vie réelle :

« Les modèles du monde conditionnés par l’action permettent aux systèmes multi-agents de prédire les conséquences de leurs actions et de planifier des séquences d’actions pour accomplir une tâche, tout en respectant les mécanismes de sécurité. AMI fera progresser la recherche en IA et développera des applications où la fiabilité, la contrôlabilité et la sécurité sont essentielles, notamment pour le contrôle des processus industriels, l’automatisation, les dispositifs portables, la robotique, la santé et bien d’autres domaines », promet-elle.

Reçu — 6 mars 2026 Next - Articles gratuits

Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

6 mars 2026 à 14:17
À lobbying, lobbying et demi
Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

Que disent les délégués à la protection des données personnelles de la simplification du RGPD envisagée par la Commission européenne ? Un sondage organisé par l’association noyb révèle que leurs préoccupations portent essentiellement sur la simplification des démarches administratives, et non sur la redéfinition des données personnelles ou sur la limitation du droit d’accès, pourtant envisagés par Bruxelles en réponse aux demandes de l’industrie.

Dans l’univers tech, on entend souvent dire que l’excès de norme est un frein à l’innovation, et que le régulateur ferait bien de s’intéresser aux signaux qui remontent de la base (les entreprises) plutôt que de décider du cadre depuis le sommet.

L’association autrichienne noyb a décidé de prolonger la logique en descendant un cran plus bas : plutôt que d’interroger les entreprises, elle a cherché à connaître la position des individus qui, au sein de ces dernières, se situent en première ligne de la mise en œuvre du cadre réglementaire.

Ratio entre charge de travail et utilité perçue

En l’occurrence, les fameux Délégués à la protection des données (souvent abrégé en DPO, pour Data Protection Officer), instaurés par les articles 37 et suivants du non moins fameux Règlement général sur la protection des données (RGPD).

L’association a donc demandé à environ 500 de ces derniers quels étaient les points de friction liés au RGPD les plus fréquents dans leur quotidien. Elle en a profité pour essayer d’évaluer, toujours par la voie du sondage déclaratif, la part du temps de leur activité de DPO associée à chacune des grandes exigences du règlement. Elle a enfin tenté d’évaluer la façon dont ces DPO percevaient la valeur du service rendu à l’internaute en matière de respect de la vie privée.

Les enseignements de cette étude, présentés jeudi 5 mars, illustrent selon noyb à quel point la Commission européenne fait fausse route en matière de simplification du RGPD. Rappelons que Bruxelles a publié en novembre 2025 un paquet législatif dédié au numérique qui vise à amender plusieurs des grands textes de loi européens, dont le RGPD, la directive e-Privacy, le règlement sur l’IA, etc..

Qualifié de « digital omnibus » du fait de ce caractère fourre-tout, le texte est vivement attaqué pour les allègements qu’il propose en matière de défense de la vie privée. Mi-janvier, deux organisations européennes ont ajouté de l’huile sur le feu en arguant que certaines des mesures de ce Digital Omnibus seraient le reflet du message porté par les lobbys de l’industrie de la tech à Bruxelles. L’un des points de crispation concerne l’article 15 relatif au droit d’accès aux données personnelles, que la Commission européenne prévoit de réduire au motif qu’il y aurait des « abus ».

C’est donc dans ce contexte tendu que noyb dégaine son étude, dont les résultats se veulent donc représentatifs des attentes non pas d’un secteur d’activité, mais d’une fonction bien précise, dont l’avis semble tranché. L’association résume :

« Il s’avère que la plupart des professionnels ne souhaitent pas une réduction des protections, mais une simplification des obligations de documentation et des formalités administratives. Dans bien des cas, ils demandent même des lois plus claires plutôt qu’une plus grande « flexibilité », difficile à mettre en œuvre pour la plupart des entreprises. »

Les DPO ne veulent globalement pas moins de protections

Le sondage a été réalisé en juillet 2025, et une fois nettoyées, les données permettent à noyb de consolider (voir l’étude au format PDF) les réponses de 510 DPO, dont la moitié évolue dans des sociétés comptant plus de 500 employés. Il est à noter que l’association a recruté les sondés par ses propres canaux de communication (réseaux sociaux et newsletter centrée sur les enjeux liés au RGPD).

Pour ce qui est de la charge de travail, les répondants déclarent que les tâches les plus chronophages sont liées aux obligations déclaratives, à la mesure d’impact, et à la conformité en matière de sécurité. Les principes qui constituent le cœur du règlement, les obligations d’information ou la gestion du droit d’accès sont quant à eux considérés comme relativement indolores. D’après noyb, plus de 70 % des sondés répondent ainsi que le droit d’accès ne génère que « peu », « un peu » ou « pas » de travail.

L’association affirme que ce chiffre confirme sa propre lecture du phénomène, selon laquelle la plupart des entreprises ne font l’objet que de rares demandes d’accès, tandis que les acteurs susceptibles d’être fréquemment sollicités (secteur de la publicité par exemple) ont de toute façon des routines de traitement automatisées.

Le sondage évalue les différentes missions afférentes à la conformité RGPD en fonction de la charge de travail engendrée – crédit noyb

L’association interroge ensuite son échantillon de DPO sur leur perception de l’utilité des missions en question. Ici, ce sont les obligations liées à la sécurité, les principes fondamentaux du texte, et l’obligation d’information qui apparaissent comme les éléments les plus utiles, juste devant le droit à l’accès. Elle s’étonne dans ce contexte que Bruxelles propose de limiter le droit d’accès ou les obligations de transparence.

« Cette étude révèle un fossé immense entre les besoins des personnes qui travaillent concrètement au respect de la conformité et les problèmes alimentés par la « bulle du lobby bruxellois ». Nous n’aidons pas les entreprises européennes dans leur fonctionnement normal ; la proposition de la Commission empiète même souvent sur ce que les professionnels considèrent comme utile », résume Max Schrems, fondateur de noyb.

L’association évalue le rapport entre niveau de protection perçu et charge de travail pour les principales obligations du RGPD – crédit noyb

Le « one size fits all » ne fait pas consensus

noyb profite de son étude pour interroger les DPO sur l’intérêt, ou non, de créer des paliers en fonction desquels le niveau d’obligation pourrait varier, de façon par exemple à ce que les exigences réglementaires soient alourdies pour les grands acteurs spécialistes de la vente de données, et allégées pour les petites et moyennes entreprises chez qui la gestion de données personnelles n’est qu’une problématique satellite.

La question n’est pas totalement innocente : dans sa communication autour du paquet numérique, Bruxelles fait en effet valoir que la simplification du RGPD profitera à toutes les entreprises, sans prendre en compte cette différence d’impact. Qu’en disent les intéressés ? « Malgré le fait que beaucoup d’entre eux représentent de plus grandes entreprises (500 + employés), 70% des répondants ont déclaré qu’il y avait un besoin de règles plus strictes pour les grandes entreprises », argue noyb, qui défend donc l’idée d’un système de paliers, avec des règles très claires, ne laissant que peu de place à l’interprétation juridique, pour les PME.

L’association interroge également la perception des DPO sur la proposition, faite par Bruxelles, d’un système de liste blanche, pour automatiser le consentement de certains recueils et traitements à finalité claire (la mesure d’audience par exemple) et donc réduire la pression au niveau des fameux bandeaux de cookies.

noyb, qui avait exprimé en novembre dernier des craintes sur les possibilités réellement offertes par cette liste blanche, note à ce niveau que 84 % des sondés sont globalement favorables à l’idée, mais ajoute à l’équation une autre hypothèse, jusqu’ici écartée par Bruxelles : celle d’un fonctionnement par liste noire, qui interdirait donc les traitements « clairement illicites », à la façon de ce qu’énonce l’article 5 du règlement européen sur l’IA. L’idée recueille un accueil favorable (totalement ou partiellement) chez 91 % des sondés.

« Étonnamment, les spécialistes de la protection de la vie privée (…) ne pensent pas qu’une « liste noire » limiterait excessivement [les responsables de traitement]. Il semble que la sécurité juridique soit privilégiée par rapport à la flexibilité de la loi. On peut supposer que la garantie d’une concurrence loyale est un facteur justifiant l’établissement de « listes noires », étant donné que les concurrents seraient eux aussi soumis à des règles plus claires. », commente l’association, qui appelle par conséquent à un débat plus large autour du Digital Omnibus.





Quantique : Pasqal lève 340 millions d’euros et vise déjà le Nasdaq

6 mars 2026 à 08:08
L'anti dead cat bounce
Quantique : Pasqal lève 340 millions d’euros et vise déjà le Nasdaq

Pasqal, startup française du quantique, a annoncé coup sur coup une levée de fonds de 340 millions d’euros et son association avec un SPAC en vue de préparer son introduction en bourse, avec l’objectif d’une double cotation, à Paris et à New-York. L’opération valoriserait la société deux milliards de dollars.

Non contente d’avancer sur le développement d’ordinateurs quantiques à base d’atomes neutres, la startup française Pasqal fait cette semaine la démonstration de ses talents en matière d’ingénierie financière. Depuis son siège de Palaiseau, elle vient en effet de dévoiler une double opération, qui lui permet à la fois de muscler sa trésorerie immédiatement disponible et de préparer l’avenir en posant les bases d’une double introduction en bourse : d’abord sur le Nasdaq (l’indice des valeurs technologiques de Wall Street) à New-York puis sur Euronext à Paris.

170 millions d’euros en capital…

Dans le détail, Pasqal a annoncé mercredi avoir procédé à un tour de table qui lui permet de réunir au moins 340 millions d’euros (environ 395 millions de dollars), en deux temps. La première moitié de cette manne (soit 170 millions d’euros) est amenée sous forme de capital, avec un tour de table qui réunit, selon la startup, un groupe d’investisseurs internationaux de premier plan.

L’opération est emmenée par le fonds états-unien Parkway Ventures, le taïwanais Quanta Computer, le coréen LG Electronics et le français CMA CGM. Pasqal indique que ses investisseurs historiques, parmi lesquels le français ISAI, fonds européen pour l’innovation, le fonds souverain de Singapour Temasek et la branche investissement de Saudi Aramco remettent également au pot.

Bpifrance, qui compte parmi les investisseurs de Pasqal depuis sa série A de 2021, ne semble pas participer directement, mais la startup prend soin de préciser que la banque publique d’investissement « maintient un rôle stratégique à long terme dans la structure du capital ».

… et un engagement équivalent en vue de l’entrée en bourse

La seconde tranche de 170 millions d’euros prend quant à elle la forme d’un engagement sous forme de financement convertible (les investisseurs prêtent de l’argent à l’entreprise dans l’optique d’un remboursement sous forme d’actions). Cette seconde tranche intervient dans le contexte d’une introduction en bourse programmée en deux temps : à Wall Street d’ici fin 2026, puis à Paris sur Euronext dans les mois suivants.

Pour ce faire, Pasqal va s’adosser à un SPAC (special purpose acquisition company), une coquille vide introduite spécifiquement en bourse pour préparer le terrain à une autre société. En l’occurrence, le véhicule concerné est déjà identifié : il s’agit de la société Bleichroeder Acquisition Corp. II, qui compte un certain Michel Combes parmi ses fondateurs. Ancien PDG de SFR et directeur général d’Altice, Michel Combes a par la suite occupé un poste de directeur financier chez l’opérateur Sprint, avant de prendre la tête du japonais Softbank pendant deux ans.

Cette tranche convertible associe elle aussi un aréopage d’investisseurs institutionnels, parmi lesquels le fonds indien Inflection Point, et le fonds Large Ventures de Bpifrance.

Si l’opération va à son terme dans les conditions décrites ici, Pasqal sera valorisée 2 milliards de dollars avant conclusion des financements, et environ 2,6 milliards de dollars en prenant en compte la trésorerie disponible via ses différents véhicules.

Un ancrage français conservé

Pasqal, qui indique compter environ 275 employés, revendique 25 clients et partenaires pour ses premiers ordinateurs quantiques, ainsi qu’un carnet de commandes de l’ordre de 80 millions de dollars. L’entreprise affirme que ces fonds vont lui permettre d’accélérer significativement ses développements :

« En France, Pasqal prévoit de doubler sa capacité de production en 24 mois, d’augmenter ses effectifs de près de 20 % avec 50 nouvelles embauches au cours des 18 prochains mois et d’investir massivement dans la R&D pour développer un ordinateur quantique avancé et tolérant aux pannes d’ici la fin de la décennie. »

Pasqal, qui compte parmi les quelques pépites hexagonales du quantique aux côtés de sociétés comme Quandela, C12, Alice&Bob ou Quobly, assure par ailleurs de son intention de rester une société de droit français, avec un ancrage français, en dépit de la ventilation de son capital :

« La gouvernance envisagée (…) prévoit la nomination d’un nouveau président non exécutif de nationalité française. Cette structure de gouvernance a été élaborée en étroite collaboration avec les actionnaires et reflétera l’engagement de Pasqal à consolider son ancrage français tout en poursuivant son expansion internationale. L’entreprise devrait conserver son statut juridique français et son siège social à Palaiseau. »

☕️ OpenAI sort GPT-5.4, avec deux versions tournées vers les tâches « professionnelles »

6 mars 2026 à 06:47


OpenAI avance un nouveau pion dans la course effrénée que se livrent les acteurs de l’IA générative avec la sortie, jeudi 5 mars, de GPT‑5.4, dernière itération en date de son grand modèle de langage. Immédiatement disponible au travers de ChatGPT, des API proposées aux entreprises ou de Codex, l’outil dédié aux développeurs, GPT‑5.4 est décliné en deux versions : GPT‑5.4 Pro, « pour les personnes qui recherchent une performance maximale sur des tâches complexes », et GPT‑5.4 Thinking, qui promet des capacités plus poussées en matière de recherche en ligne, de taille de contexte et de gestion des requêtes complexes.

Dans un long article de présentation, rempli de tests de performance superlatifs, OpenAI indique avoir mis, avec GPT‑5.4, l’accent sur la capacité à créer et éditer des documents bureautiques (un nouveau plugin Excel est par ailleurs lancé en même temps), mais aussi sur la capacité à contrôler un ordinateur et à voir (c’est-à-dire à analyser le contenu de captures d’écran) le résultat de ses actions au fil de l’eau. Difficile de ne pas y voir une réponse directe aux comportements agentiques développés par Anthropic avec Claude Cowork.

OpenAI accompagne le déploiement de GPT‑5.4 d’une série de mesures de performance qui attestent, selon l’entreprise, de la supériorité de son nouveau modèle sur les deux références concurrentes du moment, à savoir Claude Opus 4.6 et Gemini 3.1 Pro.

Comparaison, selon OpenAI, des performances de GPT-5.4 avec les modèles précédents et la concurrence d’Anthropic et de Google – crédit OpenAI

GPT‑5.4 fait actuellement l’objet d’un déploiement progressif, et doit selon OpenAI s’imposer auprès des utilisateurs comme le nouveau modèle de référence. Le nouveau venu va d’ailleurs évincer GPT-5.2 Thinking qui sera mis à la retraite d’ici trois mois. Le changement n’est pas tout à fait anodin pour les gros consommateurs : GPT-5.4 est en effet facturé plus cher que son prédécesseur. En version API, il faut ainsi compter 2,5 dollars par million de jetons, quand GPT-5.2 était à 1,75 dollar.

Prix d’accès aux modèles GPT du moment, en dollars par million de jetons en entrée, puis en dollars par million de jetons en sortie – capture d’écran

Au fait, pourquoi GPT-5.4, alors que les versions Pro utilisaient jusqu’ici GPT-5.2, sorti en décembre, et que OpenAI a en parallèle sorti GPT-5.3 Codex début février et GPT-5.3 Instant début mars ? OpenAI l’explique de la façon suivante :

« GPT-5.4 est notre premier modèle de raisonnement principal intégrant les fonctionnalités de codage avancées de GPT-5.3-codex et déployé progressivement sur ChatGPT, l’API et Codex. Nous l’appelons GPT-5.4 pour refléter cette évolution et simplifier le choix entre les modèles lors de l’utilisation de Codex. Nos modèles Instant et Thinking évolueront à des rythmes différents au fil du temps. »

Reçu — 5 mars 2026 Next - Articles gratuits

Les autorités saisissent Leakbase, forum historique de la cybercriminalité

5 mars 2026 à 09:32
Leakbase leaked
Les autorités saisissent Leakbase, forum historique de la cybercriminalité

Une action policière sous pilotage conjoint d’Europol et du FBI a conduit à l’arrestation de plusieurs administrateurs du site Leakbase, ainsi qu’à la saisie des serveurs et de la base de données du forum associé, haut lieu historique du vol de données et des échanges liés à la cybercriminalité sur le Web ouvert.

Leakbase n’est plus, au moins jusqu’à ce qu’une nouvelle incarnation ne tente de prendre le relais. Le département de la Justice des États-Unis et Europol ont en effet annoncé mercredi 4 mars la conclusion d’une opération policière internationale ayant conduit à la saisie des actifs associés à ce célèbre forum anglophone dédié au piratage, au vol de données et à la cybercriminalité.

Saisie des messages, soldes de crédits, et logs IP

Baptisé « Operation Leak », ce coup de filet a mobilisé les forces de police dans 14 pays, et permis l’arrestation ou l’interrogatoire d’internautes suspectés d’avoir pris part aux activités du site aux États-Unis, en Belgique, en Espagne, en Pologne, en Roumanie, au Royaume-Uni, au Portugal ou en Australie.

Il a aussi et surtout permis de saisir deux des noms de domaine utilisés par le forum (sa dernière porte d’entrée en date exploitait le TLD du Laos), et d’y remplacer le contenu du site par une bannière d’avertissement aux couleurs des forces de police associées à la démarche.

« Tout le contenu du forum, y compris les comptes utilisateurs, les messages, les détails liés aux crédits, les messages privés et les logs IP ont été sécurisés et préservés à des fins probatoires », affirme le message en question, qui invite par ailleurs les internautes repentis ou les sources potentielles à prendre contact avec le FBI.

Les autorités ont « défacé » Leakbase avec un bandeau annonçant la saisie

D’après ce dernier, la base de données de Leakbase référençait quelque 215 000 messages et 142 000 comptes membres en décembre 2025, des chiffres cohérents avec ce qu’annonçait la page d’accueil du forum peu avant sa fermeture. Le site agrégeait surtout, d’après les autorités, « une archive immense et constamment mise à jour de bases de données piratées, comprenant de nombreuses bases de données issues d’attaques de grande envergure, et contenant des centaines de millions d’identifiants de comptes ».

Un message d’avertissement aux cybercriminels

Moins connu que Breachforums, forum gratuit où sont proposés à la vente la plupart des vols de données qui défraient la chronique en France, Leakbase adoptait un fonctionnement plus complexe, avec forum sur accès payant, et un système de crédits, gérés par l’administration du site, pour acheter le droit de consulter les données ou les outils échangés.

« Dans le cadre de l’enquête, les autorités ont saisi la base de données du forum. Cela a permis de démasquer plusieurs utilisateurs qui pensaient agir anonymement. Les forces de l’ordre ont pris contact directement avec plusieurs suspects via les mêmes plateformes en ligne utilisées pour faciliter les activités criminelles, affirme Europol, selon qui cette opération doit servir d’avertissement aux internautes enclins à franchir la ligne rouge : personne n’est véritablement invisible en ligne ».

Rappelons que les autorités ont mené entre 2023 et 2025 plusieurs coups de filet ayant conduit à l’arrestation des administrateurs de Breachforums, qui a depuis repris du service avec le succès que l’on connait.


☕️ OpenAI publie la version Windows de Codex, son agent IA dédié au code

5 mars 2026 à 08:10

Déjà accessible au travers de Visual Studio ou GitHub Codespaces, l’agent IA dédié au code d’OpenAI dispose désormais de son propre client dédié aux environnements Microsoft, via l’application Codex pour Windows. Annoncée le 4 mars, cette dernière est proposée au téléchargement par l’intermédiaire du Microsoft Store, sans alternative plus directe pour le moment.

Comme pour l’application macOS lancée début février, OpenAI promet que son client Windows couvre toute la richesse fonctionnelle de Codex avec, entre autres, la possibilité de faire tourner simultanément plusieurs tâches ou agents parallèles, la création d’environnements sécurisés et isolés les uns des autres, une gestion complète des commits, CI/CD, etc., ainsi que l’accès aux instructions, scripts et ressources censés permettre d’implémenter de façon simplifiée certaines tâches complexes, à commencer par la connexion à des services tiers via MCP (Model Context Protocol).

L’application Codex d’OpenAI est désormais disponible sur Windows – crédit OpenAI

OpenAI souligne également la présence d’une fonction d’import, pour rapatrier l’historique issu d’une précédente instance de Codex, et assure que l’outil offre une sécurité « par défaut », dans la mesure où les agents IA évoluent dans un environnement dédié (sandbox) tant que l’utilisateur ne leur a pas octroyé d’autres privilèges. La promesse ne se veut d’ailleurs pas exclusive à cette version Windows :

« L’application Codex utilise un sandboxing natif, open source⁠ et configurable au niveau système, comme dans la CLI Codex. Par défaut, les agents Codex ne peuvent modifier que les fichiers du dossier ou de la branche sur lesquels ils travaillent et utiliser une recherche web mise en cache. Ils demandent ensuite votre autorisation avant d’exécuter des commandes nécessitant des droits élevés, comme l’accès au réseau ».

Reçu — 4 mars 2026 Next - Articles gratuits

Apple lance son MacBook Neo avec une puce d’iPhone, à partir de 699 euros

4 mars 2026 à 15:17
Le "continuum" Apple à son paroxysme ?
Apple lance son MacBook Neo avec une puce d’iPhone, à partir de 699 euros

Apple a confirmé mercredi le lancement de son premier ordinateur portable équipé d’une puce héritée de l’iPhone. Affiché à 699 euros dans sa version 256 Go, le MacBook Neo constitue donc la nouvelle porte d’entrée vers macOS avec un écran 13 pouces, une puce A18 Pro et jusqu’à 16 heures d’autonomie.

L’annonce ne constitue pas précisément une surprise dans la mesure où les principaux détails avaient déjà fuité, jusqu’au nom de l’appareil : Apple a donc mis à profit son événement du 4 mars pour présenter à la presse son dernier-né, le MacBook Neo : un ordinateur portable au format 13 pouces au tarif nettement plus agressif que le reste de la gamme, qui vient d’être renouvelée.

L’appareil est en effet lancé à 699 euros dans sa version 256 Go. Une seconde version facturée 799 euros permet quant à elle de profiter de 512 Go de stockage mais aussi d’un capteur TouchID au niveau du clavier. Outre la couleur du châssis, la capacité de stockage est la seule option proposée.

Le processeur de l’iPhone 16 Pro aux commandes

Si Apple présente le MacBook Neo comme équipé de la dernière version en date de macOS, l’appareil présente bien entendu un compromis par rapport aux actuels MacBook Pro et MacBook Air : exit les puces M4 ou M5, et place à un composant hérité de l’iPhone. En l’occurrence, il s’agit sur cette première version d’une puce A18 Pro, celle qu’Apple a introduit pour la première fois en septembre 2024 avec l’iPhone 16 Pro.

Dans la version intégrée au MacBook Neo, l’A18 Pro dispose d’une partie CPU à six cœurs (deux orientés performances, quatre centrés sur l’efficacité), accompagnée d’un GPU à cinq cœurs et d’un neural engine à 16 cœurs.

Donné pour 60 Go/s de bande passante mémoire, la puce est accompagnée de 8 Go de mémoire unifiée (LPDDR5). Des caractéristiques identiques à celles revendiquées par Apple pour l’iPhone 16 Pro, ce qui laisse penser que la partie NPU devrait là aussi délivrer 35 TOPS, et que l’appareil profitera de l’USB 3 à 10 Gb/s. Il est par ailleurs compatible Wi-Fi 6E et Bluetooth 6, et dispose d’une webcam 1080p.

Une autonomie et des fonctionnalités de MacBook

La firme de Cupertino annonce la prise en charge des fonctions Apple Intelligence, et promet des performances suffisantes pour tous les usages courants. « Le MacBook Neo est le binôme idéal pour étudier, qu’il s’agisse de réviser pour un examen, de synthétiser des notes de cours avec Apple Intelligence ou d’élaborer des présentations », cible notamment l’entreprise.

La dalle interne, IPS, affiche 2 408 x 1 506 pixels à 219 pixels par pouce, avec une luminosité max de 500 nits. Le châssis est donné pour 1,23 kg, avec une épaisseur de 1,27 cm, des lignes rectangulaires assouplies par une coque arrondie et quatre coloris au choix. L’écran n’est pas tactile, mais on retrouve le Trackpad Multi‑Touch des autres ordinateurs de la marque. De façon inédite, les hauts-parleurs se situent sur la tranche de l’ordinateur. Deux micros les accompagnent.

Doté de deux connecteurs USB format Type-C (un en USB 3 offrant la prise en charge d’un écran externe jusqu’au 4K à 60 Hz et DisplayPort 1.4, l’autre en USB 2), il propose également une prise casque 3,5 mm.

La batterie intégrée de 36,5 Wh offrirait jusqu’à 16 heures d’autonomie, avec une recharge via USB-C exigeant au moins 20W. Rappelons qu’en Europe, Apple ne fournit plus de bloc secteur avec ses ordinateurs portables : l’entreprise se limite à un simple câble de charge USB-C (1,5 m) et vend le chargeur en option.

Le MacBook Neo est dès à présent disponible à la précommande chez Apple, avec une disponibilité fixée au 11 mars, comme les autres produits lancés cette semaine par la marque. Rappelons que l’entreprise a annoncé depuis lundi l’iPhone 17e, l’iPad Air avec une puce M4 et le renouvellement de ses gammes MacBook Pro et MacBook Air.

Comparaison entre MacBook Neo et MacBook Air M5 selon Apple – capture d’écran

Accenture rachète Ookla, Speedtest et Downdetector pour 1,2 milliard de dollars

4 mars 2026 à 14:32
Accenture rachète Ookla, Speedtest et Downdetector pour 1,2 milliard de dollars

Accenture a annoncé mardi la conclusion d’un accord portant sur l’activité d’Ookla, la branche des services et solutions « connectivité » du groupe média Ziff Davis, qui réunit notamment Speedtest et Downdetector. La transaction est chiffrée à 1,2 milliard de dollars, en cash.

Pour beaucoup d’internautes, Speedtest et Downdetector font presque office de services en ligne réflexe : le premier pour vérifier que la nouvelle box promue à grands renforts de superlatifs par votre opérateur tient ses promesses… et le second pour essayer de comprendre si vous êtes le seul dans la panade face à cette satanée page Web qui boucle sur une erreur 500…

Accenture veut se renforcer sur la connectivité

Si ces services sont très identifiés du grand public et génèrent des audiences significatives (Speedtest est même disponible via les PowerToys Windows), ils s’intègrent également dans des solutions à la fois plus complexes et plus ambitieuses, destinées cette fois au marché des entreprises.

C’est vraisemblablement ce volet professionnel qui a alimenté la convoitise d’Accenture : le géant américain des services numériques (70 milliards de dollars de chiffre d’affaires sur l’exercice 2025, 779 000 employés à la clôture de ce dernier) vient en effet d’annoncer l’acquisition d’Ookla (430 employés), la maison mère de Speedtest et Downdetector, également éditrice de Ekahau (mesure et optimisation de la performance des réseaux sans fil locaux) et Rootmetrics (mesure de la performance des réseaux mobiles sur le terrain), deux solutions intégrées suite à des croissances externes.

« Grâce à la suite Ookla, nous proposerons des services d’intelligence réseau de bout en bout, essentiels à la transformation numérique par l’IA, déclare Manish Sharma, directeur de la stratégie et des services chez Accenture, dans un communiqué. À l’ère de l’accès omnicanal et automatisé, une connectivité fluide et à faible latence est un atout concurrentiel majeur, et ces outils permettent aux entreprises de créer les environnements haute performance dont elles ont besoin. »

231 millions de dollars de chiffre d’affaires

Accenture ne communique pas le montant de la transaction, qui reste par ailleurs soumise aux habituelles approbations réglementaires, mais Ziff Davis, l’actuel propriétaire, l’évoque de façon explicite.

Le groupe, principalement connu pour ses activités dans les médias (il a par exemple racheté CNET en 2024), annonce une transaction chiffrée à 1,2 milliard de dollars, réalisée en cash, et souligne que l’activité correspondante a généré 231 millions de dollars de chiffre d’affaires en 2025, soit environ 16 % de ses recettes totales.

La publication, fin février, des résultats annuels de Ziff Davis, montre que sa branche « connectivité » a réalisé une croissance de 8 % sur un an. Le groupe ne précise en revanche pas le niveau de marge et la rentabilité associés.

L’UNSS admet une fuite comprenant les photos d’identité de collégiens et lycéens

4 mars 2026 à 10:20
L'UNSS, ses cross boueux et ses fuites de données...
L’UNSS admet une fuite comprenant les photos d’identité de collégiens et lycéens

Déjà victime d’un piratage en 2025, l’Union nationale du sport scolaire (UNSS) a reconnu mardi avoir fait l’objet d’un vol de données issues de son outil de gestion de la relation avec les licenciés. Quelques jours plus tôt, le groupe Dumpsec affirmait être en possession de 890 000 photos émanant de l’UNSS.

L’Union nationale du sport scolaire (UNSS) a reconnu mardi 3 mars avoir été victime d’une fuite de données qu’elle présente comme « issues de son outil de gestion OPUSS ». L’intrusion dont elle découle remonterait à plusieurs mois.

« Ces données avaient fait l’objet d’une exfiltration dispersée en novembre 2025, pour laquelle l’UNSS avait immédiatement alerté son prestataire technique. La mise en vente récente de ces données a conduit à une nouvelle mobilisation des équipes et à l’activation des procédures prévues en matière de cybersécurité », affirme l’organisation.

890 000 photos exposées ?

Son message fait suite à la publication, le 28 février dernier, d’un post de forum signé Dumpsec annonçant la mise en vente de deux fichiers issus de l’UNSS : un jeu de 7 millions d’enregistrements et un ensemble de 889 000 photos des collégiens et lycéens qui constituent la base des licenciés de l’organisation. Cette annonce a été relayée le jour même sur les réseaux sociaux, et c’est probablement ce qui a conduit l’UNSS à finalement réagir mardi.

L’Union ne commente pas le volume de données évoqué par l’auteur du post en question, mais elle confirme en revanche que des données personnelles et des photos d’adhérents ont été compromises :

« À ce stade des investigations, les données susceptibles d’être concernées comprennent des informations d’identification liées aux licences UNSS (nom, prénom, genre, date de naissance, établissement scolaire, classe, date d’inscription, URL de photographie d’identité). Les premières analyses indiquent que les données financières (RIB, mandats de prélèvement SEPA) ainsi que les données relatives au handicap ne seraient pas concernées par cet incident. »

Elle ajoute une précision qui appuie l’une des allégations des auteurs de l’annonce : « Les liens permettant d’accéder aux images ont été rendus inopérants ». Dans le post initial annonçant la fuite, ces derniers illustraient en effet leur promesse avec un lien pointant directement vers un répertoire du sous-domaine dédié à l’outil OPUSS sur le site de l’UNSS.

Le retour d’un prestataire déjà auréolé de nombreuses fuites

En réponse à cette fuite manifeste, l’UNSS indique avoir, « dès confirmation des faits », notifié l’incident aux autorités ainsi qu’à la Cnil, saisi l’ANSSI et engagé, avec son prestataire technique, une analyse approfondie des journaux de connexion afin d’identifier précisément l’origine et le périmètre de l’incident. Sur ce point, elle affirme que le « compte utilisateur identifié comme point d’entrée a été immédiatement neutralisé », mais ne donne aucune autre précision sur les modalités de cet accès.

L’UNSS n’indique nulle part sur son site la qualité du prestataire technique en question, et le lien censé pointer les mentions légales de la partie publique de l’intranet OPUSS est inopérant. En 2022, un certain Exalto se réjouissait toutefois de désormais compter l’UNSS parmi les clients de sa solution E-licence, destinée précisément au secteur des associations et fédérations sportives.

Or le procédé mis en œuvre (accès à un compte utilisateur avec probable élévation des privilèges via une faille de sécurité) rappelle précisément le mode opératoire impliquant E-licence et Exalto, révélé par Next début 2025 au cœur de la vague d’intrusions qui avait frappé plusieurs dizaines de fédérations sportives. Le code source de la page d’accès à OPUSS confirme que le portail exploite bien E-licence.

En attendant que l’UNSS (qui organise pour mémoire les fameux cross et bon nombre de rencontres sportives scolaires) demande des comptes à son prestataire, elle diffuse avec un bel enthousiasme les photos vers l’édition 2026 de son cross national sous forme de dossiers hébergés sur Google Drive.

En juin 2025, de jeunes pirates affirmaient déjà avoir mis la main sur 7 millions d’enregistrements issus de la base de données de l’UNSS.

Reçu — 3 mars 2026 Next - Articles gratuits

Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

3 mars 2026 à 15:47
Come to me
Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

Alors que ses modèles connaissent une soudaine vague de popularité suite aux démêlés d’Anthropic avec l’administration Trump, l’entreprise éditrice de Claude vient d’ouvrir à tous les comptes, même gratuits, la fonction qui permet d’importer la « mémoire » de l’utilisateur d’une autre IA. Un levier malin pour encourager les migrations, qui illustre à la fois l’enjeu économique de rétention… et la valeur potentielle de cet historique.

En prononçant vendredi 27 février l’interdiction d’utiliser les modèles d’Anthropic au sein des armées et administrations américaines, Donald Trump a donné un coup de projecteur sur Anthropic et son CEO, Dario Amodei. Et Sam Altman, qui s’est empressé d’annoncer la signature d’un accord entre le Pentagone et son entreprise OpenAI, n’a rien fait pour limiter cet effet Streisand, au contraire.

Résultat des courses, la popularité de Claude a explosé sur les kiosques de téléchargement d’Apple et d’Android, jusqu’à devenir et rester encore aujourd’hui l’application gratuite la plus demandée du moment.

Claude est l’application gratuite numéro un du classement de l’App Store d’Apple, devant ses concurrentes ChatGPT et Gemini – capture d’écran Next

Import en deux clics

Anthropic a saisi cette balle séduisante au bond lundi, en ouvrant les vannes et en simplifiant l’accès à sa fonction Import Memory. Lancée à l’automne 2025, celle-ci était jusqu’ici réservée aux souscripteurs d’un abonnement payant. Elle permet d’injecter, dans Claude, l’historique et les informations contextuelles que l’utilisateur a pu accumuler en utilisant un modèle concurrent comme ChatGPT, Gemini, Le Chat et consorts.

Ce faisant, l’internaute peut conserver à la fois l’historique de ses conversations, projets, requêtes, etc., ainsi que les éventuels éléments personnels qu’il aurait enseignés au modèle pour adapter les sorties à ses attentes.

La fonction d’import est désormais accessible en un clic via l’onglet Capacités des paramètres du site Claude.ai. Anthropic fournit un prompt prêt à l’emploi (rédigé en anglais) qu’il suffit de copier dans le modèle que l’on quitte, puis une fenêtre destinée à l’import des résultats obtenus.

La fonction d’import propose une invite (prompt) prête à l’emploi – capture d’écran Next

Pour que la requête soit efficace, il faut bien entendu que l’internaute ait au préalable utilisé un modèle concurrent, et que les options de mémoire de ce dernier aient été pleinement activées, ce qui n’est par exemple pas le cas par défaut sur un compte ChatGPT gratuit. Dans ce scénario, l’utilisateur peut bien visualiser un historique de ses conversations avec le chatbot, mais ce dernier n’établit pas de lien entre les différents fils de discussion, même si les réglages correspondants sont activés dans les paramètres. Sur un compte gratuit pour lequel aucun élément de personnalisation n’a été rempli, ChatGPT répond donc par un fichier vide au prompt proposé par Anthropic.

La donne change avec un abonnement payant, comme nous avons pu en faire l’expérience. La sortie proposée par ChatGPT reprend les infos personnalisées qui ont été renseignées, et propose ensuite une sorte de digest des différents fils de discussion initiés par l’utilisateur. La sortie est globalement fidèle à la réalité des échanges passés, mais elle ignore certains projets ou thèmes abordés, et témoigne parfois d’une interprétation hasardeuse de la finalité initiale de la demande.

Dans la lignée de nos précédentes expérimentations, notre rapide test montre par ailleurs que la sortie n’est pas constante dans le temps : il ne s’agit donc pas d’un export (au sens accès à l’intégralité des données brutes par exemple), mais bel et bien du résultat de la requête transmise à un modèle probabiliste. ChatGPT (et les autres) proposent heureusement une fonction d’archivage qui permet quant à elle de récupérer la totalité de son historique, mais le fichier qui en découle n’est évidemment pas prévu pour être injecté en un clic dans Claude.

De la difficulté de retenir les utilisateurs ?

Est-ce de toute façon vraiment l’efficacité de cette fonction qui prime dans le contexte actuel ? Plusieurs spécialistes de la mesure d’audience affirment que le regain de popularité de l’application Claude s’est accompagné d’une vague de désinstallation de l’application ChatGPT. Autrement dit, les gens ne se seraient pas simplement intéressés à Claude : ils auraient vraiment décidé de changer de crèmerie.

Et c’est précisément pour étayer l’idée selon laquelle il est facile de passer, sans perte, d’une IA à une autre, qu’Anthropic a ouvert les vannes de sa fonction d’import : elle montre qu’au-delà de simplement essayer Claude pour voir, on peut très vite y transférer sa « mémoire ».

Dans la course aux financements que se livrent les géants de l’IA, il y a nécessairement une prime à celui qui réunit le plus grand nombre d’utilisateurs, et c’est encore plus vrai pour Anthropic et OpenAI qui ne peuvent pas, comme Microsoft ou Google, s’appuyer sur une base conséquente d’utilisateurs captifs via d’autres produits déjà très répandus (Windows, Office, Android, Chrome, etc.). Cette problématique de rétention est d’ailleurs l’un des arguments qui motive la course aux agents IA : il est plus difficile de se départir d’un outil auquel on a délégué des tâches concrètes de son quotidien…

Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

3 mars 2026 à 10:15
El ingenioso hidalgo
Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

Déjà très présent en Espagne, Amazon a annoncé lundi une nouvelle salve de projets qui représentent, en cumulé, 18 milliards d’euros d’investissements supplémentaires dans le pays. Dans les grandes plaines semi-désertiques d’Aragon, le géant américain évoque des datacenters, une usine d’assemblage de serveurs et un centre logistique. Un millième de son enveloppe est fléché vers le soutien à l’approvisionnement en eau dans la région.

Amazon double la mise en Espagne. Le géant américain a en effet profité du Mobile World Congress de Barcelone pour annoncer, lundi, une nouvelle salve d’investissements, à hauteur de 18 milliards d’euros, dans le pays. En 2024, Amazon s’était déjà engagé à y déployer 15,7 milliards d’euros sur dix ans. Ce second volet porte donc l’enveloppe totale promise à 33,7 milliards d’euros d’ici 2035.

C’est essentiellement en Aragón, cette communauté autonome du nord-est de la péninsule ibérique qui abrite déjà les datacenters espagnols d’Amazon Web Services (AWS), que devraient se concentrer ces investissements.

Deux usines et trois datacenters

Le groupe américain affirme que cette manne contribuera à hauteur de 31,7 milliards d’euros au PIB espagnol d’ici 2035, et générera l’équivalent de « 29 900 emplois directs, indirects et induits par an », aussi bien dans la construction de ses infrastructures que dans l’économie locale.

Si l’impact réel des datacenters en matière de création d’emploi reste sujet à débat, Amazon indique que la province espagnole d’Aragón a vocation à accueillir des installations industrielles, dédiées à l’assemblage et à la logistique des serveurs qui équipent ses infrastructures dans toute l’Europe.

« Le projet comprendra une usine de fabrication de serveurs pour l’assemblage et les tests, un entrepôt de production et de traitement des commandes, ainsi qu’une installation dédiée à la fabrication et à la réparation de serveurs d’IA et d’apprentissage automatique (ML), un élément clé de la stratégie d’économie circulaire d’Amazon », déclare le groupe dans un communiqué. Ces installations devraient représenter 1 800 emplois directs en vitesse de croisière.

À l’échelle de la région, Amazon affirme que ses projets induiront la création de 13 400 emplois aragonais, dont 4 200 emplois directs au sein de ses propres équipes. Le géant américain affirme que ses investissements devraient contribuer au PIB de l’Aragón à hauteur de 18,5 milliards d’euros d’ici 2035, soit une augmentation de plusieurs points du PIB annuel de la communauté autonome (41,8 milliards d’euros en 2023).

Outre ces usines d’assemblage et de reconditionnement de serveurs, c’est tout de même principalement dans les datacenters que devraient se concentrer les fonds promis. D’après le quotidien local El Heraldo de Aragón, Amazon prévoit en effet d’ajouter trois centres de données aux six que compte déjà la région de Saragosse, capitale de la communauté autonome.

Les projets d’Amazon sont soutenus par le président de la collectivité, le conservateur Jorge Azcón, réélu en février dernier et soutien affirmé du développement des infrastructures numériques, qu’il considère comme un « nouvel horizon économique ». El Mundo indique que l’administration aragonaise accélère les projets d’implantation de datacenters en leur octroyant le statut de projets d’intérêt général (Planes y Proyectos de Interés General de Aragón, ou PIGAS), qui simplifient grandement les formalités administratives associées.

Une contribution positive en eau à horizon 2030 ?

Cette simplification se fait-elle au prix de compromis sur les enjeux environnementaux et climatiques ? C’est la crainte exprimée par l’opposante socialiste Pilar Alegría, qui réclamait pendant sa campagne que les grands noms du numérique qui s’installent dans la communauté autonome soient frappés par une taxe de solidarité destinée aux populations locales, notamment pour compenser les risques soulevés en matière d’approvisionnement en énergie ou en eau.

Sur le volet énergétique, la majorité en place et Amazon rappellent d’une même voix que la province d’Aragón et ses grandes plaines désertiques sont un lieu propice au déploiement d’installations photovoltaïques. Amazon promet en la matière d’investir dans cent projets solaires et éoliens à l’échelle de l’Espagne, dont sept nouvelles fermes photovoltaïques. « En Aragón, les centres de données AWS compensent leur consommation d’électricité par de l’énergie 100 % renouvelable depuis leur ouverture en 2022 », affirme l’entreprise. Rappelons que la péninsule ibérique avait été frappée par une panne de courant de grande ampleur en avril 2025, dont la cause a été attribuée à un défaut des installations chargées de compenser ou réguler la tension sur le réseau.

Reste la question de l’eau, dans une zone où l’irrigation crée déjà des tensions et où les périodes de sécheresse sont parfois ponctuées par quelques épisodes d’inondations à grande échelle. Sur ce point, Amazon ne donne aucune indication précise quant à l’utilisation qui sera faite par ses infrastructures : fonctionneront-elles en circuit fermé (prélèvements marginaux une fois l’approvisionnement initial effectué) ou de façon ouverte, avec des pertes (et donc une consommation continue) à la clé ?

Dans sa communication, le groupe se contente de reprendre ses engagements globaux en matière d’eau, à savoir atteindre une contribution positive d’ici 2030. « Cela signifie que nous restituerons aux communautés et à l’environnement plus d’eau que nous n’en utilisons pour l’exploitation de nos centres de données. En 2024, AWS avait atteint 53 % de son objectif de bilan hydrique positif, contre 41 % en 2023 », explique-t-il.

En Aragón, cette ambition s’exprime par la participation à cinq projets hydriques, initialement annoncés en 2025. Ils concernent respectivement la détection des fuites sur le réseau d’eau potable, le réemploi de l’eau utilisée sur des parcelles agricoles voisines, la création d’un système visant à optimiser la gestion de l’eau à l’échelle de l’agglomération de Saragosse, la mise au point d’une IA destinée à l’irrigation agricole et la modernisation d’une conduite d’eau cruciale de la région. Ces cinq projets sont financés à hauteur de 17,2 millions d’euros, soit un millième de l’enveloppe globale évoquée lundi.

❌