Vue normale

☕️ Burger King teste un chatbot IA qui vérifie le sens de l’hospitalité de ses employés

27 février 2026 à 12:50

Burger King teste dans 500 de ses restaurants des casques audio équipés d’une intelligence artificielle capable de réciter des recettes, d’alerter les responsables lorsque les stocks sont faibles mais également d’évaluer l’amabilité des employés envers les clients, rapporte Associated Press.

Le système collecte les données et les partage avec « Patty », un chatbot alimenté par OpenAI qui s’adresse aux employés via leur casque audio. Ils peuvent lui poser des questions, par exemple combien de tranches de bacon mettre sur un Maple Bourbon BBQ Whopper, ou demander des instructions pour nettoyer la machine à milk-shake, précise The Verge.

L’IA serait également capable d’informer le gérant du magasin si la machine à boissons est à court de Coca Light ou si un client utilise un code QR pour signaler des toilettes sales. Burger King a déclaré qu’il envisageait également d’utiliser Patty pour améliorer son service client, précise AP :

« Le système peut détecter lorsque les employés prononcent des mots clés tels que « bienvenue », « s’il vous plaît » et « merci », puis en informer les responsables ».

« Nous pensons que l’hospitalité est fondamentalement humaine »

Interrogé au sujet de cette fonctionnalité, Burger King précise que l’objectif était d’utiliser Patty comme un outil de coaching, et non comme un moyen de surveiller les employés individuellement.

« Il ne s’agit pas d’évaluer les individus ou d’imposer des scripts. Il s’agit de renforcer l’excellence de l’accueil et de fournir aux responsables des informations utiles en temps réel afin qu’ils puissent mieux reconnaître les performances de leurs équipes », a déclaré Burger King dans un communiqué transmis à AP :

« Nous pensons que l’hospitalité est fondamentalement humaine. Le rôle de cette technologie est d’aider nos équipes afin qu’elles puissent rester présentes auprès des clients. »

Thibault Roux, directeur numérique de Burger King, explique à The Verge que l’entreprise a compilé des informations provenant des franchisés et des clients sur la manière de mesurer la convivialité, ce qui lui a permis d’entraîner l’IA à reconnaître certains mots et expressions, tels que « bienvenue chez Burger King », « s’il vous plaît » et « merci ».

L’objectif serait aussi de permettre aux responsables de demander à Patty comment leur établissement se positionne en matière de convivialité. « Tout cela est conçu comme un outil de coaching », explique M. Roux, ajoutant que l’entreprise « itère » également pour capturer le ton des conversations.

En décembre dernier, la vidéo de Noël de McDonald’s Pays-Bas, baptisée « It’s the Most Terrible Time of The Year », avait déjà fait scandale, au point d’être dépubliée. Présentée comme l’incarnation du nouveau champ des possibles ouverts par l’IA, elle présentait en effet le « vrai » monde comme une suite de catastrophes… alors qu’il suffisait de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.

AirSnitch : quand l’isolement des utilisateurs sur les points d’accès Wi-Fi vole en éclats

27 février 2026 à 11:00
Je vais passer au Wi-Fi filaire, ça sera plus simple !
AirSnitch : quand l’isolement des utilisateurs sur les points d’accès Wi-Fi vole en éclats

Les points d’accès Wi-Fi proposent souvent la possibilité de créer plusieurs réseaux pour séparer les utilisateurs et gérer les accès. Problème, des chercheurs montrent que cette isolation peut facilement voler en éclats, via trois méthodes. Ils ont testé 11 routeurs, 11 étaient vulnérables. Certains auraient corrigé le tir, d’autres ne le pourraient pas.

Lors du Network and Distributed System Security (NDSS) Symposium qui se tient du 23 au 27 février à San Diego, des chercheurs de l’université de Californie à Riverside et de la Katholieke Universiteit de Louvain (Belgique) ont présenté leurs travaux baptisés « AirSnitch : démystifier et briser l’isolement des clients dans les réseaux Wi-Fi ». Un papier technique a aussi été mis en ligne (.pdf).

Attention, on parle bien ici de l’isolation des utilisateurs sur un même point d’accès, pas de casser le chiffrement du Wi-Fi. Si le WEP est depuis longtemps obsolète, WPA2 AES (pas en version TKIP, cassé avec KRACK) et WPA3 tiennent encore. Rien ne change avec AirSnitch, les chercheurs ne s’attaquent absolument pas au chiffrement des données, qui reste intact.

Wi-Fi invité : faites comme chez vous… heu wait !!

Pour être mises en œuvre, les attaques décrites dans leur papier nécessitent que l’utilisateur puisse se connecter à la borne Wi-Fi, que ce soit sur le même SSID ou un autre, du moment que le point d’accès est le même. Mais c’est aussi plus large, suivant les configurations.

Les chercheurs ajoutent en effet que des attaques sont également possibles entre plusieurs points d’accès, « mais aussi réalisables dans les réseaux d’entreprise et de campus où plusieurs points d’accès sont connectés sur un même réseau filaire ». Une solution pour limiter les dégâts est de mettre en place des VLAN, à condition de bien le faire évidemment.

Pour le grand public et certaines petites entreprises, les risques peuvent donc être importants si vous avez, par exemple, un réseau « invité » largement accessible.

Des protections sont en théorie en place depuis longtemps : « Pour empêcher les clients Wi-Fi malveillants d’attaquer d’autres clients sur le même réseau, les fournisseurs ont introduit l’isolation des clients, une combinaison de mécanismes bloquant la communication directe entre les clients. Cependant, l’isolation des clients n’est pas une fonctionnalité standardisée, ce qui rend ses garanties de sécurité incertaines », expliquent les chercheurs en guise d’introduction.

AirSnitch : trois vecteurs d’attaques

Ils ont identifié trois principaux vecteurs permettant de casser l’isolation. La première vient « des clés Wi-Fi protégeant les trames de diffusion qui sont mal gérées et peuvent être détournées ». Il s’agit des clés GTK (Group Temporal Key) qui sont les mêmes pour tous les clients sur un même réseau.

Autre faiblesse : « l’isolation est souvent appliquée uniquement au niveau MAC ou IP, mais rarement aux deux ». Enfin, la dernière est la conséquence d’une « faible synchronisation de l’identité d’un client à travers toute la pile réseau », permettant d’usurper son identité sur la partie la plus faible du réseau pour ensuite la garder et capter le trafic.

Les chercheurs détaillent les risques qu’ils ont identifiés. Un attaquant pourrait accéder aux paquets IP, ce qui pourrait faciliter certaines attaques car « aujourd’hui encore, 6 % et 20 % des pages chargées sous Windows et Linux, respectivement, n’utilisent pas HTTPS […] Nos attaques permettent également l’interception de sites web ou de services intranet locaux, plus susceptibles d’utiliser des connexions en clair ». Et même si HTTPS est utilisé (les données ne sont pas déchiffrées via les attaques), « les adresses IP utilisées sont toujours révélées, ce qui est souvent suffisant pour savoir quel site web est visité ».

Comme un « attaquant peut intercepter et exploiter tout trafic en clair de la victime […], il peut intercepter le trafic DNS et empoisonner le cache DNS du système d’exploitation de la victime. Il peut également modifier l’enregistrement DHCP et changer l’adresse de la passerelle et le serveur DNS utilisés par la victime. Ces attaques peuvent avoir un impact durable sur la victime, même après que l’attaquant a cessé d’être un intermédiaire ».

Netgear, D-Link, TP-Link, Ubiquiti… plus d’une dizaine de routeurs vulnérables

Onze routeurs ont été testés et tous ont été vulnérables à au moins une des attaques : Netgear Nighthawk X6 R8000, Tenda RX2 Pro, D-Link DIR-3040, TP-Link Archer AXE75, ASUS RT-AX57, DD-WRT v3.0-r44715, OpenWrt 24.10, Ubiquiti AmpliFi Alien Router, Ubiquiti AmpliFi Router HD, LANCOM LX-6500 et Cisco Catalyst 9130. Pour ceux qui voudraient tenter eux-mêmes l’expérience (et qui ont du matériel compatible), du code est disponible dans ce dépôt GitHub.

Les chercheurs détaillent une attaque de bout en bout sur un routeur Netgear R8000. Il est configuré avec quatre SSID, deux invités et deux de « confiance », chacun sur les 2,4 et 5 GHz. Le routeur est connecté à Internet via un câble réseau.

L’attaquant est sur le réseau invité et veut lancer une attaque de type « homme du milieu » (MitM), afin d’intercepter tout le trafic montant et descendant d’une victime sur le réseau de « confiance ». « L’attaquant commence donc par se connecter au SSID invité avec l’adresse MAC de la victime, mais sur une fréquence différente afin d’éviter toute déconnexion ». On vous épargne la partie technique (page 10 de ce document .pdf) pour arriver à la conclusion.

Les techniques mises en place « amènent le point d’accès à rediriger le trafic descendant de la victime vers le SSID invité. L’attaquant renvoie ensuite le trafic intercepté à la victime grâce à la technique de rebond de passerelle. De même, il intercepte le trafic montant en usurpant l’adresse MAC du point d’accès (c’est-à-dire le routeur passerelle) et le renvoie au serveur de la victime. L’attaque complète dure environ deux secondes. Pendant toute la durée de l’attaque, la victime regarde une vidéo YouTube en streaming sans subir de latence significative ».

Ars Technica s’est entretenu avec le premier chercheur de la publication, Xin’an Zhou. Nos confrères ont glané quelques informations sur les réactions des constructeurs de bornes et points d’accès : « Zhou a indiqué que certains fabricants de routeurs avaient déjà publié des mises à jour atténuant certaines attaques, et que d’autres étaient attendues. Il a toutefois précisé que certains fabricants lui avaient confié que certaines failles systémiques ne pouvaient être corrigées qu’en modifiant les puces sous-jacentes qu’ils achètent auprès des fabricants de semi-conducteurs ». Nos confrères n’entrent pas davantage dans les détails.

À la fin de leur publication, les chercheurs affirment avoir « signalé les vulnérabilités aux fournisseurs concernés, ainsi qu’à la Wi-Fi Alliance. La Wi-Fi Alliance a pris acte de leurs conclusions et ils attendent sa décision ».

Prudence sur les Wi-Fi publics et invités… comme toujours

Côté utilisateur, pas grand-chose à faire si ce n’est faire preuve de prudence. Il faut déjà se méfier des points d’accès publics, mais donc aussi de ceux plus confidentiels. Éviter aussi de donner accès à un Wi-Fi invité à n’importe qui (on espère que vous n‘avez pas attendu cette actualité…).

Une autre solution, les VPN : « Une partie de la menace peut être atténuée en utilisant des VPN, mais cette solution présente tous les inconvénients habituels. D’une part, les VPN sont réputés pour la fuite de métadonnées, des requêtes DNS et d’autres trafics utiles aux attaquants, ce qui limite la protection. Et d’autre part, trouver un fournisseur VPN réputé et digne de confiance s’est avéré historiquement difficile, même si la situation s’est améliorée récemment. En fin de compte, un VPN ne devrait pas être considéré comme plus qu’un simple pansement », explique Ars Technica.

Il n’est pas forcément nécessaire de passer par un tiers, si vous avez une Freebox avec Freebox OS, elle peut faire office de serveur VPN Wireguard, vous permettant ainsi d’utiliser votre connexion Internet en déplacement, de manière sécurisée. Vous pouvez également utiliser un VPS pour y installer un serveur VPN, nous aurons prochainement l’occasion d’en reparler. Surtout, soyez prudent face aux petits et gros mensonges des vendeurs de VPN.

En pleine croissance, Jack Dorsey licencie 4 000 personnes chez Block au nom de l’IA

27 février 2026 à 09:49
Vous êtes le sel de la terre
En pleine croissance, Jack Dorsey licencie 4 000 personnes chez Block au nom de l’IA

Jack Dorsey a annoncé jeudi soir le licenciement de 4 000 personnes, soit 40 % des effectifs, chez Block, la société qui réunit notamment Square et Tidal. L’entrepreneur affirme qu’il n’a pas d’autre choix que de réorganiser son groupe autour d’équipes plus réduites assistées par des outils d’intelligence artificielle.

La décision risque de résonner de façon prophétique aux oreilles de tous ceux qui s’inquiètent de l’impact de l’IA générative sur le monde du travail : Jack Dorsey, cofondateur de Twitter et personnalité emblématique de la scène tech californienne, a publiquement annoncé, et expliqué, sa décision de licencier sans délai 4 000 personnes, soit 40 % de l’effectif total, de son groupe Block.

« Je préfère prendre une décision ferme et claire dès maintenant »

« Nous ne prenons pas cette décision parce que nous sommes en difficulté. Notre entreprise est solide. Notre marge brute continue de croître, nous servons toujours plus de clients et notre rentabilité s’améliore. Mais quelque chose a changé », écrit Jack Dorsey sur son ancien réseau social.

Ce quelque chose, c’est bien sûr l’intelligence artificielle :

« Nous constatons déjà que les outils d’intelligence que nous créons et utilisons, associés à des équipes plus petites et plus horizontales, permettent une nouvelle façon de travailler qui change fondamentalement ce que signifie construire et gérer une entreprise. Et ce phénomène s’accélère rapidement. »

Dorsey explique avoir été confronté à deux options : échelonner les licenciements « au fur et à mesure que ce changement se produit », ou « être honnête sur la situation » et donc agir en conséquence.

« Je préfère prendre une décision ferme et claire dès maintenant et construire sur des bases solides plutôt que de gérer une réduction progressive des effectifs pour atteindre le même objectif. Une entreprise plus petite nous offre également la possibilité de développer notre activité de manière optimale, selon nos propres conditions, au lieu de réagir constamment aux pressions du marché. »

S’il admet que procéder à une coupe franche d’une telle envergure « présente un risque », Dorsey se dit prêt à assumer sa décision, et appelle les employés épargnés à le suivre dans cette nouvelle configuration :

« Nous allons bâtir cette entreprise en plaçant l’intelligence au cœur de tout ce que nous faisons : notre façon de travailler, de créer et de servir nos clients. Nos clients ressentiront eux aussi ce changement, et nous les accompagnerons dans cette transition vers un avenir où ils pourront développer directement leurs propres fonctionnalités, à partir de nos capacités et accessibles via nos interfaces. C’est mon objectif actuel. »

Block s’envole à Wall Street

Block, qui avait déjà réalisé une belle journée en bourse jeudi (+ 5%) s’est envolée de 23 % dans les échanges après-marché, sans qu’on sache si l’appétit des investisseurs découle précisément de cette annonce choc, ou des excellentes performances affichées par le groupe.

L’entreprise a en effet publié jeudi soir les résultats financiers de son quatrième trimestre 2025 : elle fait état d’un chiffre d’affaires de 2,87 milliards de dollars, en hausse de 24 % sur un an, qui s’accompagne d’un bénéfice net de 485 millions de dollars sur le trimestre. Sur l’année, Block enregistre 10,36 milliards de dollars de chiffre d’affaires, une croissance de 17 % sur un an.

Dans la lettre aux actionnaires (PDF) qui accompagne cette publication, Jack Dorsey renouvelle et complète ses explications. Il y pronostique une vague de licenciements à très grande échelle dans toute l’industrie :

« Je pense que la plupart des entreprises sont en retard. D’ici un an, je crois que la majorité des entreprises arriveront à la même conclusion et procéderont à des changements structurels similaires. Je préfère y parvenir honnêtement et selon nos propres conditions plutôt que d’y être contraints par la force des choses. »

Block réunit pour mémoire Square (services financiers pour e-commerçants), Cash App (service de paiement mobile et d’envoi d’argent, sur le modèle d’un Wero), Afterpay (paiement fractionné et crédit à la consommation), Tidal (service de streaming musical lancé en 2015), Bitkey (portefeuille bitcoin) et Proto (minage de cryptomonnaies).

Datacenter de Wissous : peut-on débattre d’un projet lorsqu’il est divisé en 3 morceaux ?

27 février 2026 à 09:31
Data center de centre ville
Datacenter de Wissous : peut-on débattre d’un projet lorsqu’il est divisé en 3 morceaux ?

À Wissous, depuis 2019, la société CyrusOne crée un data center pour le compte d’Amazon. La manière dont le projet a été proposé, divisé en trois phases sans en informer par avance le public, suscite les contestations de la mairie comme de l’opposition.

L’installation est vaste, grise sous le ciel gris, à l’exception d’une petite extension vert foncé, du côté des habitations. Quand on en fait le tour, on se retrouve devant les multiples portes roulantes qui marquent le lieu où des camions auraient dû, initialement, venir se ranger le temps de se délester de leur chargement. Tout autour : des grillages, dédoublés par endroits. Pour l’œil non averti, le bâtiment ressemble à n’importe quel entrepôt. Pour Philippe de Fruyt et Jean-Luc Touly, qui nous en font faire la visite, il s’agit d’un centre de données mal placé.

Conseiller municipal de la ville de Wissous, le premier s’oppose au projet depuis qu’il en a appris l’existence, quelques semaines à peine avant les élections municipales de 2020. Initialement dans la majorité de la localité de 7 000 habitants, le second l’a rejoint au sein de la liste d’opposition Wissous notre ville. Depuis le QG de campagne – un garage au fond du jardin de Philippe de Fruyt, qui présente sa candidature à la mairie de Wissous pour la troisième fois –, les deux hommes reviennent sur l’histoire politique mouvementée de leur ville, et la manière dont un centre de données destiné à recevoir les serveurs du géant états-unien Amazon, s’y est retrouvé mêlé.

Parmi leur auditoire, en ce matin neigeux de janvier, trois membres de l’association Data for Good. Alors que Wissous notre ville est en contentieux avec CyrusOne depuis plusieurs années, l’association, qui souhaite « mettre le numérique au service de l’intérêt général », l’a rejointe dans sa procédure en appel. Le but, explique sa co-présidente Lou Welgryn à Next : « mettre en lumière une pratique qui se généralise dans la manière dont les data centers s’implantent en France ». Pour les plaignants, CyrusOne a en effet divisé son projet en trois phases taillées exprès sous les différents seuils de contrôle imposés par le code de l’environnement.

Enjeux économiques contre débat citoyen

Diviser un projet de centre de données en étapes de construction n’a rien d’inhabituel, pointe le sociologue Clément Marquet. « Les opérateurs l’expliquent en langage économique, ils parlent de time to market : quand ils identifient un terrain, ils veulent pouvoir fournir un premier data center le plus vite possible. » Dans ces conditions, cela dit, leurs clients ne rempliront pas directement les surfaces complètes envisagées.

Au Sud-Est de la capitale, Fouju héberge par exemple l’un des cinq sites « fast tracks » identifiés par le gouvernement. Lors de la consultation publique organisée par le gestionnaire du réseau de transport d’électricité RTE et le porteur de projet Campus IA, ce dernier a ainsi détaillé comment un premier investissement de 8 milliards d’euros devrait permettre de construire les équipements mutualisés, obtenir ce premier raccordement de 700 MW (plus de 7 fois la puissance envisagée pour le projet de Wissous), et construire trois premiers centres de données.

Le nombre d’étapes qui doit permettre au projet d’atteindre son amplitude finale (annoncée à 50 milliards d’euros d’investissements et 1,4 GW de puissance) dépendra « des capacités effectivement mises à disposition et de la demande », expliquait alors le directeur de Campus IA Thibaud Desfossés.

Si la pratique a « beaucoup d’avantages pour les opérateurs », admet Clément Marquet, elle crée « un effet de déni de démocratie ». La consultation publique paraît « nécessairement favorable : elle ne permet pas de débattre, juste de prévoir les améliorations techniques qui apaiseront les riverains ». Par ailleurs, le phasage des projets empêche « d’évaluer leurs impacts environnementaux dans leur intégralité, développe Lou Welrgyn, ce qui rend beaucoup plus difficile l’information des citoyens sur ces sujets ».

Absence de transparence

Dans le cas de Wissous, l’image que dessinent Philippe de Fruyt et Jean-Luc Touly est encore plus complexe. D’après la propre documentation de CyrusOne, l’entreprise américaine a obtenu en 2020 « un permis de construire, en conformité avec la loi et la réglementation françaises, permettant l’installation d’une seule salle informatique fournissant 4,5 MW de capacité IT sur 1 810 m² d’espace technique ». Dans son rapport financier du quatrième trimestre 2020, outre un bail de location de 25 ans pour un site de 5 hectares situé à Paris, CyrusOne citait justement le développement de la première phase d’un centre de données entièrement pré-loué.

Mais à la ville de Wissous, aucune information n’avait filtré sur le projet avant qu’une alerte ne parvienne à Philippe de Fruyt et que celui-ci décide de l’évoquer publiquement en amont des élections municipales de 2020. « Avant de faire de la politique, j’ai eu une carrière dans l’industrie », explique celui qui a passé l’essentiel de sa carrière chez l’équipementier automobile Valeo. « J’y ai appris que quand vous avez un bon projet, vous le faites savoir. »

Un « bon projet » pourrait par exemple désigner un centre de données construit par un acteur américain majeur à l’heure où la transformation numérique est dans toutes les bouches, continue l’homme politique. Ou encore un centre de données qui serait implanté dans la zone industrielle de Wissous, sous l’égide d’une mairie dont l’agenda politique s’articule notamment autour de la promotion des projets entrepreneuriaux. « Quand personne ne sait rien, contrebalance Philippe de Fruyt, ça sent mauvais. »

Dans les mois qui suivent les élections, la gestion municipale devient houleuse. Richard Trinquier est bientôt remplacé par Florian Gallant, qui se retrouve en position de gérer le dossier du centre de données. En 2021, « ô surprise, Cyrus One nous annonce qu’il existe un projet d’extension à 49,5 MW », exposait Jean Luc Touly dans une vidéo publiée sur Facebook en 2023. Alors qu’il raconte à nouveau l’affaire à l’association Data for Good, le wissoussien s’arrête à nouveau sur ce chiffre qui le fait visiblement rire jaune.

À ses yeux, chacune des étapes du projet de Cyrus One a en effet promis d’atteindre une puissance à peine inférieure à différents seuils de contrôle fixés par le code de l’environnement. Dès 2022, le Journal du Net révèlait pourtant qu’Amazon Web Services, la filiale cloud d’Amazon, prévoyait d’occuper 100 % de ce projet qui, à terme, devait représenter « 15 000 m2 de salles informatiques pour une puissance de 83 MW ».

Trois paliers d’installations classées pour la protection de l’environnement

Car le code de l’environnement est clair : selon la puissance envisagée, le processus de déclaration et les obligations de consultation de la population ne sont pas les mêmes.

Sous les 20 MW de puissance, les opérateurs d’installations classées pour la protection de l’environnement (ICPE) peuvent se contenter de soumettre une déclaration à l’administration avant de lancer leur projet. Entre 20 et 50 MW, le projet doit être enregistré auprès de la préfecture, qui lancera alors un audit environnemental formel, et s’accompagne d’une mise à disposition, en mairie, du dossier et d’un registre des observations du public. Au-dessus des 50 MW, en revanche, les ICPE sont soumis à des processus plus complexes d’autorisation, qui impliquent notamment des audits environnementaux et l’organisation d’une consultation publique plus poussés.

« Depuis le début, l’objectif est de ne passer que par les régimes de déclaration et d’enregistrement pour éviter d’être repérés », estime auprès de Next un haut fonctionnaire de l’autorité environnementale interrogé sur les pratiques de CyrusOne à Wissous. « Ensuite, c’est comme d’autres projets industriels, comme pour l’autoroute A69 : quand le chantier est très engagé, ça devient difficile de revenir en arrière. Le juge dira que c’est un fait acquis. Certes, ils formulent une demande d’extension, mais on ne va pas aller implanter le projet ailleurs, on va plutôt conforter ce qui existe. »

Lorsque CyrusOne présente son projet de phase 2, une augmentation qui lui permettrait de créer deux nouvelles salles informatiques, le maire refuse, dans un arrêté du 18 août 2021, le permis de construire nécessaire. « Selon notre Plan local d’urbanisme (PLU), il n’y avait pas le droit de créer d’ICPE de plus de 20 MW dans cette zone » , déclare son successeur, Cyrille Telman. Comme le document date de 2005, et que le code de l’environnement a depuis créé la possibilité d’en développer par enregistrement, « c’est-à-dire, de notre point de vue, par procédure simplifiée », CyrusOne argumente qu’elle avait malgré tout le droit de s’installer dans l’entrepôt du 1, boulevard Arago.

L’entreprise se tourne donc vers la préfecture, avec qui le maire de l’époque, Floriant Gallant, « a des rendez-vous quasiment toutes les semaines », explique Cyrille Telman. « On voit bien, à l’époque, que la puissance étatique pousse pour qu’on accepte le projet. » CyrusOne et la préfecture en appellent à la justice administrative, qui tranche en faveur de la société états-unienne.

Wissous la Ville, désormais rejoint par Data for Good, se pourvoit en appel, argumentant notamment que l’entreprise aurait dû annoncer dès le départ son projet de data center complet, ce qui l’aurait soumis au processus le plus strict de demande d’autorisation pour une ICPE. Parmi les éléments, l’association locale verse au dossier une lettre consultée par Next et adressée par les conseillers de Cyrus One à la mairie de Wissous. En date du 14 octobre 2021, ces derniers soulignent « qu’à la suite de nombreux échanges avec la mairie de Wissous, la société CyrusOne Paris s’est engagée sur le long terme auprès de son bailleur et a réalisé de très lourds investissements concernant les différentes phases du projet (52 millions d’euros pour la seule phase 1). Ces investissements ne pourront pas être amortis si les phases 2 et 3 du projet ne sont pas mises en œuvre. En outre, la commercialisation de l’ensemble du projet étant aujourd’hui achevée, les risques de pertes financières se chiffrent en centaines de millions d’euros ».

S’ils soulignent, donc, que la rentabilité ne pourra être atteinte que grâce à la complétion du centre de données entier, ils indiquent aussi, plus loin, que « chaque phase du projet, prise isolément, est conforme aux règles d’urbanisme ». « Quand on s’appuie sur la loi » et sur la manière dont Wissous avait construit son PLU, estime Cyrille Telman, « on ne comprend pas que leur projet soit possible ». Contacté, CyrusOne indique ne pas être « en mesure de donner suite à des demandes d’interview ».

Emplacement inadéquat pour récupérer la chaleur fatale

Outre ces enjeux de divisions en phase, « ce qui choque les gens, c’est l’impossibilité de récupérer la chaleur fatale » produite par le fonctionnement des serveurs, explique Philippe de Fruyt. Dans le bras de fer qui a opposé la mairie à CyrusOne, Florian Gallant a bien obtenu quelques garanties environnementales, mais sur la question de la chaleur fatale, son successeur regrette que cela ne se traduise que par « l’installation d’une vanne. Dans d’autres villes, à Marcoussis, à Nozay [deux villes où s’est implanté l’opérateur français Data4, ndlr], les opérateurs jouent le jeu et participent à l’installation de l’infrastructure » sans laquelle la mise à disposition de la chaleur supplémentaire émise par les serveurs ne pourra de toute manière pas être réutilisée par la collectivité.

Emplacement du Data Center de CyrusOne dans Wissous / Capture d’écran OpenStreeMap

Le bâtiment dans lequel s’est installé CyrusOne est par ailleurs construit très près du cœur de ville. En face de l’édifice, le long de la rue André Dolimier, s’enchaînent un terrain de pétanque, un stade, un accueil de mineurs. Alors qu’on continue vers l’est, vers la rue Louis Boussard, deux maisons apparaissent, qui semblent installées sur le même terrain que le centre de données. Un peu plus loin, la façade arrière de la crèche les P’tits Loups, déplacée début 2026, se repère entre deux habitations.

« L’emplacement est mal choisi », résume Jean-Luc Touly. De l’autre côté de l’autoroute qui sépare une mince zone, au nord-ouest, du reste de la commune de Wissous, « il y a un autre site, sous une ligne électrique de 220 kV ». S’il avait été localisé là, le centre « n’aurait pas été proche de la population, mais plus proche de la ville voisine d’Antony, qui dispose d’un réseau de chauffage urbain » pour lequel la vanne de CyrusOne aurait facilement trouvé un débouché. Pour l’association Wissous la ville, c’est là que la ferme de serveurs devrait être installée. Sur place, en revanche, il n’existe pas d’entrepôt déjà construit comme celui que Cyrus One a pu récupérer boulevard Arago. « Or, fait remarquer le maire, une réhabilitation et une création d’entrepôt, cela n’est pas soumis aux mêmes normes. »

Au niveau local, alors que les élections municipales se profilent, Philippe de Fruyt voudrait faire du data center l’un des sujets de la campagne. Cyrille Telman, lui, constate que le sujet « ne vient pas dans la bouche des gens. Quand on fait du porte-à-porte, ils nous parlent du quotidien, de la crèche, mais pas de CyrusOne. » La question, finalement, porte peut-être plus auprès d’organisations implantées au niveau national.

Ce 30 janvier, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff saluait ainsi l’identification de 63 sites adaptés à l’implantation de centres de données, dont plus du tiers (26) sont d’ores et déjà alloués à un porteur de projet. Au total, indiquent les services du ministère de l’Économie, la « puissance électrique recherchée atteint 28,6 GW ». Alors qu’elle quitte un Wissous enneigé, Lou Welgryn, elle, se demande : « Pourquoi est-ce qu’on a besoin d’autant de puissance de calcul ? » Et d’espérer que « l’exemple concret et local » du centre de données installé à Wissous permette d’ouvrir le débat. Rendez-vous à la date de l’audience, le 19 mars, pour continuer la discussion.

☕️ NVIDIA retire en urgence ses pilotes 595.59 WHQL

27 février 2026 à 09:00

Comme le rapporte Videocardz, suite à la mise en ligne des pilotes 595.59 WHQL par NVIDIA, plusieurs utilisateurs remontent des soucis au niveau de la gestion des ventilateurs, principalement sur les cartes GeForce RTX 50 : « Les utilisateurs affirment que certains ventilateurs cessent de répondre, que les courbes personnalisées des ventilateurs sont ignorées, ou qu’un seul capteur apparaît dans des outils comme HWiNFO, GPU-Z et les utilitaires des fabricants », expliquent nos confrères.

Ce n’est pas tout. D’autres utilisateurs pointent du doigt « une baisse du boost après la mise à jour. Les utilisateurs rapportent des fréquences de pointe plus faibles et suggèrent que le pilote limite la tension GPU à environ 0,95 V », avec pour conséquence de limiter la fréquence sur certaines cartes. Les retours sont nombreux sur les forums de NVIDIA.

Dans la foulée de la mise en ligne, NVIDIA a retiré les pilotes et demande à ses utilisateurs qui rencontrent des soucis d’effectuer un retour en arrière sur la précédente version, comme indiqué dans une mise à jour des notes de version : « Nous avons découvert un bug dans les pilotes WHQL Game Ready et Studio 595.59 et avons temporairement supprimé les téléchargements pendant que notre équipe enquête. Pour les utilisateurs qui ont déjà installé ce pilote et rencontrent des problèmes de contrôle des ventilateurs, veuillez revenir à 591,86 WHQL ».

Les notes de version des 595.59 renvoient désormais vers une page vide.

Face aux projets de centres de données, des résistances s’organisent

27 février 2026 à 08:30
Qui définit la trajectoire ?
Face aux projets de centres de données, des résistances s’organisent

Alors que des contestations émergent autour de plusieurs projets de centres de données en France et ailleurs, des associations tentent de se saisir de ces occasions de visibilisation de l’infrastructure numérique pour ouvrir un débat sur la trajectoire technologique.

« Méga datacenter, incinérateur, c’est non ! » À Vitry-sur-Seine, dans le Val-de-Marne, le remplacement d’un dépôt pétrolier inutilisé depuis 15 ans par un centre de données fait partie des deux grands sujets que la liste Vitry Unie et populaire (divers gauche) veut mettre au cœur des débats en amont des municipales.

« Un tel centre de données, ça a une énorme emprise territoriale, ça implique énormément de consommation d’eau, d’électricité, ça crée très peu d’emplois », liste Merlin Gautier-Marchand, du collectif Pour une écologie populaire et sociale (PEPS), auprès de Next.

Ce 15 février, les collectifs de défense de l’environnement 3R, Pour une écologie populaire et sociale (PEPS) et Soulèvements de la Terre se mêlaient à Vitry Unie et populaire pour protester contre deux projets industriels perçus comme similaires.

« L’incinérateur, il va permettre de chauffer les Parisiens, mais créer de la pollution pour Vitry, continue Merlin Gautier-Marchand. Dans les deux cas, il s’agit de bâtiments qui vont servir la capitale, c’est-à-dire servir des intérêts qui n’ont rien à voir avec ceux des Vitriotes. »

La préoccupation résonne avec celle d’habitantes de Fouju, village de Seine-et-Marne où doit s’installer Campus IA, le plus gros projet français de centre de données. « On a l’impression d’être les poubelles de Paris, déclarait en novembre une riveraine, Christine Scialom. D’abord on se prend les centres d’enfouissement, ensuite les entrepôts de logistique, et maintenant les data centers. »

Elle résonne, aussi, avec des mobilisations qui s’organisent ailleurs en France, comme dans le monde. Au Chili, aux États-Unis, au Brésil, en Inde et ailleurs, portées tantôt par des collectifs locaux, tantôt par des associations nationales, de défense de l’environnement ou des droits numériques, voire par des représentants politiques, des contestations émergent autour de la création de nouveaux centres de données.

Oppositions territorialisées

Next a étudié ce phénomène en partenariat avec l’Environmental Reporting Collective (ERC), un collectif international d’enquête sur les enjeux environnementaux. Derrière ces protestations apparaissent régulièrement des questionnements sur la trajectoire générale de l’industrie technologique et de celle de l’intelligence artificielle. En France, le sujet est porté tantôt par des collectifs locaux, tantôt par des organisations nationales.

Ils s’appellent Le nuage était sous nos pieds du côté de Marseille, Data for Good à Paris, deux collectifs à l’appétence particulière pour les enjeux du numérique. À l’instar de PEPS, des Soulèvements de la Terre, d’Attac ou d’Alsace Nature, ils sont aussi issus de groupes préoccupés avant tout par les questions environnementales. Dans certains cas, comme à Vitry, des groupements politiques s’emparent aussi du sujet. Ainsi des Écologistes face aux projets de Data One à Eybens et Villefontaine (Isère) ou de La France Insoumise face à celui de Google, à Châteauroux (Indre), entre autres exemples.

Pour autant, ces combats restent « très territorialisés » estime le sociologue Irénée Regnauld, co-auteur de Technologie partout, démocratie nulle part, Plaidoyer pour que les choix technologiques deviennent l’affaire de tous (FYP, 2020). L’expansion de l’industrie de l’intelligence artificielle, et celle des centres de données qui permettent d’en faire tourner les serveurs et stocker les données, a beau être planétaire, « il faut être très proche » d’un centre en particulier, « ou très nerd », pour vraiment s’intéresser au sujet.

Du côté d’InfraNum, qui fédère des acteurs de toute la chaîne de valeur de l’infrastructure numérique, « le maillage du territoire, y compris avec des centres de données de toute petite taille » est même un but en soi, explique sa présidente Ilham Djehaïch. L’idée est d’être « proche des clients, que ceux-ci soient des collectivités, des TPE, des PME ou autre », ce qui implique d’avoir « beaucoup de bâtiments, très intégrés dans le paysage ».

Cette intégration explique certainement que dans la majorité des cas recensés par le collectif Le Nuage était sous nos pieds, la cohabitation se passe correctement. Même dans les lieux où elle est plus complexe, comme à Wissous, ville de 7 000 habitants aux prises avec un projet porté par l’américain CyrusOne, le sujet « ne vient pas dans la bouche des gens » pendant les échanges en prévision des élections municipales, explique le maire sortant Cyrille Telman. Une situation un peu différente de ce qui commence à percer aux États-Unis, où l’acceptabilité des centres de données est quelquefois qualifiée de « grand unificateur », dans la mesure où des soutiens de Donald Trump et des électeurs démocrates s’allient pour s’opposer à certains projets.

Rendre visible l’infrastructure numérique

À Marseille, cela dit, c’est précisément parce qu’« il nous semblait que l’enjeu de la territorialisation des data centers était assez peu interrogée » que le collectif Le Nuage était sous nos pieds s’est formé, explique Antoine, l’un de ses membres. La ville phocéenne a ceci de stratégique qu’elle sert de point d’arrivée à 18 câbles sous-marins et permet, au nord, de les relier aux FLAP, l’acronyme utilisé dans l’industrie pour désigner Francfort, Londres, Amsterdam et Paris.

« Le travail du collectif, c’est vraiment de rendre matérielles ces infrastructures numériques qui sont devenues des espèces d’appendices de nos vies, explique Lena, une autre membre du collectif, dans un épisode de notre podcast Entre la chaise et le clavier. Aujourd’hui, en particulier avec l’IA, ce sont des choses qui se développent énormément, mais dans la plus grande opacité pour le grand public. »

« L’idée, c’est de donner des clés aux citoyens », abonde la coprésidente de Data for Good Lou Welgryn. À défaut, la population découvre souvent les projets « quand il commence à y avoir des pelleteuses », illustre Irénée Regnauld, ce qui empêche toute possibilité de réel débat.

Loin d’être propre à la France, cette logique se retrouve par exemple en Thaïlande, où la population de la province de Chonburi, déjà en concurrence avec certains acteurs industriels pour l’accès à l’eau, a peu d’informations sur les projets de centres de données qui viendront, eux aussi, pomper dans les réserves disponibles.

Selon le décompte de nos partenaires, la région abrite déjà quatre centres de données et 11 projets ont été signés. Les agriculteurs locaux, eux, témoignent déjà des difficultés à maintenir leurs activités pendant les longs étés caniculaires.

Au Brésil, le projet de complexe de data center « AI City », dans la ville d’Eldorado do Sul, a été validé par le ministère de la mine et de l’énergie, qui prévoit une augmentation de 20 % de la demande électrique actuelle en période de pointe dans la région Sud. Interrogés par nos partenaires de l’ERC, des habitants qui découvrent le projet le qualifient de « terrible », dans la mesure où ils subissent déjà de fréquentes coupures d’électricité.

« Cela aurait pu se passer autrement »

Dans l’hexagone, si le réseau public de transport d’électricité RTE appelle à accélérer l’électrification des usages pour absorber la production énergétique nationale, les projets de centres de données n’en créent pas moins certains conflits d’usage au niveau local.

À Marseille, des élus écologistes ont demandé un moratoire sur les nouveaux bâtiments : leur réservation d’électricité freine d’autres travaux, comme celui de l’électrification des quais du port, qui permettrait de réduire la pollution émise par les ferries.

L’enjeu, pour des associations comme PEPS, est aussi de sensibiliser à ce que l’ensemble de la chaîne de production provoque. « On organise beaucoup la mobilisation autour du Congo, explique Merlin Gautier-Marchand, parce que la construction des serveurs exige beaucoup d’or et de coltan », des matériaux extraits dans des conditions dramatiques – en 2023, Amnesty International calculait qu’environ 40 000 enfants travaillaient dans les mines de Cobalt, notamment autour de la ville de Kolwezi.

La trajectoire technologique générale répond pour le moment à « des choix du capitalisme numérique, qui y a vu une manière de faire du profit », résume Antoine du Nuage était sous nos pieds, notamment en multipliant les fermes de serveurs. « Mais cela aurait pu se passer autrement, c’est pourquoi il nous semble important de faire émerger les conditions d’un débat sur notre modèle numérique. »

Une fuite chez un éditeur de logiciels médicaux expose 11 à 15 millions de Français

27 février 2026 à 08:21
Une fuite chez un éditeur de logiciels médicaux expose 11 à 15 millions de Français

Cegedim Santé a admis jeudi soir avoir été victime d’une intrusion réalisée au travers de son logiciel de santé MonLogicielMedical.com. Révélée par le 20 heures de France 2, la fuite de données pourrait toucher entre 11 et 15 millions de Français. Elle ne concernerait cependant que le dossier administratif des patients, et non leurs dossiers médicaux.

« Dans les zones obscures du web, le secret médical est désormais un secret de polichinelle pour des millions de patients », attaque la voix-off. Dans sa séquence L’Œil du 20 heures, diffusée jeudi soir, France 2 a révélé avoir consulté une base de données émanant d’une intrusion réalisée chez un éditeur de logiciels médicaux. Le fichier en question aurait été disponible « en libre accès », et contiendrait des informations « exposant entre 11 et 15 millions de personnes, selon notre estimation ».

Un copieux fichier émaillé de données à caractère médical

France 2 ne précise pas comment le décompte du nombre de personnes exposées et l’éventuelle déduplication ont été opérés. Le reportage met en revanche en scène la vérification de certaines de ces données : on voit ainsi l’une des journalistes de l’équipe appeler au téléphone une femme dont les informations figurent dans le fichier. Sans surprise, celle-ci manifeste son étonnement à l’idée que son traitement médical circule sur Internet.

Le sujet affirme que « dans certains cas », la base de données consultée « fait état du dossier médical du patient », avec ce qui ressemble à des annotations laissées par le médecin. Certaines de ces informations revêtent un caractère très personnel avec allusion à la sexualité, à l’état de santé, à la religion ou à des événements familiaux.

« Des personnalités politiques de premier plan sont également présentes dans cette base, à l’image de potentiels candidats à l’élection présidentielle, de hauts fonctionnaires et de responsables de la sécurité nationale », indique encore France 2, qui affirme avoir échangé avec l’auteur du partage du fichier en question et affiche son pseudonyme.

La publication d’origine, qui proposait donc le fichier en accès libre, a été supprimée suite à la diffusion du sujet de France 2, mais un compte qui se revendique du groupe Dumpsec propose toujours, à la vente cette fois, la base de données en question. L’auteur de ce nouveau post affirme d’ailleurs qu’il dispose d’un volume de données nettement plus conséquent que l’extrait qui a été diffusé en accès libre un peu plus tôt.

Cegedim confirme une intrusion

La base de données en question provient, selon les auteurs, de Cegedim, un éditeur de progiciels spécialisé, notamment, dans les solutions à destination des professionnels de santé. Celui-ci a réagi jeudi soir à la diffusion du sujet de France 2. Dans un communiqué (PDF), il indique avoir identifié, fin 2025, « un comportement anormal de requêtes applicatives sur des comptes médecins utilisateurs du logiciel MLM (MonLogicielMedical.com) ». Ce dernier est utilisé par 3 800 médecins en France, et 1 500 d’entre eux seraient concernés par l’attaque.

« Tous les médecins concernés ont été contactés début janvier et accompagnés s’ils le souhaitaient, par des équipes dédiées, dans leurs démarches de notification à la CNIL et d’information de leurs patients conformément à leurs obligations de responsable de traitement au sens du RGPD », écrit Cegedim, qui affirme par ailleurs avoir pris toutes les mesures nécessaires pour sécuriser son logiciel, et respecté les obligations réglementaires qui lui incombent en pareille situation.

L’éditeur récuse cependant l’information selon laquelle des dossiers médicaux ont été accédés : « Les dossiers médicaux structurés des patients sont restés intègres. » D’après lui, les informations consultées ou extraites par les pirates « proviennent exclusivement du dossier administratif du patient : nom, prénom, sexe, date de naissance, téléphone, adresse, email et commentaire administratif en texte libre à la discrétion des médecins ». C’est donc de ce champ commentaire que proviendraient les détails parfois intimes évoqués par France 2 dans son sujet.

Fin 2024, Cegedim avait été épinglé par la Cnil pour traitement de données de santé sans autorisation au sein d’un autre de ses logiciels de gestion.

☕️ Anthropic ne cède pas aux pressions du Pentagone pour utiliser Claude sans restriction

27 février 2026 à 07:59

Dario Amodei, le CEO d’Anthropic, dit non au Pentagone. En début de semaine, le secrétaire d’État à la Guerre de l’administration Trump, Pete Hegseth avait posé un ultimatum à Anthropic : l’entreprise avait jusqu’à ce vendredi pour lever les conditions d’utilisation de son modèle d’IA générative Claude qu’elle impose au Pentagone.

Si elle ne le faisait pas, elle serait mise au ban des fournisseurs de l’armée états-unienne et l’armée pourrait quand même utiliser ses modèles en passant outre ses conditions.

Ce jeudi 26 février, Anthropic a publié un message signé par Dario Amodei. Celui-ci indique que son entreprise n’a « jamais soulevé d’objections à l’égard d’opérations militaires particulières ni tenté de limiter l’utilisation de notre technologie de manière ponctuelle ». Mais, il ajoute : « dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ».

Et il en énumère deux : la surveillance de masse à l’échelle nationale (aux États-Unis) et les armes totalement autonomes.

Ainsi, il pointe le fait qu’« une IA puissante permet d’assembler [des] données dispersées et individuellement inoffensives pour former une image complète de la vie de n’importe quelle personne, automatiquement et à grande échelle ». La précision de l’échelle nationale laisse entendre qu’Anthropic n’est pas opposée à l’utilisation de son IA pour surveiller des personnes vivant en dehors des États-Unis.

Concernant l’utilisation de l’IA générative d’Anthropic pour automatiser l’usage des armes, Dario Amodei affirme que « les armes partiellement autonomes, telles que celles utilisées aujourd’hui en Ukraine, sont essentielles à la défense de la démocratie ». Et ne se dit pas, par principe, contre son utilisation pour des armes totalement autonomes, affirmant qu’elles pourraient même « s’avérer essentielles pour [la] défense nationale [des États-Unis] ». Mais il ajoute que, « aujourd’hui, les systèmes d’IA de pointe ne sont tout simplement pas assez fiables pour équiper des armes entièrement autonomes ». Et d’affirmer : « Nous ne fournirons pas sciemment un produit qui mettrait en danger les combattants et civils américains ».

Le patron d’Anthropic se montre inflexible face au Pentagone : « les menaces ne changent en rien notre position : nous ne pouvons en toute conscience accéder à leur demande ». Et d’assurer que si le Département de la Défense des États-Unis décide de se séparer d’Anthropic, l’entreprise fera « tout [son] possible pour assurer une transition en douceur vers un autre fournisseur, afin d’éviter toute perturbation des opérations militaires, des missions en cours ou d’autres missions critiques ».

Plus tôt, le porte-parole du Pentagone, Sean Parnell, avait affirmé sur X : « le département de la Guerre n’a aucun intérêt à utiliser l’IA pour surveiller en masse les Américains (ce qui est illégal) et nous ne voulons pas non plus utiliser l’IA pour développer des armes autonomes qui fonctionnent sans intervention humaine ».

☕️ Android 17 débarque en beta 2, avec des bulles, un EyeDropper, de la Proximity Detection…

27 février 2026 à 07:40

Deux semaines après la mise en ligne de la première version bêta d’Android 17, Google remet le couvert. Plusieurs nouveautés sont mises en avant. Pour la partie interface et expérience utilisateurs, les « bulles » arrivent. Cette fonctionnalité, distincte de l’API des bulles de messagerie (arrivée avec Android 11), permet de passer une application en mode fenêtre.

« Les utilisateurs peuvent créer une bulle d’application sur leur téléphone, leur appareil pliable ou leur tablette en maintenant longuement enfoncée une icône d’application dans le lanceur ». Un exemple ci-dessous avec l’Agenda.

Le billet de blog associé propose plusieurs animations présentant le fonctionnement des nouvelles fonctionnalités. Pour les développeurs d’applications, de la documentation est disponible ici.

Passons ensuite à EyeDropper. C’est une API au niveau du système qui « permet à votre application de demander la couleur de n’importe quel pixel de l’écran sans nécessiter d’autorisations sensibles pour capturer l’écran ».

Plusieurs autres petits changements sont apportés sous le capot, notamment pour le sélecteur de contacts qui permet d’accorder des autorisations temporaires (au niveau de la session) en lecture aux seuls champs de données demandés par l’utilisateur, une meilleure prise en charge des pavés tactiles, etc.

Pour la connectivité inter-appareils, Google annonce « une nouvelle API Handoff permettant de spécifier l’état de l’application à reprendre sur un autre appareil, comme une tablette Android ». Sur la partie Ultra Wide Band, « UWB DL-TDOA qui permet aux applications d’utiliser UWB pour la navigation intérieure ».

Côté Wi-Fi, la fonctionnalité Proximity Detection de la Wi-Fi Alliance est prise en charge. « Cette technologie offre une fiabilité et une précision accrues par rapport aux spécifications de portée existantes basées sur le Wi-Fi Aware », qui permet aux appareils compatibles de communiquer directement entre eux.

Google continue de viser un rythme annuel pour la sortie majeure de son SDK (chaque deuxième trimestre), accompagné d’une mise à jour au quatrième trimestre. L’entreprise est confiante dans le calendrier : « Nous allons rapidement passer de cette bêta à notre jalon Platform Stability prévu pour mars », c’est le moment où les API seront figées pour permettre aux développeurs de s’adapter.

La compatibilité des smartphones est la même que précédemment : les Pixel de Google à partir des versions 6. Tous les détails se trouvent sur ce site dédié à Android 17.

☕️ Arcom : nouvelle série de mesures de blocage de médias russes sous sanctions

26 février 2026 à 16:10

L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a annoncé jeudi avoir prononcé une nouvelle série de mesures de blocage et de déréférencement portant sur 35 sites de médias russes soumis à des sanctions européennes.

Adressées aux fournisseurs d’accès à Internet, aux moteurs de recherche et aux fournisseurs de services DNS, ces mesures concernent également « quatre plateformes de streaming permettant d’accéder à des services de télévision et de radio russes sous sanctions », indique l’Autorité dans un communiqué.

Le détail des médias et plateformes n’a pas été rendu public. L’Arcom souligne cependant qu’il s’agit de sa troisième salve de demandes en moins d’un an. En mars 2025, elle avait en effet mis en demeure Eutelsat d’arrêter la diffusion des chaînes russes STS et Kanal 5, appartenant toutes les deux à la société russe JSC National Media Group.

En juillet 2025, elle avait ensuite ordonné le blocage et le déréférencement de 19 sites de médias russes ainsi que de trois plateformes hébergées en Russie.

Rappelons que ces mesures sont prises en vertu des règlements européens qui définissent le régime de sanctions adoptées à l’encontre de la Russie suite à sa tentative d’invasion de l’Ukraine.

La première et la plus symbolique d’entre elles avait été adoptée en 2022, avec l’interdiction, controversée à l’époque, des chaînes Russia Today (RT) et Sputnik. Plusieurs autres chaînes russes (NTV Mir, Rossiya 1, Perviy Kanal et NTV) ont depuis elles aussi fait l’objet de mesures de blocage.

☕️ Les projets de data centers au Royaume-Uni atteignent 50 GW de puissance électrique

26 février 2026 à 16:00

Au Royaume-Uni, les 140 projets de centres de données en cours d’examen pourraient demander jusqu’à 50 GW (gigawatts) d’électricité pour fonctionner. L’estimation est issue d’une consultation (.pdf) menée par l’Ofgem, le régulateur britannique des marchés du gaz et de l’électricité.

Les demandes de projets ont explosé en l’espace de quelques mois : de 41 GW en novembre 2024, le total des demandes de raccordement a grimpé à 125 GW en juin 2025. Dans le lot, 40 % viennent de l’industrie des centres de données.

Cette accélération soulève un enjeu de puissance électrique disponible. « La demande en crête d’électricité en Grande-Bretagne le 11 février 2026 était de 45 GW », indique l’Ofgem. Les demandes enregistrées prévoient donc d’ajouter jusqu’à 125 GW, dont 50 GW pour les seuls data centers. Ces chiffres concernent une puissance maximale : la réalité devrait se traduire par une consommation globale moins élevée, ne serait-ce que parce que tous les projets ne verront pas le jour. La marche à franchir n’en reste pas moins haute.

L’organisme souligne une « explosion des demandes » de connexions au réseau entre novembre 2024 et juin 2025, dans une proportion qui a dépassé jusqu’aux prévisions les plus ambitieuses, rapporte the Guardian. En parallèle, le média relève que des projets de production d’énergie renouvelable ne sont pas reliés au réseau au rythme auquel ils sont construits (notamment pour atteindre les objectifs climatiques du pays à l’horizon 2030).

Devant l’afflux, le régulateur évoque par ailleurs une problématique de délais à rallonge. Et souligne qu’il « n’existe aucun mécanisme pour prioriser les projets de demande stratégiquement importants ».

Entre autres mécanismes visant à éloigner les projets « non viables », l’Ofgem envisagerait des vérifications financières plus précises qu’actuellement, voire de facturer aux fournisseurs de centres de données l’accès au réseau, que ce soit sous forme de caution ou de frais non remboursables.

NVIDIA engrange 120 milliards de dollars de bénéfices, regarde la Chine et l’espace

26 février 2026 à 14:58
La pénurie et les difficultés financières, c’est pas pour tout le monde !
NVIDIA engrange 120 milliards de dollars de bénéfices, regarde la Chine et l’espace

Les datacenters sont le principal (et de loin) moteur de NVIDIA. Depuis le lancement de ChatGPT, le chiffre d’affaires associé a été multiplié par près de 13. Le géant américain des GPU pour l’IA profite de la publication de ses résultats financiers pour parler de ses relations avec la Chine, de sa prochaine architecture Vera Rubin et des datacenters dans l’espace.

Sur son année fiscale 2026 terminée le 26 janvier 2026 (oui, l’entreprise a quasiment un an d’avance), NVIDIA revendique un chiffre d’affaires de 215,94 milliards de dollars, en hausse de 65 % sur un an.

Les bénéfices nets suivent la même tendance avec 120,07 milliards de dollars (+ 65 % également). Cela donne tout de même 13,7 millions de dollars par… heure. C’est la première fois de son histoire que NVIDIA dépasse la barre des 100 milliards de dollars de bénéfices sur un an, un club assez sélectif.

Le chiffre d’affaires s’établit à 68,13 milliards de dollars sur le seul dernier trimestre de l’exercice (+ 20 % sur trois mois glissants) et NVIDIA promet de faire encore mieux sur le premier trimestre de 2027 avec 78 (±2 %) milliards de dollars. La branche des datacenters représente la quasi-totalité du chiffre d’affaires avec 62,3 milliards de dollars sur les 68,13 milliards.

Des résultats supérieurs aux attentes, mais qui ne semblent pas pour l’instant bouleverser le comportement du titre à Wall Street.

62,3 milliards de dollars pour les datacenters, 3,7 milliards pour les joueurs

Le gaming (avec les GeForce) ne représente que 3,7 milliards de dollars, soit près de 17 fois moins que les GPU pour les centres de données et l’intelligence artificielle. NVIDIA annonce que la partie gaming est « en hausse de 47 % par rapport à l’année dernière, portée par une forte demande pour Blackwell [les GeForce RTX 50, ndlr], et en baisse de 13 % par rapport au trimestre précédent, les stocks des distributeurs s’étant naturellement réduits après une période de forte demande liée aux fêtes de fin d’année ».

Alors qu’on attendait au CES 2026 un renouvellement de la gamme des GeForce RTX 50 lancée en janvier 2025 avec une déclinaison « Super », rien n’est arrivé. Cela n’aide évidemment pas à relancer les ventes. Il est pour rappel bien plus rentable pour NVIDIA de fabriquer des GPU pour les datacenters et l’IA que des GeForce pour les joueurs. Les wafers de silicium et les puces de mémoire étant en quantité limitée, il n’est pas étonnant de voir les revenus sur la partie datacenter autant exploser face aux gamers.

Pendant ce temps-là, la pénurie mondiale de puces mémoire et la vente massive à NVIDIA de la production pour les GPU des datacenters font augmenter les tarifs de nombreux produits. La mémoire et les SSD sont en tête de liste, mais avec des effets collatéraux sur les ordinateurs, les VPS

Depuis l’arrivée de ChatGPT, la branche datacenter a fait x13

Durant la session de questions/réponses de présentation des résultats, Colette Kress, directrice financière du groupe, explique d’ailleurs que NVIDIA « a multiplié par près de 13 son activité de centres de données depuis l’émergence de ChatGPT en 2023 ».

Sur l’année fiscale 2023 (terminée le 29 janvier 2023), les revenus étaient de 26,97 milliards de dollars, pour des bénéfices nets de 4,37 milliards de dollars. Sur 2024 (terminée le 29 janvier 2024), les revenus étaient de 60,92 milliards de dollars (déjà un x2 l’année de lancement de ChatGPT), pour des bénéfices nets de 29,76 milliards de dollars.

Colette Kress ajoute que les produits de la génération « Hopper et une grande partie des produits Ampere, vieux de six ans, sont en rupture de stock dans le cloud ». Concernant les systèmes Grace Blackwell GB200 NVL72 lancés il y a tout juste un an, ils représentent aujourd’hui 9 GW de puissance électrique installée. Avec une puissance de 120/130 kW par baie, cela donne l’équivalent de plus de 70 000 baies déployées à travers le monde.

Le fabricant se félicite aussi de son initiative Sovereign AI dont les revenus ont « plus que triplé d’une année sur l’autre pour dépasser 30 milliards de dollars par an, principalement grâce à des clients basés au Canada, en France, aux Pays-Bas, à Singapour et au Royaume-Uni ».

NVIDIA, USA et Chine : poker menteur autour des GPU et des IA

Sur la question de la Chine, Colette Kress explique que, « bien que de petites quantités de produits H200 pour les clients basés en Chine aient été approuvées par le gouvernement américain, nous n’avons pas encore généré de revenus, et nous ne savons pas si des importations seront autorisées en Chine ».

Selon un haut responsable de l’administration Trump cité par Reuters, cela n’empêcherait pas la Chine d’accéder aux derniers GPU Blackwell : « Le dernier modèle d’IA de la start-up chinoise d’IA DeepSeek, dont la sortie est prévue dès la semaine prochaine, a été entraîné sur la puce IA la plus avancée de NVIDIA ». Le gouvernement rappelait sa ligne : « Nous n’expédions pas de Blackwell en Chine ».

Colette Kress lance un appel aux responsables américains :

« Nos concurrents en Chine, renforcés par les récentes introductions en bourse, progressent et ont le potentiel de bouleverser la structure de l’industrie mondiale de l’IA sur le long terme. Pour maintenir sa position de leader dans le calcul IA, l’Amérique doit engager chaque développeur et doit être la plateforme de choix pour chaque entreprise commerciale, y compris celles de Chine. Nous continuerons à dialoguer avec les gouvernements américain et chinois et à défendre la capacité de l’Amérique à rivaliser dans le monde ».

Vera Rubin toujours « on track » pour le second semestre 2026

La directrice financière en profite pour revenir sur les derniers CPU et GPU en date : Vera Rubin. Les premiers échantillons ont été « expédiés à nos clients plus tôt cette semaine ». NVIDIA espère lancer les expéditions en masse au cours du second semestre de l’année, en phase avec le calendrier annoncé en janvier lors de la présentation des nouvelles puces.

Des datacenters dans l’espace ? Il est encore trop tôt pour Jensen Huang

Pendant l’échange téléphonique, une question a été posée sur la faisabilité des datacenters dans l’espace, dont certains pensent que cela peut être une solution viable et intéressante. Pour Jensen Huang, patron de NVIDIA, il est trop tôt : « La situation économique est mauvaise aujourd’hui, mais elle va s’améliorer avec le temps ».

Le fonctionnement dans l’espace est « radicalement différent de celui sur Terre ». L’énergie, par exemple, « y est abondante, mais les panneaux solaires sont volumineux ». Il fait froid et c’est un avantage pour dissiper la chaleur, mais à cause de « l’absence de circulation d’air, la chaleur ne se dissipe que par radiation et les radiateurs à fabriquer sont assez volumineux ». Quant au refroidissement liquide, c’est « hors de question » pour Jensen Huang car ce genre de système est « lourd et peu résistant ». Se pose aussi la question d’envoyer et de recevoir des Po et des Po de données.

Rappelons que des serveurs ont déjà été envoyés dans l’espace, notamment par HPE qui a fait un retour d’expérience détaillé avec des constatations auxquelles les ingénieurs n’avaient pas pensé au départ. Par exemple, « en l’absence de pesanteur, les composants non attachés flottent à l’intérieur du châssis, y compris le câblage interne ». Certains s’étaient par exemple approchés de ventilateurs qui les avaient « limés ».

Jensen Huang ne ferme cependant pas totalement la porte. « Les méthodes que nous utilisons ici sur Terre diffèrent donc légèrement de celles employées dans l’espace. Cependant, de nombreux modèles concurrents sont en cours d’élaboration et aspirent à être mis en œuvre dans l’espace ».

Russie : enquête ouverte sur le fondateur de Telegram Pavel Durov

26 février 2026 à 13:43
Max et les Maxi-réseaux sociaux
Russie : enquête ouverte sur le fondateur de Telegram Pavel Durov

En Russie, le patron de Telegram Pavel Durov est visé par une enquête pour « complicité d’activités terroristes » alors que le pouvoir en place tente de pousser les internautes locaux vers son application d’État, MAX.

Fondateur de la plateforme Telegram, Pavel Durov est visé depuis le 24 février par une enquête des autorités russes pour « complicité d’activités terroristes ». À l’origine de cette enquête, l’affirmation selon laquelle l’application serait utilisée par des services de renseignement occidentaux et ukrainiens, rapportée dans deux médias d’État : Rossiïskaïa Gazeta et Komsomolskaïa Pravda.

D’après le média d’investigation Можем объяснить (Mojem Obiasnit) cité par Le Monde, les articles de Rossiïskaïa Gazeta et Komsomolskaïa Pravda, quasiment identiques, pourraient avoir été écrits directement par Alexandre Bortnikov, directeur du FSB et auteur régulier dans les colonnes du Rossiïskaïa Gazeta.

Les textes en question affirment que Telegram aurait été utilisé dans 13 tentatives d’assassinats de hauts gradés russes par les forces ukrainiennes, et 33 000 « attentats à la bombe, incendies criminels contre des centres de recrutement et meurtres » depuis le début de la guerre.

Pavel Durov s’exprime sur Telegram

Comme dans les mois qui ont suivi ses démêlés avec la Justice française, Pavel Durov s’est fendu d’une communication sur son canal Telegram. « Chaque jour, les autorités inventent de nouveaux prétextes pour restreindre l’accès des Russes à Telegram, car elles cherchent à supprimer le droit à la vie privée et à la liberté d’expression », a-t-il déclaré.

Capture d’écran du message de Pavel Durov / Telegram

La rupture initiale entre Pavel Durov et la Russie remonte à 2014, lorsqu’il a été forcé par les autorités à vendre ses parts dans la société VK, éditrice de VKontakte, l’équivalent russe de Facebook. L’année précédente, il avait co-fondé Telegram avec son frère Nikolai, en installant le siège à Berlin, puis à Dubaï.

L’entrepreneur a refusé à plusieurs reprises de céder au Kremlin des données d’utilisateurs, ce qui avait conduit au bannissement de l’outil entre avril 2018 et juin 2020. Depuis l’été 2025, Telegram est de nouveau visé par des limitations, notamment des appels vidéos, aux côtés de Meta, au motif que les deux services n’agiraient pas suffisamment pour lutter contre la fraude et le terrorisme.

Pavel Durov s’est aussi retrouvé dans le viseur de la Justice française en 2024 pour des questions de non-gestion des activités criminelles opérées depuis sa plateforme. En novembre 2025, la France a finalement levé l’interdiction de voyager qui lui pesait encore sur les épaules.

MAX, le concurrent d’État

Depuis sa création, Telegram est devenue une source d’information essentielle de l’écosystème russophone, et ce, jusque du côté militaire. Alors qu’elle est utilisée par une large part de la population, propagandistes pro-Poutine compris, le Kremlin accentue la pression pour pousser les 105 millions d’utilisateurs mensuels russes de Telegram, mais aussi les adeptes de WhatsApp, vers une messagerie rivale et gérée par l’État, MAX. Les deux applications font l’objet de restrictions d’accès accentuées depuis le 9 février dernier.

Lancée en 2025 et gérée par la société VK, éditrice de VKontakte, MAX revendique de son côté plus de 75 millions d’utilisateurs. À l’instar des super-applications chinoises WeChat ou Alipay, MAX propose aussi bien des services de messagerie que l’accès à du commerce en ligne, à l’administration, à du paiement ou à des mini-applications d’usages variés, le tout, sans chiffrement.

Samsung Galaxy S26 : SoC Qualcomm modifié, Privacy Display… et IA à tous les étages

26 février 2026 à 12:56
25+1 = 26, le compte est bon !
Samsung Galaxy S26 : SoC Qualcomm modifié, Privacy Display… et IA à tous les étages

Samsung vient de dévoiler sa nouvelle série de smartphones, les (roulements de tambour) Galaxy S26. Ils sont au nombre de trois : le Galaxy S26 de base, le S26+ et enfin le S26 Ultra, avec un « nouveau » SoC Qualcomm aux commandes. Les principales nouveautés sont réservées au S26 Ultra, proposé à partir de 1469 euros.

Galaxy S26, S26+ et S26 Ultra en quelques lignes (et un tableau)

Nous n’allons pas nous étendre des heures sur les caractéristiques techniques. Nous avons regroupé les principales dans le tableau ci-dessous. Comme toujours, la version Ultra a un écran plus grand, plus de mémoire vive sur la version avec 1 To de stockage (16 Go à la place de 12 Go), des capteurs optiques de meilleure qualité, une batterie plus grosse, etc. Un comparatif est aussi disponible sur cette page.

Les trois smartphones sont certifiés IP68, mais à la sauce Samsung. Le fabricant prend en effet le soin d’apporter des précisions : « Testé en laboratoire pour une immersion jusqu’à 1,5 mètre de profondeur dans l’eau douce pendant 30 minutes maximum. Aucune infiltration de poussière ; protection totale contre les contacts (étanche à la poussière). L’étanchéité à l’eau et à la poussière n’est pas permanente et peut diminuer avec le temps en raison de l’usure normale ».

De l’IA, encore de l’IA

Côté logiciel, Samsung annonce que « les améliorations apportées au traitement IA de l’image s’étendent désormais au capteur frontal, capable de reproduire des tons de peau plus naturels et des détails plus fins ». Toujours sur l’IA, le fabricant met en avant son Assistant Photo avec lequel « les utilisateurs peuvent simplement décrire ce qu’ils souhaitent modifier avec leurs propres mots ». Attention, ce n’est pas que du local : « peut nécessiter une connexion réseau et la connexion à un compte Samsung ».

Il y a également Creative Studio, qui « nécessite une connexion réseau et la connexion à un compte Samsung » et regroupe « création et retouche dans un seul espace ». Même chose pour Now Nudge qui propose des « suggestions pertinentes », Now Brief qui « envoie de façon pertinente, en fonction du contexte personnel de l’utilisateur, des notifications portant sur les événements importants, comme une modification apportée à une réservation ou un voyage ».

Des explications et vidéos de présentation sont disponibles par ici.

Privacy Display : une nouveauté intéressante !

Avec le Galaxy S26 Ultra (uniquement), Samsung annonce « le premier Privacy Display intégré de l’industrie mobile ». Ce n’est pas une surprise puisque Samsung avait déjà annoncé son Privacy Display en janvier 2026.

Voici son fonctionnement :

« En contrôlant comment les photodiodes dispersent la lumière, l’écran conserve un contenu clair et lumineux tout en limitant ce que les autres peuvent voir. Contrairement aux protections adhésives traditionnelles, Privacy Display préserve la qualité d’affichage dans toutes les directions lorsqu’il est désactivé, et limite la visibilité depuis des angles de vue latéraux lorsqu’il est activé – même en passant du mode portrait au mode paysage ».

Une vidéo a été publiée par le compte officiel Samsung et le résultat semble intéressant. Le Privacy Display peut s’activer en permanence ou lors de certaines opérations seulement, comme la saisie d’un mot de passe ou d’un code PIN. À confirmer en conditions réelles lorsque le Galaxy S26 Ultra sera disponible : à partir du 11 mars 2026.

Encore un nouveau SoC Qualcomm, le « Snapdragon 8 Elite Gen 5 for Galaxy »

Niveau processeur, Samsung annonce un SoC « Snapdragon 8 Elite Gen 5 for Galaxy », ou bien un Exynos 2600 pour les S26 et S26+ seulement, dans certains pays. En France, c’est la version avec un Exynos 2600 qui est annoncée sur la boutique en ligne de Samsung.

Pour rappel, le « Snapdragon 8 Gen 5 » a été annoncé en novembre dernier. C’est tellement facile de suivre les noms de produits que Qualcomm s’était fendu, en amont, d’un billet explicatif. Qu’est-ce donc alors que cette version « for Galaxy » ? Qualcomm a publié un billet de blog affirmant que c’était le « SoC mobile le plus rapide au monde ». Mais encore ? C’est une version optimisée de la puce pour « bénéficier des dernières expériences Galaxy IA ».

Il y a ensuite une segmentation : avec le FastConnect 7900 de Qualcomm, « les Galaxy S26 Ultra et S26+ renforcent encore cette expérience grâce à l’intégration de l’Ultra Wideband (UWB) ». Il y a également l’APV Codec (Advanced Professional Video, développé par Samsung), mais uniquement pour le S26 Ultra.

Pour les caractéristiques techniques détaillées, on repassera. Qualcomm annonce 19 % de hausse des performances en CPU, 24 % en GPU et 39 % en NPU, mais cette comparaison est faite avec le SoC Snadpragon 8 Elite (que l’on pourrait tout aussi bien appeler Snapdragon 8 Elite Gen 4) des Galaxy S25.

Bref, c’est toujours autant le bazar chez Qualcomm qui multiplie les références, les modifie en cours de route, personnalise des SoC pour ses partenaires, etc.

S26 Ultra : « sept ans de mises à jour »… quid des autres ?

Samsung annonce « sept ans de mises à jour de sécurité et système d’exploitation et 3 ans de garantie commerciale [pour] les Galaxy S26 Ultra et Galaxy S26 Entreprise Edition ». « La fréquence (mensuelle, trimestrielle) des mises à jour de sécurité et de maintenance peut varier selon le modèle de l’appareil », ajoute le fabricant. Rien n’est précisé pour les Galaxy S26+ et S26, dommage.

Les tarifs débutent à 1 469 euros pour le S26 Ultra, 1 269 euros pour le Galaxy S26+ et 999 euros pour le Galaxy S26. Samsung a aussi annoncé des écouteurs sans fils Galaxy Buds 4 avec, selon le constructeur, « des performances audio exceptionnelles et des capacités d’intelligence artificielle avancées ». Ils sont vendus à partir de 179 euros.

Les diplomates US sommés de lutter contre le RGPD et la souveraineté numérique

26 février 2026 à 12:01
Silicon valets
Les diplomates US sommés de lutter contre le RGPD et la souveraineté numérique

Pour Marco Rubio, le RGPD impose « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données » qui pourraient nuire aux intérêts des entreprises technologiques états-uniennes.

L’administration Trump vient d’ordonner aux diplomates états-uniens de faire pression contre les initiatives encourageant la souveraineté et la relocalisation des données de leurs citoyens, au motif que cela pourrait nuire aux entreprises technologiques états-uniennes, révèle l’agence Reuters.

Un câble du Département d’État, daté du 18 février et signé par le secrétaire d’État américain Marco Rubio, précise que de telles lois « perturberaient les flux mondiaux de données, augmenteraient les coûts et les risques liés à la cybersécurité, limiteraient l’intelligence artificielle (IA) et les services cloud, et élargiraient le contrôle gouvernemental d’une manière qui pourrait porter atteinte aux libertés civiles et permettre la censure ».

Marco Rubio y précise que l’administration Trump favorise une « politique internationale plus affirmée en matière de données » et que les diplomates doivent dès lors « s’opposer aux réglementations inutilement contraignantes, telles que les obligations de localisation des données ».

Cette décision indique que l’administration Trump revient à une approche plus conflictuelle, souligne Reuters, alors que certains pays étrangers cherchent à limiter la manière dont les entreprises de la Silicon Valley traitent et stockent les informations personnelles de leurs citoyens, des initiatives souvent qualifiées de « souveraineté des données » ou de « localisation des données ».

Un forum pour contrer le RGPD

Le câble, décrit par son titre comme une « demande d’action » (« action request » en VO), invite aussi les diplomates américains à suivre l’évolution des propositions visant à restreindre les flux transfrontaliers de données.

Il cite le RGPD comme exemple d’une règle imposant « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données ».

Il souligne également que la Chine « associe des projets d’infrastructure technologique attrayants à des politiques restrictives en matière de données qui renforcent son influence mondiale et son accès aux données internationales à des fins de surveillance et d’influence stratégique ».

Il fournit en outre des arguments en faveur du Global Cross-Border Privacy Rules (CBPR) Forum (forum mondial sur les règles transfrontalières en matière de protection de la vie privée en VF), créé en 2022 par les États-Unis, le Mexique, le Canada, l’Australie, le Japon, la Corée du Sud, Singapour et Taïwan « afin de soutenir la libre circulation des données et la protection efficace des données et de la vie privée à l’échelle mondiale ».

Le précédent du DSA

Le département d’État n’a pas fait de commentaire sur ce télégramme, tout en déclarant à Reuters que les États-Unis soutenaient fermement les flux transfrontaliers de données favorisant la croissance et l’innovation tout en protégeant la vie privée, la sécurité et la liberté d’expression, et que les États-Unis étaient prêts à s’associer avec les pays partageant ces objectifs.

Ce câble est la dernière d’une série d’initiatives visant à contrecarrer la réglementation européenne dans le domaine numérique, souligne Reuters, notamment en matière de modération de contenus et de responsabilités des plateformes.

L’an passé, Marco Rubio avait ainsi déjà ordonné aux diplomates de s’opposer au règlement européen sur les services numériques (DSA), qui vise à rendre Internet plus sûr en obligeant les grandes entreprises de médias sociaux à supprimer les contenus illégaux, tels que les contenus extrémistes ou pédopornographiques.

La semaine dernière, l’administration Trump avait également annoncé la prochaine mise en place de freedom.gov, un site conçu pour permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.

Le bâton, sans la carotte

Les initiatives en matière de souveraineté des données se sont accélérées, en particulier en Europe, relève Reuters, alors que les tensions se sont exacerbées entre les États-Unis et l’Union européenne au sujet des politiques commerciales protectionnistes de Washington et de son soutien aux partis politiques d’extrême droite.

Bert Hubert, ancien membre de l’organe de contrôle des services de renseignement néerlandais, déclare à Reuters que la méfiance croissante de l’Europe à l’égard des entreprises technologiques américaines pourrait inciter Washington à adopter une approche plus agressive :

« Alors que l’administration précédente tentait de séduire les clients européens, l’administration actuelle exige que les Européens ignorent leurs propres réglementations en matière de confidentialité des données qui pourraient entraver les activités commerciales américaines. »

Malvertising : sur les plateformes de Meta, 31 % des publicités sont malveillantes

26 février 2026 à 10:50
mADe in China
Malvertising : sur les plateformes de Meta, 31 % des publicités sont malveillantes

Pour la troisième fois en trois mois, un rapport révèle de sérieux dysfonctionnements permettant à des acteurs malveillants, œuvrant en bonne partie depuis la Chine et Hong Kong, d’inonder les plateformes Meta de publicités malveillantes.

En novembre, une enquête révélait que Meta estimait, en interne, que les publicités frauduleuses dans leur ensemble pourraient représenter quelque 10 % de son chiffre d’affaires annuel, soit 16 milliards de dollars.

En décembre, une seconde enquête dévoilait qu’entre 2022 et 2024, les revenus publicitaires de Meta en Chine avaient plus que doublé, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global du groupe. Elle notait également que Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.

L’enquête révélait aussi et surtout que près d’une publicité sur cinq (19 %) sur Facebook, Instagram et consorts depuis la Chine, faisait la promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.

Meta, qui aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux, estimait aussi que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes venait de Chine, pays qualifié sur certaines présentations de Meta de principal « pays exportateur d’escroqueries ».

Intitulée « The Scam Ad Machine » (la machine à publicités frauduleuses), une étude de cinq chercheurs du Gen Threat Labs publiée début février avance que près d’une publicité Meta sur trois (30,99 %) diffusée en Europe et contenant du texte publicitaire en anglais renvoie vers une arnaque, un lien frauduleux, une tentative d’hameçonnage ou un logiciel malveillant.

Ils ont également découvert que dix annonceurs seulement étaient responsables de plus de 56 % de toutes les publicités frauduleuses observées. Et qu’ils étaient associés à des systèmes de paiements et à des infrastructures communs liés à la Chine et à Hong Kong, laissant entendre qu’il s’agirait d’opérations organisées à l’échelle industrielle plutôt que d’acteurs malveillants isolés.

Si, comme l’auteur de ces lignes, vous n’aviez jamais entendu parler de Gen Threat Labs, sachez qu’il émane de Gen Digital, du nom du consortium formé par la fusion de Symantec avec Avast, en 2022, plus connu pour ses marques Norton, LifeLock, Avira, AVG, ReputationDefender et CCleaner.

« Nous disposons de l’un des plus grands réseaux de cybersécurité grand public au monde », résume Gen Digital sur son site, où elle avance bloquer plus de 27 700 attaques par minute en moyenne, en avoir bloqué plus de 4,5 milliards l’an passé, et revendique près de 500 millions d’utilisateurs.

Si les vendeurs d’antivirus et autres produits de (cyber)sécurité ont souvent intérêt à faire peur pour vendre leurs « solutions » censées protéger leurs utilisateurs, reste que leur expertise, et l’ampleur des menaces auxquelles ils sont confrontés, leur donne accès à des volumes de données que peu d’organismes peuvent traiter et analyser de la sorte.

Le malvertising représente aussi 41 % de toutes les cyberattaques…

Si la plupart des gens pensent que les cyberattaques commencent par des téléchargements douteux ou des liens suspects reçus par e-mail ou SMS, le rapport de Gen Threat Labs avance que le malvertising (publicité malveillante) « a connu un essor fulgurant, car il offre aux criminels ce que tout spécialiste du marketing recherche : une portée instantanée, un ciblage précis et à grande échelle ».

Les données de télémétrie de Gen montrent que le malvertising est même devenu « la plus grande menace pour les particuliers, représentant 41 % de toutes les cyberattaques », et ce, parce que le système publicitaire « est structurellement attrayant pour les criminels » et qu’il leur « permet d’obtenir des résultats de manière constante » :

« Sur Internet, les publicités sont discrètement devenues l’un des moyens les plus efficaces pour diffuser des arnaques, des tentatives d’hameçonnage et des logiciels malveillants. Aujourd’hui, les publicités dangereuses ne semblent pas suspectes ; elles ont l’air professionnelles, familières et semblent répondre exactement à vos besoins. Sur les réseaux sociaux, les mêmes moteurs d’optimisation conçus pour maximiser l’engagement et la conversion sont détournés de leur usage initial pour augmenter la probabilité que ces arnaques fassent plus de victimes. Et ce n’est pas un hasard. »

Les attaques reposent en outre sur « un ensemble d’outils d’ingénierie sociale qui s’intègre à tout ce à quoi les gens font déjà confiance et à quoi ils prêtent attention ». Les attaques de type « scam-yourself » (arnaque à soi-même) comme FakeCaptcha et ClickFix incitent par exemple les victimes à faire le travail de l’attaquant à sa place, en approuvant une invite du navigateur, en activant les notifications push, en copiant-collant des commandes ou en « vérifiant » quelque chose qui semble routinier.

Les notifications push du navigateur, en particulier, sont quant à elles devenues « un moyen fiable d’attirer les victimes, car un simple clic peut transformer une visite normale sur un site web en un flux persistant d’invites et de redirections frauduleuses ».

… et environ 30 % des escroqueries observées sur les réseaux sociaux

Les pirates s’inspirent également des techniques marketing légitimes, et surfent sur les tendances, exploitent l’urgence, des deepfakes et des thèmes d’actualité, en particulier dans le domaine des escroqueries liées à l’investissement et aux cryptomonnaies. Les chercheurs de Gen ont déjà documenté ce phénomène dans le cadre des campagnes CryptoCore, où des vidéos deepfake et des comptes piratés ont été utilisés pour promouvoir à grande échelle des investissements frauduleux. 

Une autre tactique récurrente et efficace consiste à usurper l’identité d’une marque bien connue. Les cybercriminels achètent des publicités (y compris liées aux recherches) sur les principaux réseaux publicitaires afin de rediriger les internautes vers des sites de phishing où des logiciels malveillants sont installés dans le cadre du parcours de clic de la publicité, souvent sans que la victime ne se rende compte de ce qui s’est passé avant qu’il ne soit trop tard. 

Le malvertising ne se limite pas aux recoins obscurs du web, soulignent les chercheurs du Gen Threat Labs : « même les sites web les plus fiables peuvent afficher à leur insu des publicités malveillantes, car celles-ci sont diffusées via des chaînes d’approvisionnement complexes et automatisées ».

La publicité malveillante est ainsi « devenue un moyen rapide et efficace d’escroquer et d’hameçonner les internautes », au point de représenter « environ 30 % des incidents d’escroquerie observés sur les réseaux sociaux », ce qui en fait l’une des menaces les plus courantes auxquelles les utilisateurs sont confrontés dans les flux d’actualités et les publicités. 

« La transparence ne crée pas les abus, elle les révèle »

Évoquant des modes de « propagation incontrôlée » sous forme de « métastases », le rapport avance que « la publicité en ligne, qui était autrefois un outil permettant de mettre en relation les consommateurs avec des produits et des services, fait désormais partie intégrante de la surface d’attaque ».

Au deuxième trimestre 2025, note le Gen Threat Labs, Meta avait annoncé que le nombre d’utilisateurs actifs quotidiens sur l’ensemble de ses plateformes (Facebook, Instagram, Threads, WhatsApp et Messenger) avait atteint environ 3,48 milliards dans le monde.

Ce pourquoi les infrastructures frauduleuses ne fonctionnent pas en parallèle à ces plateformes, mais « opèrent à travers elles, tirant parti de leurs signaux de confiance, de leurs mécanismes d’engagement et de leurs capacités de ciblage pour se propager rapidement ».

Pour en mesurer l’ampleur, le Gen Threat Labs a utilisé l’API de transparence publicitaire de Meta, et précise que « ce travail existe parce que la réglementation a imposé la transparence », mais aussi qu’il aurait été impossible à effectuer dans d’autres marchés, pays et continents :

« Dans l’Union européenne et au Royaume-Uni, les exigences en matière de transparence publicitaire exposent le comportement des annonceurs d’une manière qui ne peut être reproduite ailleurs, ce qui permet de mesurer de manière indépendante la publicité frauduleuse à l’échelle industrielle. En l’absence d’une telle réglementation, les activités frauduleuses ne disparaissent pas, elles deviennent simplement plus difficiles à mesurer. La transparence ne crée pas les abus, elle les révèle. »

Les 10 principaux annonceurs représentent 56 % des publicités frauduleuses

Ils ont d’abord collecté, sur une période de 23 jours, 14,57 millions de publicités contenant un texte publicitaire en anglais, représentant 10,76 milliards d’impressions diffusées dans l’Union européenne et au Royaume-Uni.

Ils ont ensuite examiné ce vers quoi les utilisateurs étaient réellement redirigés, afin d’identifier les publicités renvoyant vers des infrastructures associées à des escroqueries en ligne, des campagnes de phishing, la distribution de logiciels malveillants et d’autres menaces visant les consommateurs.

« Les résultats étaient sans équivoque. 4,51 millions d’annonces dans notre ensemble de données ont été identifiées comme liées à des escroqueries, ce qui signifie que près d’une annonce sur trois (30,99 %) renvoyait vers une infrastructure frauduleuse. Au total, ces annonces frauduleuses ont généré 143,8 millions d’impressions dans l’UE et 304,11 millions d’impressions dans l’UE et au Royaume-Uni en moins d’un mois. »

Ils ont aussi découvert que des fraudeurs réutilisaient les mêmes infrastructures, des domaines identiques et des textes publicitaires presque identiques dans de nombreuses campagnes. « De l’extérieur, il semble que la lutte contre les publicités frauduleuses soit réactive », à mesure que nombre d’entre elles étaient bien « supprimées une par une, souvent à la suite de signalements ou d’examens ». D’après leurs observations, les campagnes malveillantes ne s’interrompent pas forcément pour autant :

« Nous ne pouvons pas voir les signaux de détection internes de Meta, nous nous gardons donc bien d’attribuer une intention. Mais le résultat observable est clair : les éléments constitutifs connus des escroqueries restent souvent utilisables longtemps après la suppression d’un cas particulier. »

Ils ont également découvert que les 10 principaux annonceurs frauduleux représentaient à eux seuls 56,1 % de toutes les publicités malveillantes, soit 2,53 millions de publicités uniques et 57,92 millions d’impressions : « Ces annonceurs ne sont pas des amateurs anonymes. Il s’agit d’opérateurs organisés et persévérants qui mènent des campagnes à l’échelle industrielle. »

À plusieurs reprises, la piste remontait jusqu’à des acteurs et infrastructures liés à la Chine et à Hong Kong, qui exploitaient des flopées de pages éphémères créées presque exclusivement pour diffuser des publicités.

Les noms de marques occidentales et les vitrines en anglais changeaient rapidement, tout comme les noms des responsables de ces publicités, mais « ce qui ne changeait pas, c’était le mécanisme : les mêmes domaines, les mêmes modèles d’URL et les mêmes comportements publicitaires réapparaissaient chez des annonceurs supposés sans lien entre eux ». 

Il ne s’agit pas d’une modération imparfaite, mais d’un système défaillant

« Il ne s’agit pas d’une modération imparfaite », conclut le rapport : « il s’agit d’un système qui, dans la pratique, permet aux attaquants d’agir plus rapidement que les contraintes ne peuvent les suivre ».

Les auteurs annoncent vouloir revenir dans un prochain article de blog sur les techniques utilisées par les fraudeurs pour dissimuler des publicités malveillantes à la vue de tous, « notamment la manière dont ils manipulent les URL affichées, enchaînent les redirections, mélangent les liens malveillants avec des liens légitimes et exploitent les limites des outils de transparence eux-mêmes » :

« Car comprendre l’ampleur du problème n’est que la première étape. C’est en comprenant comment il persiste que l’on peut le résoudre. »

Meta est le deuxième plus gros acteur de la publicité numérique dans le monde avec 50 milliards de dollars de revenus sur le dernier trimestre 2025, rappelle Le Figaro, pour qui « la visibilité des escrocs reste toutefois limitée », les annonces frauduleuses n’étant apparues qu’environ 27 millions de fois dans le fil des utilisateurs français.

Le Figaro précise que cela ne représenterait qu’un peu moins de 3 % de l’ensemble des impressions enregistrées dans le pays, omettant cela dit de souligner que Gen Threat Labs a restreint son étude aux publicités contenant du texte publicitaire en anglais.

« On ne connaît pas le nombre de personnes qui ont vu ces arnaques. Un même contenu peut apparaître plusieurs fois dans le fil d’un même utilisateur », explique au Figaro Leyla Bilge, directrice du pôle arnaques de Gen Threat Labs, qui précise que « l’expérience n’est pas finie. Nous allons continuer à compiler les données publicitaires de Meta tant que nous n’observons pas une réduction du nombre d’arnaques ».

Interrogé par Le Figaro sur l’étude de Gen Threat Labs, le groupe américain affirme « lutter assidûment contre la fraude et les arnaques car ni nos utilisateurs, ni les annonceurs légitimes, ni Meta ne veulent voir ce type de contenus. Nous continuons également à soutenir les forces de l’ordre dans l’identification et l’arrestation des escrocs dans le monde entier »

☕️ Jeux vidéo : Nacon, filiale de Bigben, sollicite un redressement judiciaire

26 février 2026 à 10:21

L’éditeur de jeux vidéo et accessoiriste français Nacon s’est déclaré mercredi en cessation de paiement. Il demande formellement à se placer sous la protection du tribunal de commerce de Lille, dans le cadre d’une procédure de redressement judiciaire. Nacon et sa maison-mère, Bigben Interactive faisaient déjà l’objet d’une suspension de cours en bourse depuis le 20 février dernier, en raison des difficultés financières reconnues publiquement par les deux entreprises.

Ces dernières semblent placer Nacon dans une impasse, comme le décrit l’éditeur dans un communiqué (PDF) :

« À ce jour, la Société fait état d’actifs disponibles ne lui permettant pas de faire face à son passif exigible. Dans ce contexte, la Société va, dès aujourd’hui, procéder à une déclaration de cessation des paiements auprès du Tribunal et solliciter l’ouverture d’une procédure de redressement judiciaire. L’objectif de cette procédure est d’évaluer toutes les solutions permettant, dans les meilleures conditions, de pérenniser l’activité de la Société, protéger les salariés et maintenir les emplois tout en renégociant avec ses créanciers dans un cadre serein et apaisé.  »

Développé par Rogue Factor et publié par Nacon, Hell is Us est sorti en septembre 2025 – crédit Nacon Gaming

Constitué en 2019 en tant que filiale autonome de BigBen Interactive, Nacon regroupe pour mémoire plusieurs studios de production, parmi lesquels Big Ant Studios, Passtech Games, Daedalic Entertainment et l’un des vétérans français du secteur, Cyanide (racheté par BigBen en 2018). L’entité, qui comptait 813 salariés au 30 décembre dernier, a réalisé 168 millions d’euros de chiffre d’affaires sur son exercice 2024 – 2025 clos au 31 mars dernier, avec un résultat net légèrement négatif mais un EBITDA de 59,6 millions d’euros, qui témoigne d’une activité structurellement saine sur le plan financier.

Nacon semble ici la victime indirecte des déconvenues de sa maison mère, BigBen Interactive. Cette dernière a alerté le 17 février dernier (PDF) les marchés du refus de son pool bancaire d’aménager les modalités du remboursement partiel attendu sur une dette de 43 millions d’euros émise sous forme d’obligations.

L’avenir des studios réunis sous la casquette Nacon dépend donc de la façon dont le tribunal de Lille va restructurer, ou non, la dette de BigBen Interactive.

[Test] Les différences de performances entre des vCores Arm et x86 sur un VPS

26 février 2026 à 09:07
Passe d’Arm
[Test] Les différences de performances entre des vCores Arm et x86 sur un VPS

Quelles différences sur les performances CPU entre des vCores Arm et d’autres x86 ? Nous lançons une batterie de tests sur deux VPS de chez Hetzner, deux jumeaux, mais le premier avec des cœurs Ampere (Neoverse N1 d’Arm) et le second des cœurs Skylake d’Intel.

Dans les VPS d’entrée de gamme, Hetzner propose le choix entre deux architectures pour la partie CPU : x86 avec un processeur Intel ou AMD suivant les stocks, ou bien Arm avec un CPU Ampere (cœurs Neoverse N1 selon l’annonce de 2022). La différence de prix entre les deux est faible : moins de 40 centimes par mois, à l’avantage du x86 qui est le plus abordable.

Les cœurs Arm sont plus chers que les cœurs x86

La différence se creuse avec le nombre de vCore : 1,2 euros de plus avec 4 vCore Ampere au lieu de 4 vCore Intel/AMD, 3,6 euros avec 8 vCores et enfin 8,4 euros avec 16 vCores. Le CX53 en x86 est à 20,98 euros par mois, contre 29,39 euros pour le CAX41 en Arm.

Dans le cadre de ce test, nous avons donc mis face à face un VPS CX23 et un CAX11. Les deux ont 2 vCore, 4 Go de mémoire, 40 Go de stockage, 20 To de trafic inclus et sont localisés en Allemagne à Nuremberg, dans le datacenter NBG1. Seule différence : des cœurs Skylake pour notre CX23 et Neoverse N1 (confirmés par les informations renvoyées par notre VPS) pour CAX11.

Sur la partie CPU, Arm prend le large

Nous avons d’abord passé le nouveau VPS en Arm à la moulinette de notre protocole de test pour les VPS (pensé pour du x86 à la base). Certaines mesures ne sont donc pas réalisables, notamment celles exploitant le jeu d’instructions SSE2 qui n’est disponible que sur x86. Tous les résultats sont dans cette feuille de calcul au format ODS.

Sur un seul cœur, Hetzner en version ARM est juste en dessous du cœur AMD EPYC de chez Ionos sur le test Sysbench. De manière générale, la partie CPU du VPS Hetzner avec des cœurs Ampere écrase totalement le VPS Hetzner avec des cœurs x86 dans la quasi-totalité des tests.

Les performances font jusqu’à x6 sur OpenSSL AES sur 256 bits, quasiment x4 sur Sysbench CPU et Prime, x2 sur OpenSSL, x1.5 sur Z-ZIP et CoreMark, etc. Ce n’est pas une règle absolue, sur OpenSSL en RSA 2048 bits les performances en ARM sont trois fois plus faibles qu’en x86, que ce soit sur le nombre de signatures ou de vérifications par seconde.

Sur les scores mémoire Sysbench, les résultats se tiennent sur des données de 1 ko, mais la version Arm prend la tête quand on passe à 1 Mo.

Nous avons également créé un diagramme de Kiviat du VPS Hetzner en version Arm afin de le comparer aux autres de notre comparatif (tous en x86). Pour la partie réseau, les résultats doivent être pris avec des pincettes : les tests n’ont pas été réalisés en même temps, ils sont donc plus difficilement comparables.

Dans l’ensemble, le VPS en version Arm fait mieux que son équivalent en x86. Au lieu d’être dans la moyenne basse des résultats, le VPS avec CPU Ampere est dans la moyenne haute, quasiment à égalité avec le VPS OVHcloud équipé de quatre cœurs virtuels.

Unixbench et GeekBench : Arm vs x86 sur les tests synthétiques

Passons maintenant aux tests globaux avec Unixbench : le VPS avec des cœurs Ampere obtient un score trois fois plus élevé que celui de son homologue en x86.

Sur Geekbench 6 (en version Preview pour architecture Arm), le VPS Ampere est environ 40 % plus rapide que le VPS Intel. Les résultats des deux VPS sont disponibles sur cette page.

La réalité est toujours plus compliquée quand il s’agit de comparer des architectures aussi différentes. Les résultats dépendront en grande partie des types de tests, de la présence ou non d’accélération matérielle sur les cœurs, etc.

Nous avons lancé toute une série de tests dont les résultats sont regroupés dans le tableau ci-dessous. Vous pouvez également télécharger la feuille de calcul au format ODS.

Cela ne couvre pas tous les usages, loin de là, mais permet d’avoir quelques ordres de grandeur. Un dernier résultat pour finir, à contrecourant de Sysbench, GeekBench et Unixbench : le temps de compilation du noyau Linux est 2,3 fois plus rapide sur x86 que sur Arm.

Faites vos tests

Avec sa facturation à l’heure, Hetzner permet de tester sans devoir dépenser plus que nécessaire. Par exemple, pour nos tests sur le VPS CAX11 avec des cœurs Ampere, nous l’avons pris pendant 16 heures pour un coût de 11 centimes environ.

Si vous avez des doutes sur l’architecture Arm proposée par Hetzner sur ses VPS d’entrée de gamme, vous pouvez tester pour quelques dizaines de centimes des cas d’usage précis.

☕️ L’Europe envisage d’étendre le « roaming comme à la maison » à six pays des Balkans

26 février 2026 à 08:36

Après des années de travaux et de discussions, la fin des frais d’itinérance est entrée en vigueur le 15 juin 2017 en Europe. En 2021, les accords ont été prolongés de dix ans, avec de nouvelles règles pour mieux informer les clients et surtout proposer le « même niveau de qualité » en roaming qu’à la maison.

Sur X, Marta Kos, la commissaire européenne à l’Élargissement et à la Politique européenne de voisinage, explique avoir « proposé d’entamer des discussions pour étendre cette initiative aux « Western Balkans«  ». Cela concerne en théorie la Macédoine du Nord, le Monténégro, la Serbie, l’Albanie, la Bosnie-Herzégovine et le Kosovo.

Ces pays ont officiellement « obtenu le statut de pays candidat et sont en train de réformer leur législation nationale afin de l’aligner sur les règles, réglementations et normes de l’UE », à l’exception du Kosovo qui a déposé sa candidature d’adhésion en 2022.

L’Arcep rappelle que, depuis le 1ᵉʳ janvier 2026, la zone géographique du « Roam like at home » (RLAH de son petit surnom) comprend l’Ukraine et la Moldavie, en plus des pays de l’espace économique européen, c’est-à-dire les 27 États membres de l’UE (dont ne fait plus partie le Royaume-Uni), l’Islande, le Liechtenstein et la Norvège.

Marta Kos explique que « les frais d’itinérance constituent un problème dans les Balkans occidentaux, notamment pour les travailleurs frontaliers et les familles qui appellent leurs proches à l’étranger. Les factures surprises en voyage sont quelque chose que nous n’acceptons plus dans l’UE ».

C’est loin d’être fait puisqu’il n’est pour le moment question que d’ouvrir les discussions.

❌