La plateforme data.gouv.fr permet de rechercher et récupérer des données publiques françaises en open data. Elle vient de lancer un serveur MCP afin de permettre à des IA d’effectuer automatiquement des recherches puis de récupérer et d’utiliser des données. Une première étape sous la forme d’une expérimentation, avant une ouverture plus large.
La semaine dernière, la plateforme des données publiques françaises – data.gouv.fr – a lancé son « serveur MCP expérimental pour interagir avec les données françaises depuis son chatbot ». MCP signifie, pour rappel, Model Context Protocol. C’est un standard ouvert lancé par Anthropic (Claude) fin 2024 puis confié à la Linux Foundation. Il permet de connecter des modèles d’intelligence artificielle.
Lecture seule pour le moment
Cette première expérimentation « vise à tester, de manière encadrée, de nouvelles façons d’interroger et de valoriser les données publiques via des interfaces conversationnelles », explique data.gouv.fr. Le code du serveur MCP est disponible dans ce dépôt GitHub (licence MIT), avec des explications pour le connecter à différentes IA génératives. Un appel à contribution et à des retours (positifs comme négatifs) est lancé.
Des limitations sont présentes pour le moment : « À ce stade, le serveur MCP de datagouv fonctionne uniquement pour explorer les données publiques ouvertes en lecture, sans autoriser de modification. À terme, l’ambition est de tester également des usages pour éditer et publier de nouvelles données sur datagouv, toujours avec prudence, et en s’appuyant sur des modèles souverains ».
Nous avons testé l’expérience avec Claude, en version web et via Claude Code. Une seule adresse est à connaitre : celle du endpoint du serveur MCP de datagouv : https://mcp.data.gouv.fr/mcp. Dans Claude Code, il faut saisir la ligne suivante : claude mcp add --transport http data-gouv https://mcp.data.gouv.fr/mcp pour ajouter le serveur. Vous devez ensuite fermer (exit) et relancer Claude Code. Vous pouvez utiliser la commande claude -c, avec « c » comme continu pour reprendre la session précédente.
10 « outils » pour des jeux de données et des services
Dans la version web, rendez-vous dans les Paramètres puis Connecteurs. Cliquez sur Ajouter un connecteur personnalisé, donnez-lui un nom comme datagouv France et l’adresse https://mcp.data.gouv.fr/mcp.
Pour chaque « outil » (ou commande) du serveur MCP, il est possible de définir différents niveaux d’autorisations dans la version web : toujours autoriser, nécessite une approbation, bloqué.
search_datasets : rechercher des jeux de données par mots-clés
get_dataset_info : obtenir les métadonnées détaillées d’un jeu de données
list_dataset_resources : lister les données d’un dataset
get_resource_info : obtenir des infos détaillées sur une ressource
query_resource_data : interroger un dataset sans téléchargement
download_and_parse_resource : télécharger et parser une ressource
search_dataservices : rechercher des APIs sur data.gouv.fr
get_dataservice_info : infos détaillées sur une API
get_dataservice_openapi_spec : récupérer les specs OpenAPI d’une API
get_metrics : statistiques de visites et téléchargements d’un dataset ou ressource
Une fois connectée, l’IA peut utiliser le serveur MCP pour interagir avec les jeux de données de data.gouv.fr. Vous pouvez rechercher des ensembles de données par mots-clé (y compris avec des paramètres personnalisés si besoin), obtenir des informations sur les jeux de données, lister les ressources, télécharger les données, etc. Vous pouvez aussi rechercher des API sur data.gouv.fr et les utiliser. Enfin, des métriques sur les visites et les téléchargements sont également disponibles.
Par exemple, une recherche MCP depuis Claude Code pour les jeux de données sur la consommation électrique passera par la commande mcp__data-gouv__search_datasets query: "consommation électrique". Vous n’avez généralement rien à faire de votre côté, c’est l’IA qui se charge d’aller chercher les données.
Pour chaque jeu de données, le serveur MCP donne des informations avec un ID, l’origine des données, une URL, des commentaires, etc. Vous pouvez ensuite récupérer et utiliser les jeux de données, directement dans l’interface d’une IA.
Quelques exemples sont donnés par les développeurs du serveur MCP : « Au lieu de naviguer manuellement sur le site, vous pouvez simplement poser des questions comme « Quels jeux de données sont disponibles sur les prix de l’immobilier ? » « ou "Montre-moi les dernières données de population pour Paris" et obtenir des réponses instantanées ».
Sorry.gouv.fr : « Site en cours de maintenance »
Nous ne pouvons actuellement pas pousser beaucoup plus loin les tests puisque le site https://mcp.data.gouv.fr/ renvoie bien trop régulièrement vers https://sorry.data.gouv.fr/ avec un message d’erreur : « Site en cours de maintenance, nous faisons le maximum pour revenir en ligne rapidement ».
Ce problème est présent depuis le lancement la semaine dernière, comme le reconnait Antonin Garrone, responsable produit – pôle ouverture des données publiques (data.gouv.fr), sur X. Vendredi, il expliquait que « c’était lié au scaling à cause de la forte affluence d’aujourd’hui, c’est bon désormais ». Force est de constater que non…
Prudence : « Ce type de dispositif est difficile à auditer »
Pour résumer, le serveur MCP permet à des IA d’accéder aux jeux de données déjà publiés par datagouv, ce ne sont pas de nouvelles données. Les intelligences artificielles peuvent ensuite les utiliser pour créer des applications, des statistiques, des analyses, etc. Évidemment avec tous les risques d’erreurs et d’hallucinations liés à leur nature profonde (elles sont statistiques). L’avantage est que l’IA utilise automatiquement les dernières données disponibles à chaque fois.
Datagouv appelle à la prudence : « Ce type de dispositif est difficile à auditer. Les modèles de langage peuvent produire des réponses incomplètes, approximatives ou erronées. Ils ne constituent en aucun cas une source officielle ou fiable en tant que telle. Par ailleurs, il existe de nombreux serveurs MCP se présentant comme liés à data.gouv.fr sans être officiels. Une vigilance particulière est donc nécessaire quant aux outils utilisés et à leur provenance ».
Dans des commentaires sur LinkedIn, Antonin Garrone apporte une précision sur les serveurs MCP qui portent un nom similaire à celui de datagouv : « il s’agit moins d’un problème d’usurpation que de personnes ayant testé le protocole pour leurs propres cas d’usage, sans mauvaise intention ». Quoi qu’il en soit, il faut maintenant que le serveur MCP se stabilise et tienne autrement la charge que de manière épisodique.
En mai 2025, Charter Communications (qui propose des offres sous la marque Spectrum) et Cox Communications annonçaient « un accord définitif de fusion ». Comme le rappelle Reuters, il s’agit de regrouper « deux des plus grands opérateurs américains de câble et du haut débit dans leur bataille contre les sociétés de streaming et les opérateurs mobiles ».
Montant de la transaction : 34,5 milliards de dollars environ, pour reprendre Cox mais aussi ses 12,6 milliards de dollars de dette. « Le nouvel ensemble revendiquera ainsi la place de numéro un de l’Internet fixe au pays de l’oncle Sam », expliquait alors Les Échos. Reuters ajoute que cette nouvelle entité devrait regrouper « 38 millions d’abonnés, dépassant le leader du marché Comcast ».
La FCC (régulateur américain des télécoms) vient de donner son accord et son président, Brendan Carr, s’en félicite : « En approuvant cet accord, la FCC garantit des avantages considérables aux Américains. Cet accord signifie le retour aux États-Unis d’emplois délocalisés. Il signifie également le déploiement de réseaux modernes à haut débit dans davantage de zones rurales. Enfin, il permettra aux consommateurs d’accéder à des forfaits moins chers. De plus, l’accord consacre des protections contre la discrimination fondée sur la diversité, l’équité et l’inclusion. ».
Il ajoute que Charter prévoit d’investir des « milliards de dollars » pour améliorer son réseau après cette opération. « Cela signifie que les Américains bénéficieront d’un accès internet plus rapide et de prix plus bas », peut-on lire dans le document de la FCC.
Engadget tempère l’enthousiasme de la FCC : « Bien que la FCC de Carr dresse un tableau très favorable de l’acquisition de Charter, l’histoire a fourni de nombreux exemples de fusions ayant eu l’effet inverse sur les emplois et les prix. Par exemple, les redondances lors de la fusion de T-Mobile avec Sprint en 2020 ont entraîné une vague de licenciements chez l’opérateur ».
Nos confrères rappellent que, en 2018, « peu de temps après l’approbation de la fusion de Charter avec Time Warner Cable par la FCC, la société a augmenté les prix de son service Spectrum de plus de 91 dollars par an ».
Massdrop, devenu Drop en 2019, aura fait les belles heures des amateurs de claviers mécaniques personnalisés, à coup de commandes groupées et de collections de keycaps improbables. Le site, racheté par Corsair en 2023, fermera en effet ses portes, sous sa version actuelle, à compter du 31 mars prochain, et les commandes des internautes ne seront plus traitées après le 25 mars.
C’est l’équipe Drop.com qui annonce la nouvelle dans son forum :
« Suite à l’intégration de Drop à Corsair après son acquisition en 2023, Drop cessera d’être une boutique en ligne indépendante à compter du 31 mars (…) Drop.com deviendra un espace central mettant en avant les collaborations entre nos marques, du Seigneur des Anneaux à Cyberpunk 2077 en passant par Fallout Nuka Cola, et présentant une sélection de produits issus de l’écosystème Corsair. Attendez-vous à des annonces de sorties exclusives, des éditions limitées et des produits fruits de partenariats et de créativité. »
Pour l’équipe Drop, cette évolution reste pertinente au regard de la mission historique du site, « donner vie à des idées audacieuses grâce à des collaborations pertinentes ». Reste à voir si la communauté, qui soulignait déjà la baisse de régime de la plateforme sur les dernières semaines, adhérera à cette promesse recentrée autour de la marque Corsair, alors que Drop.com ciblait historiquement les amateurs de claviers personnalisés et adeptes du do it yourself.
Sur r/MechanicalKeyboards, les commentaires ne sont pas particulièrement enthousiastes.
Drop annonce sa fermeture – capture d’écran
Une partie du catalogue Drop (dont le clavier CSTM80) restera disponible à la vente au travers du site de Corsair et des distributeurs de la marque, indique la plateforme, qui promet par ailleurs que sa maison mère assurera le service après-vente même après sa fermeture.
Drop, basé à San Francisco, a construit sa notoriété grâce à trois éléments : son catalogue de produits experts, sa capacité à négocier pour ses membres des achats groupés (pour obtenir des prix intéressants grâce à l’effet volume) et ses collaborations avec les marques en vue de créer des séries limitées ou des références personnalisées. Drop ciblait principalement les fans de claviers mécaniques et les audiophiles (la plateforme a par exemple réalisé de nombreuses collaborations avec Sennheiser).
Meta met en place des filtres pour l’usage de ses services par les mineurs, qui bloquent toute discussion mettant en jeu des actes sensuels ou sexuels, et ajoute des protections à propos des troubles alimentaires et la dépression. L’entreprise a aussi décidé de restreindre les discussions de ses chatbots avec les mineurs sur la santé sexuelle, l’éducation à la sexualité, la contraception, la prévention des MST (notamment le VIH et le SIDA) ainsi que l’avortement.
Pour Meta, la gestion de ses utilisateurs mineurs est un sujet sensible en ce moment. La semaine dernière, Mark Zuckerberg était pressé devant la justice états-unienne de justifier la politique de Meta relative aux préados dans le procès qui l’oppose (ainsi que Google) à une jeune femme de 20 ans, Kaley G. M. Au cours de ce même procès, on a appris que l’entreprise avait enterré une recherche qui ne lui convenait pas à propos de l’addiction aux réseaux sociaux des adolescents.
Une alerte aux parents en cas de recherches Instagram répétées sur le suicide ou l’automutilation
L’entreprise a annoncé ce jeudi 26 février mettre en place un système d’alerte sur Instagram qui va informer les parents qui utilisent ses outils de contrôle parental si leur enfant « tente à plusieurs reprises de rechercher des termes liés au suicide ou à l’automutilation dans un court laps de temps ».
L’alerte sera envoyée par e-mail, SMS ou WhatsApp, en fonction des coordonnées disponibles, ainsi que par le biais d’une notification dans l’application. Le système sera mis en place dès les prochaines semaines aux États-Unis, au Royaume-Uni, en Australie et au Canada et sera déployé pendant l’année dans d’autres pays.
Cette fonctionnalité est possible car l’entreprise a mis en place, sur Instagram depuis septembre 2024 et sur Facebook et Messenger depuis avril 2025, un nouveau type de compte « adolescent » avec un contrôle parental renforcé.
« Nous lançons ces alertes dans un premier temps sur la fonction de recherche Instagram, mais nous savons que les adolescents se tournent de plus en plus vers l’IA pour obtenir de l’aide », explique l’entreprise :
« Bien que notre IA soit déjà entraînée pour répondre en toute sécurité aux adolescents et leur fournir des ressources appropriées sur ces sujets, nous mettons actuellement en place des alertes parentales similaires pour certaines expériences d’IA. Celles-ci avertiront les parents si un adolescent tente d’engager certains types de conversations liées au suicide ou à l’automutilation avec notre IA. »
Une politique de modération bloquant l’information sur la sexualité, la contraception et l’avortement
Mother Jones s’est procuré des documents internes à l’entreprise préparatoires à la mise en place de cette politique. Ainsi, « les contenus qui discutent, décrivent, permettent, encouragent ou approuvent les actes sensuels, les actes sexuels, l’excitation sexuelle ou le plaisir sexuel » sont maintenant bloqués si l’utilisateur est mineur. Ils sont orientés vers des informations sur la santé mentale s’ils posent des questions liées au suicide ou à l’automutilation et vers un numéro vert sur les questions de troubles alimentaires et la dépression.
Mais ces documents, selon notre confrère, interdisent que les chatbots de Meta génèrent aux mineurs « des contenus fournissant des conseils ou des avis sur la santé sexuelle », notamment « l’anatomie et la physiologie des organes reproducteurs, l’éducation à la puberté, la santé menstruelle, la fécondation et la reproduction, la prévention des IST et du VIH, les méthodes contraceptives, l’éducation au consentement et l’abstinence ». L’entreprise interdit aussi la génération de messages encourageant les adolescents à utiliser des préservatifs ou des produits d’hygiène menstruelle.
Mother Jones affirme que ces politiques de Meta vis-à-vis des contenus générés par IA pour les adolescents interdisent explicitement de donner des informations qui les aident à obtenir ou à pratiquer un avortement comme « vous pouvez aller dans un centre de planification familiale pour avorter ».
« Nos IA sont entraînées pour engager des discussions adaptées à l’âge des adolescents et pour les mettre en relation avec des ressources spécialisées et un soutien lorsque cela est nécessaire. Elles fournissent des informations factuelles sur la santé sexuelle, mais s’abstiennent de donner des conseils ou des avis » a répondu Meta à Mother Jones. « Nous révisons et améliorons continuellement nos protections afin que les adolescents aient accès à des informations utiles avec des mesures de sécurité par défaut en place » , ajoute l’entreprise.
La semaine dernière, Netflix annonçait l’abandon de son offre de rachat des studios de cinéma et télévision Warner Bros ainsi que du service HBO Max.
Quelques heures plus tard, Paramount Skydance publiait un communiqué expliquant que c’était finalement elle qui allait s’en emparer, comme c’était devenu prévisible. Rachetée il y a quelques mois par Larry Ellison et sa famille, l’entreprise s’empare donc d’un autre studio mythique d’Hollywood.
Le château d’eau de Warner Bros, par Silas Lundquist, Licence Unsplash
Pour rassurer les régulateurs de la concurrence, Paramount s’engage notamment à produire au moins 30 films pour les salles de cinéma par an, avec une fenêtre de 45 jours minimum avant qu’ils ne soient accessibles en VOD (et de 60 à 90 jours ou plus pour ceux qui rassemblent le plus de spectateurs en salle). L’accord doit être finalisé à la fin de l’année au maximum.
D’autre part, dans un document remis à la SEC (Securities and Exchange Commission, l’organisme de réglementation et de contrôle des marchés financiers des États-Unis), Warner Bros et Paramount se sont engagés à payer 2,8 milliards de dollars à Netflix pour avoir cassé l’accord de fusion qui avait été mis en place en décembre.
Le développement de l’intelligence artificielle générative et des grands modèles de langage demande toujours plus de puissance de calcul et de mémoire pour les entraînements et l’inférence. Si NVIDIA est sur un petit nuage (ou gros matelas rempli de billets) financier, la pénurie des puces entraîne une hausse des prix des SSD et de la mémoire, avec dans leur sillage le reste du monde du numérique.
HP par exemple, prévoit que la mémoire et le stockage vont représenter 35 % du prix de vente d’un ordinateur, contre 15 à 18 % il y a quelques mois. C’est désormais au tour du projet de console Orange Pi Neo d’en faire les frais. Elle est développée conjointement par la société chinoise Orange Pi (qui propose des micro-ordinateurs type Raspberry Pi) et la distribution Linux Manjaro.
Annoncée il y a deux ans, elle devait arriver cette année, durant le premier semestre. Deux versions étaient attendues, à 450 ou 550 dollars suivant la configuration (Ryzen 7840U avec 16 Go ou Ryzen 8840U avec 32 Go). Sur le forum officiel de Manjaro, le couperet est tombé : « En raison des prix élevés de la mémoire DDR5 et des SSD, le projet est actuellement en pause ».
L’équipe en profite pour indiquer que « les certifications CE et FCC sont désormais complètes. De plus, beaucoup d’améliorations ont été apportées à la Manjaro Gaming Edition. Nous attendons maintenant le bon moment pour lancer le produit… ». Reste que les prévisions sont assez pessimistes pour 2026, voire 2027. Octave Klaba, PDG d’OVHcloud, estime par exemple que « les prix resteront importants jusqu’à au moins 2028, le temps que de nouvelles capacités de production de mémoire voient le jour ».
L’Agence spatiale européenne explique avoir réalisé une première mondiale fin février : « Lors d’essais en vol à Nîmes, en France, le système laser UltraAir d’Airbus a maintenu une connexion sans erreur tout en transmettant des données à un débit de 2,6 gigabits par seconde pendant plusieurs minutes ».
L’avion était connecté au satellite géostationnaire Alphasat TDP-1 (Tesat), qui se trouvait donc à 36 000 km d’altitude. Le satellite est composé de quatre charges utiles pour des démonstrations, et TDP-1 est un module de communications optiques. « Il combine un terminal laser et une liaison descendante à haute vitesse pour acheminer des flux de données des satellites en orbite basse vers les stations terrestres via son satellite hôte », et maintenant aussi vers des avions en vol.
L’ESA en profite pour rappeler les avantages des lasers par rapport aux communications radio dont les fréquences sont de plus en plus rares : « ils offrent des liaisons plus sécurisées et peuvent transporter beaucoup plus d’informations ». Par contre, les « faisceaux laser se propagent beaucoup moins loin que les ondes radio ».
Le projet n’est pas nouveau, il avait été présenté par l’ESA en 2021. Il était alors question d’une « tête optique et plusieurs petits racks électroniques contenant principalement des équipements ». La tête est « isolée mécaniquement des vibrations » de l’avion. Le matériel est prévu pour être installé dans la cabine d’un petit jet, dont une des fenêtres est remplacée pour accueillir le matériel de réception du laser.
Le projet est en retard sur le calendrier qui prévoyait qu’une « fois la phase de démonstration menée à bien, la phase de prototypage débuterait début 2023 ». Quoi qu’il en soit, « ces avancées laissent entrevoir un avenir où les voyageurs pourront profiter d’une connexion Internet fiable et haut débit pendant leurs vols, et où les personnes à bord de navires ou de véhicules traversant des régions reculées pourront rester connectées sans interruption », explique l’Agence spatiale.
Il y a 18 mois, l’armée française signait une autre « une première mondiale » avec une liaison laser stable entre un nano-satellite en orbite basse et une station sol optique. Le général Stéphane Mille, chef d’état-major de l’Armée de l’air et de l’Espace, ajoutait que les lasers n’étaient pas utiles que pour les communications, c’est aussi une arme qu’il est possible d’utiliser depuis le sol ou l’espace, pour attaquer d’autres satellites par exemple.
Sur X, un compte de soutien à Donald Trump aux apparences organiques est en réalité géré par la Maison-Blanche. Une mécanique qui vient s’ajouter à d’autres déséquilibres de la plateforme en faveur des discours conservateurs.
Son pseudo : Johnny MAGA. Suivi par plus de 300 000 personnes sur X, ce compte pro-Trump participe directement au récit porté par la Maison-Blanche.
Dans les heures qui ont suivi la mort de Renee Good, tuée par un agent de l’ICE (Immigration and Customs Enforcement, le service de l’immigration et des douanes des États-Unis), le compte Johnny MAGA était au nombre de ceux republiant des images de drapeaux enflammés, affirmant qu’ils « brûlent le drapeau américain à Minneapolis ». Régulièrement, il republie à destination de son audience des publications faites par Trump sur son réseau Truth Social, quand il ne s’attaque pas aux opposants démocrates du Président.
Administré par le responsable des comptes de la Maison Blanche
Mais s’il cultive une apparence d’indépendance, qui pourrait le faire passer pour un soutien de Donald Trump parmi d’autres, le compte de « Johnny MAGA » serait en réalité administré par un membre des équipes de la Maison Blanche, rapporte Wired.
Selon des recoupements de numéros de téléphone et la confirmation de source interne à l’administration, le compte serait même géré par un spécialiste de ce type de sujets : Garett Wade, employé comme « rapid response manager », notamment en charge du compte officiel de la Maison Blanche sur X.
Si le cas mérite une attention particulière, c’est notamment parce qu’il a été cité par plusieurs médias traditionnels comme représentant (parmi d’autres) d’opinions supposément émises naturellement par une partie de la population états-unienne. Ainsi du New York Post, de Mother Jones ou de TownHall, liste Wired.
L’absence de transparence sur les liens de ce type de compte avec la Maison Blanche est de nature à renforcer la perte de confiance du public envers son administration. Pour le spécialiste de la désinformation Samuel Wooley, il s’agit même d’un conflit d’intérêts évident, alors même que Donald Trump a su, historiquement, s’entourer de créateurs et créatrices de contenus soutenant ses idées.
Écosystème orienté
Le cas est par ailleurs détecté alors qu’une nouvelle étude publiée dans Nature démontre l’orientation politique du système algorithmique de X. Nombreux sont les représentants politiques et les journalistes (y compris français) qui recourent toujours à la plateforme, sans nécessairement noter que le flux algorithmique « For You » ou « Pour vous » leur suggère des contenus à la tonalité différente du flux chronologique « Followers » ou « Abonnés ».
Loin d’être neutre, le système automatisé de hiérarchisation de l’information promeut plus régulièrement les contenus conservateurs, ce qui pousse les usagers à s’abonner à un nombre croissant d’activistes conservateurs, dont ils continuent de suivre les activités si jamais ils changent de système pour adopter le flux chronologique.
Autrement dit, si l’on reprend l’exemple du compte de la Maison-Blanche, ses publications peuvent profiter d’une double amplification difficilement perceptible par le public : celle d’un compte géré directement par la Maison-Blanche comme celui de Johnny MAGA, sans que cela ne soit rendu évident, et celui d’un flux algorithmique orienté en faveur des thématiques et propos portés par le président des États-Unis. En France, l’Arcom vient d’ailleurs d’être saisie au motif que X s’ouvre par défaut sur l’onglet « Pour vous » plutôt que sur son fil chronologique « Abonnés », rapporte L’Informé.
La question de la transparence des partis politiques sur leur manière de diffuser des contenus en ligne n’est pas spécifique au Parti républicain, relève Wired. Le Parti démocrate s’est ainsi avéré avoir recruté plus de 90 créateurs de contenu et les avoir payés de 250 à 8 000 dollars par mois pour publier des contenus numériques en leur faveur.
Donald Trump a publiquement ordonné vendredi soir à toutes les agences des États-Unis de cesser d’utiliser Claude et les produits d’intelligence artificielle d’Anthropic. La startup, dont le CEO Dario Amodei a refusé de modifier ses conditions d’utilisation pour le Pentagone, est désormais considérée comme un « fournisseur à risque pour la sécurité nationale ».
Cette fois, la rupture est consommée. Donald Trump s’en est ouvertement pris vendredi soir à Anthropic, dans un message virulent publié sur son réseau, Truth Social :
« J’ordonne à TOUTES les agences fédérales du gouvernement américain de CESSER IMMÉDIATEMENT toute utilisation de la technologie d’Anthropic. Nous n’en avons pas besoin, nous n’en voulons pas, et nous ne travaillerons plus avec eux ».
Trump menace Anthropic de conséquences civiles et pénales
Dans son message, le président développe l’idée selon laquelle c’est la façon dont Anthropic porte atteinte à la démocratie qui justifie cette mise au ban. « Les États-Unis d’Amérique ne permettront jamais à une entreprise d’extrême gauche, adepte du woke, de dicter la manière dont nos forces armées mènent et gagnent les guerres ! Cette décision revient à votre commandant en chef et aux excellents dirigeants que je nomme pour diriger nos forces armées », écrit-il encore, principalement en majuscules.
Donald Trump menace ouvertement Anthropic sur son réseau social – capture d’écran
Indiquant autoriser une période de six mois pour que le ministère de la Défense conclue ses chantiers en cours, il formule une dernière menace : « Anthropic ferait mieux de se ressaisir et de se montrer coopératif pendant cette période de transition, sinon j’utiliserai tous les pouvoirs de la présidence pour les contraindre à se conformer, avec d’importantes conséquences civiles et pénales à la clé. »
Un « risque pour la sécurité nationale »
Pete Hegseth, ministre de la Défense (renommé secrétariat d’État à la Guerre dans l’administration Trump) a concrétisé une partie de cette menace vendredi soir en déclarant, sur X, qu’Anthropic devait désormais être considéré comme un « fournisseur à risque pour la sécurité nationale ».
Ce passage en liste noire n’est pas anodin : il étend l’interdiction d’utiliser les produits Anthropic à toutes les entreprises qui contractent avec l’armée, comme le précise Hegseth :
« Suite à la directive du Président enjoignant au gouvernement fédéral de cesser toute utilisation de la technologie d’Anthropic, j’ordonne au Département de la Guerre de désigner Anthropic comme une menace pour la sécurité nationale en matière de chaîne d’approvisionnement. Avec effet immédiat, aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l’armée américaine n’est autorisé à mener une quelconque activité commerciale avec Anthropic. »
Sur X, les notes de la communauté complètent son message en précisant : « Anthropic indique clairement que les décisions militaires relèvent du gouvernement et refuse simplement d’accorder des licences pour son produit pour certains usages, conformément aux pratiques courantes de la liberté contractuelle ».
Une décision « punitive »
Dario Amodei, CEO d’Anthropic, a réagi samedi 28 février au micro de CBS. Il fait remarquer que c’est la première fois que la sanction proclamée par Hegseth s’applique à une société basée aux États-Unis, et dit voir dans cette démarche « une mesure de représailles et de punition ».
Rappelons qu’Anthropic faisait jusqu’ici partie des fournisseurs de solutions d’intelligence artificielle destinées à la défense américaine, dans le cadre d’un contrat estimé à 200 millions de dollars. L’entreprise refuse toutefois que ses outils soient utilisés dans deux scénarios, la surveillance de masse et le pilotage d’armes autonomes, ce qu’elle vient de rappeler dans un nouveau communiqué :
« Nous avons maintenu nos exceptions pour deux raisons. Premièrement, nous ne pensons pas que les modèles d’IA de pointe actuels soient suffisamment fiables pour être utilisés dans des armes entièrement autonomes. Autoriser l’utilisation des modèles actuels à cette fin mettrait en danger les combattants et les civils américains. Deuxièmement, nous estimons que la surveillance massive des citoyens américains sur le territoire national constitue une violation des droits fondamentaux. »
Cette position a valu au CEO une convocation au Pentagone, et un ultimatum de trois jours posé par Pete Hegseth le 24 février dernier. Entre temps, Amodei a publiquement réaffirmé sa volonté de coller aux conditions d’utilisation actuelles, et donc de refuser de céder aux demandes de l’administration Trump, dans un billet publié le 26 février. Ce dernier a manifestement contribué à jeter de l’huile sur le feu. « Les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech. Cette décision est irrévocable », affirme Hegseth.
Sam Altman au rapport
Le patron d’OpenAI a quant à lui saisi la balle au bond. Trois heures seulement après l’annonce des sanctions frappant Anthropic, Sam Altman a annoncé, sur X, avoir conclu un accord avec la Défense. Ce dernier porte sur l’intégration de modèles OpenAI au sein des activités militaires, et prévoirait deux garde-fous concernant précisément les points sur lesquels achoppait Anthropic :
« Deux de nos principes de sécurité les plus importants sont l’interdiction de la surveillance de masse intérieure et la responsabilité humaine quant à l’usage de la force, y compris pour les systèmes d’armes autonomes. Le ministère de la Guerre adhère à ces principes, les intègre dans sa législation et ses politiques, et nous les avons inscrits dans notre accord », affirme Altman, qui se pose en pacificateur dans le conflit en cours :
« Nous demandons au ministère d’appliquer les mêmes conditions à toutes les entreprises spécialisées en intelligence artificielle, ce qui, selon nous, devrait être acceptable pour tous. Nous avons exprimé notre ferme volonté de voir les tensions s’apaiser et de privilégier des accords raisonnables plutôt que des actions juridiques et gouvernementales. »
On ne branche pas directement le SSD dans le port PCIe !
Installer un SSD M.2 NVMe dans le port PCIe d’une carte mère peut se faire simplement à l’aide d’un adaptateur vendu quelques euros. Nous avons testé un modèle de Sabrent avec un radiateur pour refroidir les puces de NAND qui pourraient chauffer lors de gros transferts.
Nous avons commandé il y a quelque temps un adaptateur M.2 pour les SSD NVMe afin de les installer dans un emplacement PCIe de carte mère. C’est l’occasion d’expliquer comment cela fonctionne. C’est simple : un PCB, quelques pistes et quasiment aucun composant.
M.2 NVMe et PCIe : blanc bonnet et bonnet blanc
La raison est simple : les SSD au format M.2 utilisant le protocole NVMe sont déjà avec un câblage en PCIe, il n’y a donc aucune conversion de signal à faire pour les brancher sur un connecteur PCIe, il faut simplement emmener les broches du SSD au bon endroit sur le port PCI Express. Ce n’était pas le cas de l’adaptateur M.2 vers USB dans lequel, pour rappel, un contrôleur Realtek se chargeait de la conversion du signal.
Le PCB de notre adaptateur de marque Sabrent était vendu 10 euros sur Amazon il y a quelques mois quand nous l’avons acheté, mais il est désormais à 18 euros, ce qui est largement au-dessus de la moyenne pour ce genre de produit. Il en existe d’autres marques (ou sans marque) à 10 euros sur la marketplace d’Amazon.
Un PCB quasiment vide, et c’est normal
Le même bout de PCB (en no-name, sans la marque Sabrent, mais le reste du PCB est identique) est vendu quelques euros sur les plateformes chinoises, mais sans radiateur.
L’intérêt de ce modèle est qu’il est livré avec un pad thermique à poser sur les puces de mémoire NAND du SSD et un radiateur métallique qui englobe entièrement le SSD.
L’installation nécessite un peu de dextérité avec une vis pour faire tenir le SSD dans son emplacement M.2 (des trous sont disponibles pour les SSD au format 2230, 2242, 2260 et 2280, c’est-à-dire en 30, 42, 60 et 80 mm de long) et quatre autres pour fermer le boîtier. Dans le bundle, nous avions également un petit tournevis adapté aux vis, pratique.
À y regarder de plus près, on remarque quelques composants, à vrai dire. Deux condensateurs pour l’alimentation électrique, quatre LED et autant de résistances pour ces dernières. Aucun des composants ne sert au transfert des données.
Sur les photos ci-dessous, vous pouvez voir que seuls les deux premiers morceaux de PCB du port PCIe sont connectés, ce sont ceux qui correspondent à du x4. Les autres ne sont pas branchés, ce qui explique qu’on peut mettre la carte dans un emplacement x4, x8 ou x16.
Il suffit donc d’installer l’adaptateur dans un port PCIe de votre ordinateur. Il doit être en x4 minimum (il n’est pas compatible avec les ports x1), mais il peut aussi être en x4, x8 ou x16. Dans tous les cas, le câblage interne est en x4 maximum.
Sur la seconde rangée d’images, vous pouvez voir l’installation dans un emplacement x16, puis dans un emplacement x4 et enfin en face d’un emplacement x1 qui n’est pas compatible.
Cinq vis plus tard, 3 Go/s comme prévu avec notre SSD
Nous avons installé un SSD Kingston NV2S de 500 Go, qui est au format M.2 avec une interface NVMe en PCIe x4 Gen 4. Attention, cet adaptateur n’est compatible qu’avec les SSD M.2 avec une interface en PCIe, pas ceux en S-ATA !
Notre SSD était déjà partitionné et considérablement rempli, mais les performances sont équivalentes à celles obtenues s’il était directement branché sur la carte mère. Nous avons ainsi un peu plus de 3 Go/s en lecture et près de 2,4 Go/s en écriture.
Rien de surprenant puisque, une fois encore, cet adaptateur ne fait que mettre les broches du SSD M.2 au bon endroit sur le port PCIe, rien de plus ni rien de moins.
Des adaptateurs pour 2 ou 4 SSD existent, attention à la bifurcation !
Si vous avez des SSD à brancher sur votre ordinateur et plus (ou pas) d’emplacement M.2 disponible, alors ce genre d’adaptateur est fait pour vous, à condition d’avoir au moins un port PCIe x4 de libre. Nous n’avons testé qu’un seul modèle, mais il existe des dizaines de déclinaisons, avec un ou plusieurs emplacements M.2.
Sur les adaptateurs avec quatre emplacements, vous verrez parfois une mention du type : nécessite la fonction de bifurcation. Cette technique permet de diviser un port x16 en deux ports x8 ou en quatre ports x4. C’est nécessaire pour utiliser quatre SSD M.2 sur une même carte. Nous en avions déjà parlé il y a plusieurs années.
Même encore aujourd’hui, mieux vaut vérifier ce qu’il en est sur le manuel de votre carte mère. Première chose, bien différencier le format du connecteur PCIe et son câblage. Un emplacement x16 peut ne proposer que du x4 ou x8, cela peut même varier en fonction du CPU (qui peut proposer plus ou moins de lignes PCIe).
Un exemple ? La X670-P-CSM avec un port PCIe x16 en x16 et deux autres ports PCIe x16 en… x4. Ne comptez donc pas y installer plus d’un SSD M.2. Asus propose aussi une page dédiée à la bifurcation et aux différentes possibilités… vous allez voir que c’est plus complexe qu’il n’y parait.
Dans un email envoyé à l’ensemble de l’école et plus largement à « l’ensemble des usagers disposant d’un compte informatique ESPCI », le responsable du service informatique de l’École supérieure de physique et de chimie industrielles de la ville de Paris (ESPCI Paris) les a informés d’une fuite de données personnelles.
Le courrier explique que, « lors de la journée du jeudi 26 février 2026, un défaut de contrôle d’accès a permis à des acteurs non identifiés de moissonner l’annuaire de l’école ».
Les données concernées sont les suivantes :
Civilité, nom et prénom d’usage.
Courriel pro, et éventuellement personnel s’il a été renseigné.
Données d’identification: nom d’utilisateur, mais pas le mot de passe.
Fonction et affectation.
Photo, sauf si il avait été indiqué qu’elle ne devait servir qu’au badge.
Permissions d’accès aux services et aux locaux.
Abonnements aux listes de diffusion.
Pour les étudiants: inscriptions pédagogiques.
Pour le personnel: employeur, domaine d’activité (BAP, section CNRS et CNU).
Pour le personnel salarié de la régie: corps, date de fin de contrat.
Pour les prestataires, partenaires et extérieurs: employeur, catégorie socioprofessionnelle.
Le responsable du service informatique assure avoir notifié la CNIL, conformément à l’article 33 du RGPD et se dit « navré de cet incident ». Il ajoute que son équipe prévoit « des mesures de renforcement de la sécurité, afin que ce scénario ne puisse pas se reproduire ».
Next a contacté ESPCI pour en savoir plus et mettra à jour cet article le cas échéant.
La bourse attendra : OpenAI a dévoilé vendredi les modalités d’un nouveau tour de table record, avec 110 milliards de dollars réunis, sur la base d’une valorisation à 730 milliards de dollars. L’entreprise dirigée par Sam Altman en profite pour annoncer un partenariat renforcé avec Amazon, et assure que son accord avec Microsoft n’est pas remis en cause.
Moins d’un an après sa dernière levée de fonds (40 milliards de dollars en 2025), OpenAI remet le couvert avec un tour de table aux proportions pharaoniques. L’entreprise a en effet annoncé, vendredi 27 février, avoir réuni 110 milliards de dollars auprès de trois investisseurs : Amazon, premier contributeur avec 50 milliards de dollars, puis NVIDIA et Softbank, tous deux engagés à hauteur de 30 milliards de dollars.
« D’autres investisseurs financiers devraient nous rejoindre au fur et à mesure que le tour de table progresse », précise l’entreprise, qui ne compte donc pas en rester là. Il faut toutefois noter que ces montants sont des engagements d’investissement qui doivent donc encore se vérifier : Amazon par exemple promet 50 milliards de dollars mais en deux temps : d’abord 15 milliards, puis 35 milliards « dans les prochains mois, lorsque certaines conditions seront remplies ».
OpenAI valorisée 730 milliards de dollars
« La demande en IA augmente parmi les consommateurs, les développeurs et les entreprises. Répondre à cette demande et fournir l’accès à nos produits à tous exige trois choses : du calcul, de la distribution et du capital », résume OpenAI selon qui ces fonds vont permettre à ses infrastructures, comme à ses modèles, de passer à l’échelle.
L’entreprise en profite pour actualiser ses chiffres : elle ne communique aucun chiffre d’affaires, mais affirme que ChatGPT compte 900 millions d’utilisateurs actifs par semaine, dont 50 millions d’abonnés payants particuliers. Plus de 9 millions d’utilisateurs seraient abonnés à l’une des offres entreprise, et la base d’utilisateurs de Codex, son outil dédié aux développeurs, aurait été multipliée par trois depuis le début de l’année, pour atteindre 1,6 million d’utilisateurs hebdomadaires.
OpenAI précise que cette levée de fonds se fait sur la base d’une valorisation fixée à 730 milliards de dollars, avant réalisation du tour. La capitalisation de l’entreprise a donc plus que doublé en moins d’un an, puisqu’elle était fixée à 300 milliards lors de la précédente levée de fonds. L’entreprise indique que la participation de la fondation OpenAI au sein de l’entreprise commerciale est désormais valorisée 180 milliards de dollars.
Un partenariat dantesque (et circulaire) avec Amazon
Si Amazon (par ailleurs investisseur historique d’Anthropic) prend la tête de ce tour de table, c’est parce que les deux groupes ont convenu d’un partenariat renforcé entre OpenAI et Amazon Web Services (AWS).
Selon les termes de ce dernier, les deux groupes vont concevoir ensemble et lancer dans les prochains mois un environnement d’exécution stateful (capable de conserver l’état et le contexte), sous-tendu par les modèles d’OpenAI et distribué au travers d’Amazon Bedrock à destination des entreprises et développeurs qui cherchent à développer leurs propres agents ou applications IA.
AWS devient par ailleurs le distributeur tiers exclusif d’OpenAI Frontier, la plateforme tout juste annoncée via laquelle l’éditeur de ChatGPT propose à ses grands clients de déployer leurs applications.
AWS devient le distributeur agréé pour OpenAI Frontier, dont ce schéma résume le fonctionnement – crédit OpenAI
Dans le même temps, OpenAI s’engage à consommer (et donc à payer) l’équivalent de 2 GW de puissance de calcul sur le réseau de puces Trainium déployé dans les infrastructures d’AWS, précisément pour sous-tendre le fonctionnement de Frontier et des autres outils de déploiement évoqués.
Les deux partenaires indiquent que cet engagement prolonge l’accord à 38 milliards de dollars annoncé en novembre dernier et le porte à un total de 100 milliards de dollars sur huit ans.
Enfin, ils collaboreront à des modèles personnalisés, destinés aux applications commerciales d’Amazon vers le consommateur grand public.
5 GW chez NVIDIA
De la même façon, la participation de NVIDIA, finalement fixée à 30 milliards de dollars, bien loin des 100 milliards un temps évoqués, est assortie d’un engagement significatif de la part d’OpenAI, qui prévoit de consommer l’équivalent de 2 GW en entraînement sur des systèmes équipés de puces Vera Rubin, et 3 GW en capacités dédiées spécifiquement à l’inférence.
« Ce projet s’appuie sur les systèmes Hopper et Blackwell déjà opérationnels chez Microsoft, OCI et CoreWeave. Ensemble, cet investissement et ce développement de l’infrastructure renforcent notre capacité à entraîner et à déployer des modèles de pointe à l’échelle mondiale », précise à ce sujet OpenAI.
OpenAI et Microsoft toujours main dans la main
À ces deux annonces (levée de fonds et partenariat étendu avec Amazon), OpenAI ajoute une troisième communication, ciblée cette fois sur un autre partenaire et investisseur absent du tour de table : Microsoft.
Alors que les projets récemment renforcés de l’éditeur de Redmond en matière d’IA laissaient craindre à certains observateurs une forme de désengagement, OpenAI et Microsoft renouvellent leurs vœux dans une déclaration conjointe.
« Alors (…) qu’OpenAI annonce de nouveaux financements et de nouveaux partenaires, nous tenons à préciser que ces annonces s’inscrivent dans le cadre de notre partenariat actuel. Les annonces d’aujourd’hui ne modifient en rien les termes de la relation entre Microsoft et OpenAI, tels que présentés » en octobre 2025, affirment les deux entreprises.
Si AWS devient le partenaire de choix pour les environnements stateful, Azure reste par ailleurs le fournisseur exclusif des API stateless d’OpenAI, et la distribution directe des services d’OpenAI tels que Frontier se fera elle aussi toujours à partir de l’infrastructure Azure.
ReFS, pour Resilient File System, est le système de fichiers propriétaire conçu par Microsoft à destination des très grands espaces de stockage, avec une capacité maximale fixée à 35 Po par volume, contre 256 To en standard sur NTFS.
Introduit sous Windows (8.1) et Windows Server (2012), il y a près de 14 ans, ReFS présentait une limitation majeure : la prise en charge de ReFS sur un volume système utilisé pour le démarrage n’était pas officiellement assurée.
Sur ce point, la donne s’apprête à changer : Microsoft a en effet annoncé jeudi la prise en charge du démarrage sur ReFS au sein de Windows Server. Pour l’instant, la fonctionnalité n’est distribuée que par l’intermédiaire des préversions de test (Insider Preview), mais elle devrait logiquement être étendue à tous les canaux après une période de test.
« Les charges de travail [workloads, en anglais]modernes exigent davantage de la part du volume de démarrage que ce que NTFS peut fournir. ReFS a été conçu dès le départ pour protéger l’intégrité des données à grande échelle. En activant ReFS pour le volume de démarrage du système d’exploitation, nous garantissons que même les données système les plus critiques bénéficient d’une résilience avancée, d’une évolutivité à l’épreuve du temps et de performances améliorées », se réjouit l’éditeur.
L’option est proposée sur les builds de Windows Server ultérieures au 11 février.
Les avantages comparés de ReFS et NTFS pour un volume de démarrage selon Microsoft – capture d’écran
Pour aller plus loin sur le sujet, consultez notre dossier dédié :
Netflix retire finalement sa proposition de rachat des studios de la Warner Bros, l’offre initiale atteignait près de 83 milliards de dollars et visait l’intégralité des studios de cinéma et de télévision ainsi que le service HBO Max. Et c’est la Paramount Skydance, dirigée par David Ellison, qui devrait en profiter alors qu’elle a récemment formulé une offre pour 110 milliards de dollars.
Le montant est trop cher, selon Netflix. Le géant du streaming abandonne finalement son projet de rachat de Warner Bros annoncé début décembre.
« La transaction que nous avons négociée aurait créé de la valeur pour les actionnaires et aurait ouvert la voie à l’obtention de l’autorisation réglementaire », affirme l’entreprise dans un communiqué. « Cependant, nous avons toujours fait preuve de discipline, et au prix requis pour égaler la dernière offre de Paramount Skydance, l’opération n’est plus intéressante sur le plan financier. Nous refusons donc d’égaler l’offre de Paramount Skydance ».
En effet, juste après l’annonce de la signature de l’accord entre Netflix et Warner Bros, Paramount a lancé sa contre-attaque. L’entreprise rachetée quelques mois auparavant par Skydance grâce aux financements du patron d’Oracle, Larry Ellison, et dirigée par son fils, David, s’est rapidement positionnée pour contrer l’offre de Netflix avec une offre à 30 dollars par action.
Pressions de Donald Trump
La proposition de Paramount Skydance était soutenue par Donald Trump. Rappelons que Larry Ellison est un de ses soutiens financiers importants, organisant une levée de fonds pour sa campagne de 2020. Le dirigeant états-unien avait, dès l’annonce de la volonté de Netflix de racheter Warner Bros, exprimé ses réticences. Il avait souligné dès décembre 2025 que Netflix avait déjà « une très grosse part de marché » et que ça « pourrait poser un problème ». Samedi dernier, Donald Trump s’était attaqué à l’une des membres du conseil d’administration de Netflix, Susan Rice, demandant qu’elle en soit exclue. Celle-ci avait affirmé dans un podcast que les entreprises qui ont « mis genou à terre face à Trump » auront à rendre des comptes si les démocrates gagnaient les élections de mi-mandat aux États-Unis.
Et mercredi, la famille Ellison en a remis une couche et a relevé son offre à 31 dollars par action. Cette offre inclut la reprise de la dette de Warner Bros et valorise l’entreprise autour de 110 milliards de dollars. Paramount Skydance jugeait de plus que son offre avait davantage de possibilités d’être autorisée par les régulateurs. « Nous sommes ravis que le conseil d’administration de Warner Bros ait unanimement confirmé la valeur supérieure de notre offre, qui apporte aux actionnaires de Warner Bros une valeur supérieure, une certitude et une rapidité de clôture », affirmait David Ellison dans le communiqué de l’entreprise.
Le texte précisait aussi que « le fonds Ellison Trust s’engage à fournir 45,7 milliards de dollars de capitaux propres, et Larry Ellison garantit cet engagement, y compris l’obligation d’apporter des fonds propres supplémentaires à Paramount dans la mesure nécessaire pour soutenir le certificat de solvabilité exigé par les banques prêteuses de Paramount ».
Une acquisition pas « indispensable » pour Netflix
Netflix déclare finalement que « cette transaction a toujours été considérée comme » intéressante » à un prix raisonnable, et non comme « indispensable » à n’importe quel prix » dans son communiqué. Elle s’affiche comme « saine, solide et en pleine croissance organique, alimentée par [sa] plateforme et [son] service de streaming haut de gamme ».
Les investisseurs semblent avoir plutôt bien accueilli cette décision puisque, dans les échanges après-marché, les actions de Netflix bondissaient de 9 %. Du côté de la Paramount, le titre a augmenté de 6 % après une hausse de 10 % dans la journée.
David Zaslav, le CEO de Warner Bros, s’est rapidement affiché enthousiaste à l’idée de fusionner finalement avec l’entreprise dirigée par David Ellison : « Une fois que notre conseil d’administration aura voté en faveur de l’accord de fusion avec Paramount, cela créera une valeur considérable pour nos actionnaires », affirme-t-il au média spécialisé dans le business hollywoodien, Deadline. « Nous sommes motivés par le potentiel d’une alliance entre Paramount Skydance et Warner Bros. Discovery et sommes impatients de commencer à travailler ensemble pour raconter des histoires qui touchent le monde entier. »
Burger King teste dans 500 de ses restaurants des casques audio équipés d’une intelligence artificielle capable de réciter des recettes, d’alerter les responsables lorsque les stocks sont faibles mais également d’évaluer l’amabilité des employés envers les clients, rapporte Associated Press.
Le système collecte les données et les partage avec « Patty », un chatbot alimenté par OpenAI qui s’adresse aux employés via leur casque audio. Ils peuvent lui poser des questions, par exemple combien de tranches de bacon mettre sur un Maple Bourbon BBQ Whopper, ou demander des instructions pour nettoyer la machine à milk-shake, précise The Verge.
L’IA serait également capable d’informer le gérant du magasin si la machine à boissons est à court de Coca Light ou si un client utilise un code QR pour signaler des toilettes sales. Burger King a déclaré qu’il envisageait également d’utiliser Patty pour améliorer son service client, précise AP :
« Le système peut détecter lorsque les employés prononcent des mots clés tels que « bienvenue », « s’il vous plaît » et « merci », puis en informer les responsables ».
« Nous pensons que l’hospitalité est fondamentalement humaine »
Interrogé au sujet de cette fonctionnalité, Burger King précise que l’objectif était d’utiliser Patty comme un outil de coaching, et non comme un moyen de surveiller les employés individuellement.
« Il ne s’agit pas d’évaluer les individus ou d’imposer des scripts. Il s’agit de renforcer l’excellence de l’accueil et de fournir aux responsables des informations utiles en temps réel afin qu’ils puissent mieux reconnaître les performances de leurs équipes », a déclaré Burger King dans un communiqué transmis à AP :
« Nous pensons que l’hospitalité est fondamentalement humaine. Le rôle de cette technologie est d’aider nos équipes afin qu’elles puissent rester présentes auprès des clients. »
Thibault Roux, directeur numérique de Burger King, explique à The Verge que l’entreprise a compilé des informations provenant des franchisés et des clients sur la manière de mesurer la convivialité, ce qui lui a permis d’entraîner l’IA à reconnaître certains mots et expressions, tels que « bienvenue chez Burger King », « s’il vous plaît » et « merci ».
L’objectif serait aussi de permettre aux responsables de demander à Patty comment leur établissement se positionne en matière de convivialité. « Tout cela est conçu comme un outil de coaching », explique M. Roux, ajoutant que l’entreprise « itère » également pour capturer le ton des conversations.
En décembre dernier, la vidéo de Noël de McDonald’s Pays-Bas, baptisée «It’s the Most Terrible Time of The Year », avait déjà fait scandale, au point d’être dépubliée. Présentée comme l’incarnation du nouveau champ des possibles ouverts par l’IA, elle présentait en effet le « vrai » monde comme une suite de catastrophes… alors qu’il suffisait de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.
Je vais passer au Wi-Fi filaire, ça sera plus simple !
Les points d’accès Wi-Fi proposent souvent la possibilité de créer plusieurs réseaux pour séparer les utilisateurs et gérer les accès. Problème, des chercheurs montrent que cette isolation peut facilement voler en éclats, via trois méthodes. Ils ont testé 11 routeurs, 11 étaient vulnérables. Certains auraient corrigé le tir, d’autres ne le pourraient pas.
Lors du Network and Distributed System Security (NDSS) Symposium qui se tient du 23 au 27 février à San Diego, des chercheurs de l’université de Californie à Riverside et de la Katholieke Universiteit de Louvain (Belgique) ont présenté leurs travaux baptisés « AirSnitch : démystifier et briser l’isolement des clients dans les réseaux Wi-Fi ». Un papier technique a aussi été mis en ligne (.pdf).
Attention, on parle bien ici de l’isolation des utilisateurs sur un même point d’accès, pas de casser le chiffrement du Wi-Fi. Si le WEP est depuis longtemps obsolète, WPA2 AES (pas en version TKIP, cassé avec KRACK) et WPA3 tiennent encore. Rien ne change avec AirSnitch, les chercheurs ne s’attaquent absolument pas au chiffrement des données, qui reste intact.
Wi-Fi invité : faites comme chez vous… heu wait !!
Pour être mises en œuvre, les attaques décrites dans leur papier nécessitent que l’utilisateur puisse se connecter à la borne Wi-Fi, que ce soit sur le même SSID ou un autre, du moment que le point d’accès est le même. Mais c’est aussi plus large, suivant les configurations.
Les chercheurs ajoutent en effet que des attaques sont également possibles entre plusieurs points d’accès, « mais aussi réalisables dans les réseaux d’entreprise et de campus où plusieurs points d’accès sont connectés sur un même réseau filaire ». Une solution pour limiter les dégâts est de mettre en place des VLAN, à condition de bien le faire évidemment.
Pour le grand public et certaines petites entreprises, les risques peuvent donc être importants si vous avez, par exemple, un réseau « invité » largement accessible.
Des protections sont en théorie en place depuis longtemps : « Pour empêcher les clients Wi-Fi malveillants d’attaquer d’autres clients sur le même réseau, les fournisseurs ont introduit l’isolation des clients, une combinaison de mécanismes bloquant la communication directe entre les clients. Cependant, l’isolation des clients n’est pas une fonctionnalité standardisée, ce qui rend ses garanties de sécurité incertaines », expliquent les chercheurs en guise d’introduction.
AirSnitch : trois vecteurs d’attaques
Ils ont identifié trois principaux vecteurs permettant de casser l’isolation. La première vient « des clés Wi-Fi protégeant les trames de diffusion qui sont mal gérées et peuvent être détournées ». Il s’agit des clés GTK (Group Temporal Key) qui sont les mêmes pour tous les clients sur un même réseau.
Autre faiblesse : « l’isolation est souvent appliquée uniquement au niveau MAC ou IP, mais rarement aux deux ». Enfin, la dernière est la conséquence d’une « faible synchronisation de l’identité d’un client à travers toute la pile réseau », permettant d’usurper son identité sur la partie la plus faible du réseau pour ensuite la garder et capter le trafic.
Les chercheurs détaillent les risques qu’ils ont identifiés. Un attaquant pourrait accéder aux paquets IP, ce qui pourrait faciliter certaines attaques car « aujourd’hui encore, 6 % et 20 % des pages chargées sous Windows et Linux, respectivement, n’utilisent pas HTTPS […] Nos attaques permettent également l’interception de sites web ou de services intranet locaux, plus susceptibles d’utiliser des connexions en clair ». Et même si HTTPS est utilisé (les données ne sont pas déchiffrées via les attaques), « les adresses IP utilisées sont toujours révélées, ce qui est souvent suffisant pour savoir quel site web est visité ».
Comme un « attaquant peut intercepter et exploiter tout trafic en clair de la victime […], il peut intercepter le trafic DNS et empoisonner le cache DNS du système d’exploitation de la victime. Il peut également modifier l’enregistrement DHCP et changer l’adresse de la passerelle et le serveur DNS utilisés par la victime. Ces attaques peuvent avoir un impact durable sur la victime, même après que l’attaquant a cessé d’être un intermédiaire ».
Netgear, D-Link, TP-Link, Ubiquiti… plus d’une dizaine de routeurs vulnérables
Onze routeurs ont été testés et tous ont été vulnérables à au moins une des attaques : Netgear Nighthawk X6 R8000, Tenda RX2 Pro, D-Link DIR-3040, TP-Link Archer AXE75, ASUS RT-AX57, DD-WRT v3.0-r44715, OpenWrt 24.10, Ubiquiti AmpliFi Alien Router, Ubiquiti AmpliFi Router HD, LANCOM LX-6500 et Cisco Catalyst 9130. Pour ceux qui voudraient tenter eux-mêmes l’expérience (et qui ont du matériel compatible), du code est disponible dans ce dépôt GitHub.
Les chercheurs détaillent une attaque de bout en bout sur un routeur Netgear R8000. Il est configuré avec quatre SSID, deux invités et deux de « confiance », chacun sur les 2,4 et 5 GHz. Le routeur est connecté à Internet via un câble réseau.
L’attaquant est sur le réseau invité et veut lancer une attaque de type « homme du milieu » (MitM), afin d’intercepter tout le trafic montant et descendant d’une victime sur le réseau de « confiance ». « L’attaquant commence donc par se connecter au SSID invité avec l’adresse MAC de la victime, mais sur une fréquence différente afin d’éviter toute déconnexion ». On vous épargne la partie technique (page 10 de ce document .pdf) pour arriver à la conclusion.
Les techniques mises en place « amènent le point d’accès à rediriger le trafic descendant de la victime vers le SSID invité. L’attaquant renvoie ensuite le trafic intercepté à la victime grâce à la technique de rebond de passerelle. De même, il intercepte le trafic montant en usurpant l’adresse MAC du point d’accès (c’est-à-dire le routeur passerelle) et le renvoie au serveur de la victime. L’attaque complète dure environ deux secondes. Pendant toute la durée de l’attaque, la victime regarde une vidéo YouTube en streaming sans subir de latence significative ».
Ars Technica s’est entretenu avec le premier chercheur de la publication, Xin’an Zhou. Nos confrères ont glané quelques informations sur les réactions des constructeurs de bornes et points d’accès : « Zhou a indiqué que certains fabricants de routeurs avaient déjà publié des mises à jour atténuant certaines attaques, et que d’autres étaient attendues. Il a toutefois précisé que certains fabricants lui avaient confié que certaines failles systémiques ne pouvaient être corrigées qu’en modifiant les puces sous-jacentes qu’ils achètent auprès des fabricants de semi-conducteurs ». Nos confrères n’entrent pas davantage dans les détails.
À la fin de leur publication, les chercheurs affirment avoir « signalé les vulnérabilités aux fournisseurs concernés, ainsi qu’à la Wi-Fi Alliance. La Wi-Fi Alliance a pris acte de leurs conclusions et ils attendent sa décision ».
Prudence sur les Wi-Fi publics et invités… comme toujours
Côté utilisateur, pas grand-chose à faire si ce n’est faire preuve de prudence. Il faut déjà se méfier des points d’accès publics, mais donc aussi de ceux plus confidentiels. Éviter aussi de donner accès à un Wi-Fi invité à n’importe qui (on espère que vous n‘avez pas attendu cette actualité…).
Une autre solution, les VPN : « Une partie de la menace peut être atténuée en utilisant des VPN, mais cette solution présente tous les inconvénients habituels. D’une part, les VPN sont réputés pour la fuite de métadonnées, des requêtes DNS et d’autres trafics utiles aux attaquants, ce qui limite la protection. Et d’autre part, trouver un fournisseur VPN réputé et digne de confiance s’est avéré historiquement difficile, même si la situation s’est améliorée récemment. En fin de compte, un VPN ne devrait pas être considéré comme plus qu’un simple pansement », explique Ars Technica.
Il n’est pas forcément nécessaire de passer par un tiers, si vous avez une Freebox avec Freebox OS, elle peut faire office de serveur VPN Wireguard, vous permettant ainsi d’utiliser votre connexion Internet en déplacement, de manière sécurisée. Vous pouvez également utiliser un VPS pour y installer un serveur VPN, nous aurons prochainement l’occasion d’en reparler. Surtout, soyez prudent face aux petits et gros mensonges des vendeurs de VPN.
Jack Dorsey a annoncé jeudi soir le licenciement de 4 000 personnes, soit 40 % des effectifs, chez Block, la société qui réunit notamment Square et Tidal. L’entrepreneur affirme qu’il n’a pas d’autre choix que de réorganiser son groupe autour d’équipes plus réduites assistées par des outils d’intelligence artificielle.
La décision risque de résonner de façon prophétique aux oreilles de tous ceux qui s’inquiètent de l’impact de l’IA générative sur le monde du travail : Jack Dorsey, cofondateur de Twitter et personnalité emblématique de la scène tech californienne, a publiquement annoncé, et expliqué, sa décision de licencier sans délai 4 000 personnes, soit 40 % de l’effectif total, de son groupe Block.
« Je préfère prendre une décision ferme et claire dès maintenant »
« Nous ne prenons pas cette décision parce que nous sommes en difficulté. Notre entreprise est solide. Notre marge brute continue de croître, nous servons toujours plus de clients et notre rentabilité s’améliore. Mais quelque chose a changé », écrit Jack Dorsey sur son ancien réseau social.
Ce quelque chose, c’est bien sûr l’intelligence artificielle :
« Nous constatons déjà que les outils d’intelligence que nous créons et utilisons, associés à des équipes plus petites et plus horizontales, permettent une nouvelle façon de travailler qui change fondamentalement ce que signifie construire et gérer une entreprise. Et ce phénomène s’accélère rapidement. »
Dorsey explique avoir été confronté à deux options : échelonner les licenciements « au fur et à mesure que ce changement se produit », ou « être honnête sur la situation » et donc agir en conséquence.
« Je préfère prendre une décision ferme et claire dès maintenant et construire sur des bases solides plutôt que de gérer une réduction progressive des effectifs pour atteindre le même objectif. Une entreprise plus petite nous offre également la possibilité de développer notre activité de manière optimale, selon nos propres conditions, au lieu de réagir constamment aux pressions du marché. »
S’il admet que procéder à une coupe franche d’une telle envergure « présente un risque », Dorsey se dit prêt à assumer sa décision, et appelle les employés épargnés à le suivre dans cette nouvelle configuration :
« Nous allons bâtir cette entreprise en plaçant l’intelligence au cœur de tout ce que nous faisons : notre façon de travailler, de créer et de servir nos clients. Nos clients ressentiront eux aussi ce changement, et nous les accompagnerons dans cette transition vers un avenir où ils pourront développer directement leurs propres fonctionnalités, à partir de nos capacités et accessibles via nos interfaces. C’est mon objectif actuel. »
Block s’envole à Wall Street
Block, qui avait déjà réalisé une belle journée en bourse jeudi (+ 5%) s’est envolée de 23 % dans les échanges après-marché, sans qu’on sache si l’appétit des investisseurs découle précisément de cette annonce choc, ou des excellentes performances affichées par le groupe.
L’entreprise a en effet publié jeudi soir les résultats financiers de son quatrième trimestre 2025 : elle fait état d’un chiffre d’affaires de 2,87 milliards de dollars, en hausse de 24 % sur un an, qui s’accompagne d’un bénéfice net de 485 millions de dollars sur le trimestre. Sur l’année, Block enregistre 10,36 milliards de dollars de chiffre d’affaires, une croissance de 17 % sur un an.
Dans la lettre aux actionnaires (PDF) qui accompagne cette publication, Jack Dorsey renouvelle et complète ses explications. Il y pronostique une vague de licenciements à très grande échelle dans toute l’industrie :
« Je pense que la plupart des entreprises sont en retard. D’ici un an, je crois que la majorité des entreprises arriveront à la même conclusion et procéderont à des changements structurels similaires. Je préfère y parvenir honnêtement et selon nos propres conditions plutôt que d’y être contraints par la force des choses. »
Block réunit pour mémoire Square (services financiers pour e-commerçants), Cash App (service de paiement mobile et d’envoi d’argent, sur le modèle d’un Wero), Afterpay (paiement fractionné et crédit à la consommation), Tidal (service de streaming musical lancé en 2015), Bitkey (portefeuille bitcoin) et Proto (minage de cryptomonnaies).
À Wissous, depuis 2019, la société CyrusOne crée un data center pour le compte d’Amazon. La manière dont le projet a été proposé, divisé en trois phases sans en informer par avance le public, suscite les contestations de la mairie comme de l’opposition.
L’installation est vaste, grise sous le ciel gris, à l’exception d’une petite extension vert foncé, du côté des habitations. Quand on en fait le tour, on se retrouve devant les multiples portes roulantes qui marquent le lieu où des camions auraient dû, initialement, venir se ranger le temps de se délester de leur chargement. Tout autour : des grillages, dédoublés par endroits. Pour l’œil non averti, le bâtiment ressemble à n’importe quel entrepôt. Pour Philippe de Fruyt et Jean-Luc Touly, qui nous en font faire la visite, il s’agit d’un centre de données mal placé.
Conseiller municipal de la ville de Wissous, le premier s’oppose au projet depuis qu’il en a appris l’existence, quelques semaines à peine avant les élections municipales de 2020. Initialement dans la majorité de la localité de 7 000 habitants, le second l’a rejoint au sein de la liste d’opposition Wissous notre ville. Depuis le QG de campagne – un garage au fond du jardin de Philippe de Fruyt, qui présente sa candidature à la mairie de Wissous pour la troisième fois –, les deux hommes reviennent sur l’histoire politique mouvementée de leur ville, et la manière dont un centre de données destiné à recevoir les serveurs du géant états-unien Amazon, s’y est retrouvé mêlé.
Parmi leur auditoire, en ce matin neigeux de janvier, trois membres de l’association Data for Good. Alors que Wissous notre ville est en contentieux avec CyrusOne depuis plusieurs années, l’association, qui souhaite « mettre le numérique au service de l’intérêt général », l’a rejointe dans sa procédure en appel. Le but, explique sa co-présidente Lou Welgryn à Next : « mettre en lumière une pratique qui se généralise dans la manière dont les data centers s’implantent en France ». Pour les plaignants, CyrusOne a en effet divisé son projet en trois phases taillées exprès sous les différents seuils de contrôle imposés par le code de l’environnement.
Diviser un projet de centre de données en étapes de construction n’a rien d’inhabituel, pointe le sociologue Clément Marquet. « Les opérateurs l’expliquent en langage économique, ils parlent de time to market : quand ils identifient un terrain, ils veulent pouvoir fournir un premier data center le plus vite possible. » Dans ces conditions, cela dit, leurs clients ne rempliront pas directement les surfaces complètes envisagées.
Au Sud-Est de la capitale, Fouju héberge par exemple l’un des cinq sites « fast tracks » identifiés par le gouvernement. Lors de la consultation publique organisée par le gestionnaire du réseau de transport d’électricité RTE et le porteur de projet Campus IA, ce dernier a ainsi détaillé comment un premier investissement de 8 milliards d’euros devrait permettre de construire les équipements mutualisés, obtenir ce premier raccordement de 700 MW (plus de 7 fois la puissance envisagée pour le projet de Wissous), et construire trois premiers centres de données.
Le nombre d’étapes qui doit permettre au projet d’atteindre son amplitude finale (annoncée à 50 milliards d’euros d’investissements et 1,4 GW de puissance) dépendra « des capacités effectivement mises à disposition et de la demande », expliquait alors le directeur de Campus IA Thibaud Desfossés.
Si la pratique a « beaucoup d’avantages pour les opérateurs », admet Clément Marquet, elle crée « un effet de déni de démocratie ». La consultation publique paraît « nécessairement favorable : elle ne permet pas de débattre, juste de prévoir les améliorations techniques qui apaiseront les riverains ». Par ailleurs, le phasage des projets empêche « d’évaluer leurs impacts environnementaux dans leur intégralité, développe Lou Welrgyn, ce qui rend beaucoup plus difficile l’information des citoyens sur ces sujets ».
Transparence en question
Dans le cas de Wissous, l’image que dessinent Philippe de Fruyt et Jean-Luc Touly est encore plus complexe. D’après la propre documentation de CyrusOne, l’entreprise américaine a obtenu en 2020 « un permis de construire, en conformité avec la loi et la réglementation françaises, permettant l’installation d’une seule salle informatique fournissant 4,5 MW de capacité IT sur 1 810 m² d’espace technique ». Dans son rapport financier du quatrième trimestre 2020, outre un bail de location de 25 ans pour un site de 5 hectares situé à Paris, CyrusOne citait justement le développement de la première phase d’un centre de données entièrement pré-loué.
Mais à la ville de Wissous, aucune information n’avait filtré sur le projet avant qu’une alerte ne parvienne à Philippe de Fruyt et que celui-ci décide de l’évoquer publiquement en amont des élections municipales de 2020. « Avant de faire de la politique, j’ai eu une carrière dans l’industrie », explique celui qui a passé l’essentiel de sa carrière chez l’équipementier automobile Valeo. « J’y ai appris que quand vous avez un bon projet, vous le faites savoir. »
Un « bon projet » pourrait par exemple désigner un centre de données construit par un acteur américain majeur à l’heure où la transformation numérique est dans toutes les bouches, continue l’homme politique. Ou encore un centre de données qui serait implanté dans la zone industrielle de Wissous, sous l’égide d’une mairie dont l’agenda politique s’articule notamment autour de la promotion des projets entrepreneuriaux. « Quand personne ne sait rien, contrebalance Philippe de Fruyt, ça sent mauvais. »
Dans les mois qui suivent les élections, la gestion municipale devient houleuse. Richard Trinquier est bientôt remplacé par Florian Gallant, qui se retrouve en position de gérer le dossier du centre de données. En 2021, « ô surprise, Cyrus One nous annonce qu’il existe un projet d’extension à 49,5 MW », exposait Jean Luc Touly dans une vidéo publiée sur Facebook en 2023. Alors qu’il raconte à nouveau l’affaire à l’association Data for Good, le wissoussien s’arrête à nouveau sur ce chiffre qui le fait visiblement rire jaune.
À ses yeux, chacune des étapes du projet de Cyrus One a en effet promis d’atteindre une puissance à peine inférieure à différents seuils de contrôle fixés par le code de l’environnement. Dès 2022, le Journal du Net révèlait pourtant qu’Amazon Web Services, la filiale cloud d’Amazon, prévoyait d’occuper 100 % de ce projet qui, à terme, devait représenter « 15 000 m2 de salles informatiques pour une puissance de 83 MW ».
Trois paliers d’installations classées pour la protection de l’environnement
Car le code de l’environnement est clair : selon la puissance envisagée, le processus de déclaration et les obligations de consultation de la population ne sont pas les mêmes.
Sous les 20 MW de puissance, les opérateurs d’installations classées pour la protection de l’environnement (ICPE) peuvent se contenter de soumettre une déclaration à l’administration avant de lancer leur projet. Entre 20 et 50 MW, le projet doit être enregistré auprès de la préfecture, qui lancera alors un audit environnemental formel, et s’accompagne d’une mise à disposition, en mairie, du dossier et d’un registre des observations du public. Au-dessus des 50 MW, en revanche, les ICPE sont soumis à des processus plus complexes d’autorisation, qui impliquent notamment des audits environnementaux et l’organisation d’une consultation publique plus poussés.
« Depuis le début, l’objectif est de ne passer que par les régimes de déclaration et d’enregistrement pour éviter d’être repérés », estime auprès de Next un haut fonctionnaire de l’autorité environnementale interrogé sur les pratiques de CyrusOne à Wissous. « Ensuite, c’est comme d’autres projets industriels, comme pour l’autoroute A69 : quand le chantier est très engagé, ça devient difficile de revenir en arrière. Le juge dira que c’est un fait acquis. Certes, ils formulent une demande d’extension, mais on ne va pas aller implanter le projet ailleurs, on va plutôt conforter ce qui existe. »
Lorsque CyrusOne présente son projet de phase 2, une augmentation qui lui permettrait de créer deux nouvelles salles informatiques, le maire refuse, dans un arrêté du 18 août 2021, le permis de construire nécessaire. « Selon notre Plan local d’urbanisme (PLU), il n’y avait pas le droit de créer d’ICPE de plus de 20 MW dans cette zone » , déclare son successeur, Cyrille Telman. Comme le document date de 2005, et que le code de l’environnement a depuis créé la possibilité d’en développer par enregistrement, « c’est-à-dire, de notre point de vue, par procédure simplifiée », CyrusOne argumente qu’elle avait malgré tout le droit de s’installer dans l’entrepôt du 1, boulevard Arago.
L’entreprise se tourne donc vers la préfecture, avec qui le maire de l’époque, Floriant Gallant, « a des rendez-vous quasiment toutes les semaines », explique Cyrille Telman. « On voit bien, à l’époque, que la puissance étatique pousse pour qu’on accepte le projet. » CyrusOne et la préfecture en appellent à la justice administrative, qui tranche en faveur de la société états-unienne.
Wissous la Ville, désormais rejoint par Data for Good, se pourvoit en appel, argumentant notamment que l’entreprise aurait dû annoncer dès le départ son projet de data center complet, ce qui l’aurait soumis au processus le plus strict de demande d’autorisation pour une ICPE. Parmi les éléments, l’association locale verse au dossier une lettre consultée par Next et adressée par les conseillers de Cyrus One à la mairie de Wissous. En date du 14 octobre 2021, ces derniers soulignent « qu’à la suite de nombreux échanges avec la mairie de Wissous, la société CyrusOne Paris s’est engagée sur le long terme auprès de son bailleur et a réalisé de très lourds investissements concernant les différentes phases du projet (52 millions d’euros pour la seule phase 1). Ces investissements ne pourront pas être amortis si les phases 2 et 3 du projet ne sont pas mises en œuvre. En outre, la commercialisation de l’ensemble du projet étant aujourd’hui achevée, les risques de pertes financières se chiffrent en centaines de millions d’euros ».
S’ils soulignent, donc, que la rentabilité ne pourra être atteinte que grâce à la complétion du centre de données entier, ils indiquent aussi, plus loin, que « chaque phase du projet, prise isolément, est conforme aux règles d’urbanisme ». « Quand on s’appuie sur la loi » et sur la manière dont Wissous avait construit son PLU, estime Cyrille Telman, « on ne comprend pas que leur projet soit possible ». Contacté, CyrusOne indique ne pas être « en mesure de donner suite à des demandes d’interview ».
Emplacement inadéquat pour récupérer la chaleur fatale
Outre ces enjeux de divisions en phase, « ce qui choque les gens, c’est l’impossibilité de récupérer la chaleur fatale » produite par le fonctionnement des serveurs, explique Philippe de Fruyt. Dans le bras de fer qui a opposé la mairie à CyrusOne, Florian Gallant a bien obtenu quelques garanties environnementales, mais sur la question de la chaleur fatale, son successeur regrette que cela ne se traduise que par « l’installation d’une vanne. Dans d’autres villes, à Marcoussis, à Nozay [deux villes où s’est implanté l’opérateur français Data4, ndlr], les opérateurs jouent le jeu et participent à l’installation de l’infrastructure » sans laquelle la mise à disposition de la chaleur supplémentaire émise par les serveurs ne pourra de toute manière pas être réutilisée par la collectivité.
Emplacement du Data Center de CyrusOne dans Wissous / Capture d’écran OpenStreeMap
Le bâtiment dans lequel s’est installé CyrusOne est par ailleurs construit très près du cœur de ville. En face de l’édifice, le long de la rue André Dolimier, s’enchaînent un terrain de pétanque, un stade, un accueil de mineurs. Alors qu’on continue vers l’est, vers la rue Louis Boussard, deux maisons apparaissent, qui semblent installées sur le même terrain que le centre de données. Un peu plus loin, la façade arrière de la crèche les P’tits Loups, déplacée début 2026, se repère entre deux habitations.
« L’emplacement est mal choisi », résume Jean-Luc Touly. De l’autre côté de l’autoroute qui sépare une mince zone, au nord-ouest, du reste de la commune de Wissous, « il y a un autre site, sous une ligne électrique de 220 kV ». S’il avait été localisé là, le centre « n’aurait pas été proche de la population, mais plus proche de la ville voisine d’Antony, qui dispose d’un réseau de chauffage urbain » pour lequel la vanne de CyrusOne aurait facilement trouvé un débouché. Pour l’association Wissous la ville, c’est là que la ferme de serveurs devrait être installée. Sur place, en revanche, il n’existe pas d’entrepôt déjà construit comme celui que Cyrus One a pu récupérer boulevard Arago. « Or, fait remarquer le maire, une réhabilitation et une création d’entrepôt, cela n’est pas soumis aux mêmes normes. »
Au niveau local, alors que les élections municipales se profilent, Philippe de Fruyt voudrait faire du data center l’un des sujets de la campagne. Cyrille Telman, lui, constate que le sujet « ne vient pas dans la bouche des gens. Quand on fait du porte-à-porte, ils nous parlent du quotidien, de la crèche, mais pas de CyrusOne. » La question, finalement, porte peut-être plus auprès d’organisations implantées au niveau national.
Ce 30 janvier, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff saluait ainsi l’identification de 63 sites adaptés à l’implantation de centres de données, dont plus du tiers (26) sont d’ores et déjà alloués à un porteur de projet. Au total, indiquent les services du ministère de l’Économie, la « puissance électrique recherchée atteint 28,6 GW ». Alors qu’elle quitte un Wissous enneigé, Lou Welgryn, elle, se demande : « Pourquoi est-ce qu’on a besoin d’autant de puissance de calcul ? » Et d’espérer que « l’exemple concret et local » du centre de données installé à Wissous permette d’ouvrir le débat. Rendez-vous à la date de l’audience, le 19 mars, pour continuer la discussion.