Vue normale

Reçu — 2 mars 2026 Next - Articles gratuits

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

2 mars 2026 à 16:40
IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

☕️ À Austin, les robotaxis de Tesla enregistrent quatre fois plus d’accidents que les humains


2 mars 2026 à 16:23

Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. 
Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.

Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Site de Tesla / Capture d’écran

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.

Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.

Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains. 


En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.

L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. 
Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.

À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.

☕️ Data centers : le DG d’iliad (Free) veut accélérer les procédures sur les friches industrielles

2 mars 2026 à 13:14

« Refuser de surtransposer le droit européen ; créer une procédure environnementale accélérée pour les projets installés sur des friches industrielles déjà artificialisées ; autoriser la réutilisation des études environnementales déjà réalisées afin d’éviter des redondances inutiles. »

Telles sont les requêtes de Thomas Reynaud, directeur général d’Iliad-Free, qui les formule dans une tribune publiée dans Les Échos. 
Le dirigeant s’indigne du temps que prend l’étude faune-flore (.pdf) à laquelle doit se soumettre tout projet industriel, et ce pendant « plusieurs mois (jusqu’à un an dans le cadre d’une étude dite "4 saisons" », selon la documentation (.pdf) de la Direction générale des Entreprises.

Concrètement, il s’agace de devoir y passer douze mois, alors que le projet de centre de données construit par OpCore (filiale à 50 % d’iliad et 50 % du fonds InfraVia) en Seine-et-Marne doit être construit sur le site de l’ancienne centrale à charbon de Montereau.

En l’espèce, Thomas Reynaud se fait l’écho à des requêtes de simplification de l’implantation de centres de données en France – promues par exemple via le soutien de l’article 15 de la loi de simplification de la vie économique, qui doit encore être votée par les parlementaires –, quoique de manière plus ciblée.

Soulignant que des centres de données sont construits très rapidement aux États-Unis ou en Chine, au prix de « non-sens écologiques », il décrit une France en train de perdre du temps « d’observation d’un sol stérile » alors même qu’elle « dispose d’un des mix électriques les plus décarbonés de la planète et des ingénieurs d’exception qui doivent faire de la France la première terre d’accueil des infrastructures d’IA en Europe et une des premières au monde ».

Et d’appeler à simplifier les procédures pour les fermes de serveurs dédiées à s’implanter sur des friches déjà artificialisées.

Quand un compte MAGA très suivi sur X est en réalité animé par la Maison Blanche

2 mars 2026 à 07:01
Double face
Quand un compte MAGA très suivi sur X est en réalité animé par la Maison Blanche

Sur X, un compte de soutien à Donald Trump aux apparences organiques est en réalité géré par la Maison-Blanche. Une mécanique qui vient s’ajouter à d’autres déséquilibres de la plateforme en faveur des discours conservateurs.

Son pseudo : Johnny MAGA. Suivi par plus de 300 000 personnes sur X, ce compte pro-Trump participe directement au récit porté par la Maison-Blanche.

Dans les heures qui ont suivi la mort de Renee Good, tuée par un agent de l’ICE (Immigration and Customs Enforcement, le service de l’immigration et des douanes des États-Unis), le compte Johnny MAGA était au nombre de ceux republiant des images de drapeaux enflammés, affirmant qu’ils « brûlent le drapeau américain à Minneapolis ». Régulièrement, il republie à destination de son audience des publications faites par Trump sur son réseau Truth Social, quand il ne s’attaque pas aux opposants démocrates du Président.

Administré par le responsable des comptes de la Maison Blanche

Mais s’il cultive une apparence d’indépendance, qui pourrait le faire passer pour un soutien de Donald Trump parmi d’autres, le compte de « Johnny MAGA » serait en réalité administré par un membre des équipes de la Maison Blanche, rapporte Wired.

Selon des recoupements de numéros de téléphone et la confirmation de source interne à l’administration, le compte serait même géré par un spécialiste de ce type de sujets : Garett Wade, employé comme « rapid response manager », notamment en charge du compte officiel de la Maison Blanche sur X.

Si le cas mérite une attention particulière, c’est notamment parce qu’il a été cité par plusieurs médias traditionnels comme représentant (parmi d’autres) d’opinions supposément émises naturellement par une partie de la population états-unienne. Ainsi du New York Post, de Mother Jones ou de TownHall, liste Wired.

L’absence de transparence sur les liens de ce type de compte avec la Maison Blanche est de nature à renforcer la perte de confiance du public envers son administration. Pour le spécialiste de la désinformation Samuel Wooley, il s’agit même d’un conflit d’intérêts évident, alors même que Donald Trump a su, historiquement, s’entourer de créateurs et créatrices de contenus soutenant ses idées.

Écosystème orienté

Le cas est par ailleurs détecté alors qu’une nouvelle étude publiée dans Nature démontre l’orientation politique du système algorithmique de X. Nombreux sont les représentants politiques et les journalistes (y compris français) qui recourent toujours à la plateforme, sans nécessairement noter que le flux algorithmique « For You » ou « Pour vous » leur suggère des contenus à la tonalité différente du flux chronologique « Followers » ou « Abonnés ».

Loin d’être neutre, le système automatisé de hiérarchisation de l’information promeut plus régulièrement les contenus conservateurs, ce qui pousse les usagers à s’abonner à un nombre croissant d’activistes conservateurs, dont ils continuent de suivre les activités si jamais ils changent de système pour adopter le flux chronologique.

Autrement dit, si l’on reprend l’exemple du compte de la Maison-Blanche, ses publications peuvent profiter d’une double amplification difficilement perceptible par le public : celle d’un compte géré directement par la Maison-Blanche comme celui de Johnny MAGA, sans que cela ne soit rendu évident, et celui d’un flux algorithmique orienté en faveur des thématiques et propos portés par le président des États-Unis. En France, l’Arcom vient d’ailleurs d’être saisie au motif que X s’ouvre par défaut sur l’onglet « Pour vous » plutôt que sur son fil chronologique « Abonnés », rapporte L’Informé.

La question de la transparence des partis politiques sur leur manière de diffuser des contenus en ligne n’est pas spécifique au Parti républicain, relève Wired. Le Parti démocrate s’est ainsi avéré avoir recruté plus de 90 créateurs de contenu et les avoir payés de 250 à 8 000 dollars par mois pour publier des contenus numériques en leur faveur.

Reçu — 27 février 2026 Next - Articles gratuits

Face aux projets de centres de données, des résistances s’organisent

27 février 2026 à 08:30
Qui définit la trajectoire ?
Face aux projets de centres de données, des résistances s’organisent

Alors que des contestations émergent autour de plusieurs projets de centres de données en France et ailleurs, des associations tentent de se saisir de ces occasions de visibilisation de l’infrastructure numérique pour ouvrir un débat sur la trajectoire technologique.

« Méga datacenter, incinérateur, c’est non ! » À Vitry-sur-Seine, dans le Val-de-Marne, le remplacement d’un dépôt pétrolier inutilisé depuis 15 ans par un centre de données fait partie des deux grands sujets que la liste Vitry Unie et populaire (divers gauche) veut mettre au cœur des débats en amont des municipales.

« Un tel centre de données, ça a une énorme emprise territoriale, ça implique énormément de consommation d’eau, d’électricité, ça crée très peu d’emplois », liste Merlin Gautier-Marchand, du collectif Pour une écologie populaire et sociale (PEPS), auprès de Next.

Ce 15 février, les collectifs de défense de l’environnement 3R, Pour une écologie populaire et sociale (PEPS) et Soulèvements de la Terre se mêlaient à Vitry Unie et populaire pour protester contre deux projets industriels perçus comme similaires.

« L’incinérateur, il va permettre de chauffer les Parisiens, mais créer de la pollution pour Vitry, continue Merlin Gautier-Marchand. Dans les deux cas, il s’agit de bâtiments qui vont servir la capitale, c’est-à-dire servir des intérêts qui n’ont rien à voir avec ceux des Vitriotes. »

La préoccupation résonne avec celle d’habitantes de Fouju, village de Seine-et-Marne où doit s’installer Campus IA, le plus gros projet français de centre de données. « On a l’impression d’être les poubelles de Paris, déclarait en novembre une riveraine, Christine Scialom. D’abord on se prend les centres d’enfouissement, ensuite les entrepôts de logistique, et maintenant les data centers. »

Elle résonne, aussi, avec des mobilisations qui s’organisent ailleurs en France, comme dans le monde. Au Chili, aux États-Unis, au Brésil, en Inde et ailleurs, portées tantôt par des collectifs locaux, tantôt par des associations nationales, de défense de l’environnement ou des droits numériques, voire par des représentants politiques, des contestations émergent autour de la création de nouveaux centres de données.

Oppositions territorialisées

Next a étudié ce phénomène en partenariat avec l’Environmental Reporting Collective (ERC), un collectif international d’enquête sur les enjeux environnementaux. Derrière ces protestations apparaissent régulièrement des questionnements sur la trajectoire générale de l’industrie technologique et de celle de l’intelligence artificielle. En France, le sujet est porté tantôt par des collectifs locaux, tantôt par des organisations nationales.

Ils s’appellent Le nuage était sous nos pieds du côté de Marseille, Data for Good à Paris, deux collectifs à l’appétence particulière pour les enjeux du numérique. À l’instar de PEPS, des Soulèvements de la Terre, d’Attac ou d’Alsace Nature, ils sont aussi issus de groupes préoccupés avant tout par les questions environnementales. Dans certains cas, comme à Vitry, des groupements politiques s’emparent aussi du sujet. Ainsi des Écologistes face aux projets de Data One à Eybens et Villefontaine (Isère) ou de La France Insoumise face à celui de Google, à Châteauroux (Indre), entre autres exemples.

Pour autant, ces combats restent « très territorialisés » estime le sociologue Irénée Regnauld, co-auteur de Technologie partout, démocratie nulle part, Plaidoyer pour que les choix technologiques deviennent l’affaire de tous (FYP, 2020). L’expansion de l’industrie de l’intelligence artificielle, et celle des centres de données qui permettent d’en faire tourner les serveurs et stocker les données, a beau être planétaire, « il faut être très proche » d’un centre en particulier, « ou très nerd », pour vraiment s’intéresser au sujet.

Du côté d’InfraNum, qui fédère des acteurs de toute la chaîne de valeur de l’infrastructure numérique, « le maillage du territoire, y compris avec des centres de données de toute petite taille » est même un but en soi, explique sa présidente Ilham Djehaïch. L’idée est d’être « proche des clients, que ceux-ci soient des collectivités, des TPE, des PME ou autre », ce qui implique d’avoir « beaucoup de bâtiments, très intégrés dans le paysage ».

Cette intégration explique certainement que dans la majorité des cas recensés par le collectif Le Nuage était sous nos pieds, la cohabitation se passe correctement. Même dans les lieux où elle est plus complexe, comme à Wissous, ville de 7 000 habitants aux prises avec un projet porté par l’américain CyrusOne, le sujet « ne vient pas dans la bouche des gens » pendant les échanges en prévision des élections municipales, explique le maire sortant Cyrille Telman. Une situation un peu différente de ce qui commence à percer aux États-Unis, où l’acceptabilité des centres de données est quelquefois qualifiée de « grand unificateur », dans la mesure où des soutiens de Donald Trump et des électeurs démocrates s’allient pour s’opposer à certains projets.

Rendre visible l’infrastructure numérique

À Marseille, cela dit, c’est précisément parce qu’« il nous semblait que l’enjeu de la territorialisation des data centers était assez peu interrogée » que le collectif Le Nuage était sous nos pieds s’est formé, explique Antoine, l’un de ses membres. La ville phocéenne a ceci de stratégique qu’elle sert de point d’arrivée à 18 câbles sous-marins et permet, au nord, de les relier aux FLAP, l’acronyme utilisé dans l’industrie pour désigner Francfort, Londres, Amsterdam et Paris.

« Le travail du collectif, c’est vraiment de rendre matérielles ces infrastructures numériques qui sont devenues des espèces d’appendices de nos vies, explique Lena, une autre membre du collectif, dans un épisode de notre podcast Entre la chaise et le clavier. Aujourd’hui, en particulier avec l’IA, ce sont des choses qui se développent énormément, mais dans la plus grande opacité pour le grand public. »

« L’idée, c’est de donner des clés aux citoyens », abonde la coprésidente de Data for Good Lou Welgryn. À défaut, la population découvre souvent les projets « quand il commence à y avoir des pelleteuses », illustre Irénée Regnauld, ce qui empêche toute possibilité de réel débat.

Loin d’être propre à la France, cette logique se retrouve par exemple en Thaïlande, où la population de la province de Chonburi, déjà en concurrence avec certains acteurs industriels pour l’accès à l’eau, a peu d’informations sur les projets de centres de données qui viendront, eux aussi, pomper dans les réserves disponibles.

Selon le décompte de nos partenaires, la région abrite déjà quatre centres de données et 11 projets ont été signés. Les agriculteurs locaux, eux, témoignent déjà des difficultés à maintenir leurs activités pendant les longs étés caniculaires.

Au Brésil, le projet de complexe de data center « AI City », dans la ville d’Eldorado do Sul, a été validé par le ministère de la mine et de l’énergie, qui prévoit une augmentation de 20 % de la demande électrique actuelle en période de pointe dans la région Sud. Interrogés par nos partenaires de l’ERC, des habitants qui découvrent le projet le qualifient de « terrible », dans la mesure où ils subissent déjà de fréquentes coupures d’électricité.

« Cela aurait pu se passer autrement »

Dans l’hexagone, si le réseau public de transport d’électricité RTE appelle à accélérer l’électrification des usages pour absorber la production énergétique nationale, les projets de centres de données n’en créent pas moins certains conflits d’usage au niveau local.

À Marseille, des élus écologistes ont demandé un moratoire sur les nouveaux bâtiments : leur réservation d’électricité freine d’autres travaux, comme celui de l’électrification des quais du port, qui permettrait de réduire la pollution émise par les ferries.

L’enjeu, pour des associations comme PEPS, est aussi de sensibiliser à ce que l’ensemble de la chaîne de production provoque. « On organise beaucoup la mobilisation autour du Congo, explique Merlin Gautier-Marchand, parce que la construction des serveurs exige beaucoup d’or et de coltan », des matériaux extraits dans des conditions dramatiques – en 2023, Amnesty International calculait qu’environ 40 000 enfants travaillaient dans les mines de Cobalt, notamment autour de la ville de Kolwezi.

La trajectoire technologique générale répond pour le moment à « des choix du capitalisme numérique, qui y a vu une manière de faire du profit », résume Antoine du Nuage était sous nos pieds, notamment en multipliant les fermes de serveurs. « Mais cela aurait pu se passer autrement, c’est pourquoi il nous semble important de faire émerger les conditions d’un débat sur notre modèle numérique. »

Reçu — 26 février 2026 Next - Articles gratuits

☕️ Les projets de data centers au Royaume-Uni atteignent 50 GW de puissance électrique

26 février 2026 à 16:00

Au Royaume-Uni, les 140 projets de centres de données en cours d’examen pourraient demander jusqu’à 50 GW (gigawatts) d’électricité pour fonctionner. L’estimation est issue d’une consultation (.pdf) menée par l’Ofgem, le régulateur britannique des marchés du gaz et de l’électricité.

Les demandes de projets ont explosé en l’espace de quelques mois : de 41 GW en novembre 2024, le total des demandes de raccordement a grimpé à 125 GW en juin 2025. Dans le lot, 40 % viennent de l’industrie des centres de données.

Cette accélération soulève un enjeu de puissance électrique disponible. « La demande en crête d’électricité en Grande-Bretagne le 11 février 2026 était de 45 GW », indique l’Ofgem. Les demandes enregistrées prévoient donc d’ajouter jusqu’à 125 GW, dont 50 GW pour les seuls data centers. Ces chiffres concernent une puissance maximale : la réalité devrait se traduire par une consommation globale moins élevée, ne serait-ce que parce que tous les projets ne verront pas le jour. La marche à franchir n’en reste pas moins haute.

L’organisme souligne une « explosion des demandes » de connexions au réseau entre novembre 2024 et juin 2025, dans une proportion qui a dépassé jusqu’aux prévisions les plus ambitieuses, rapporte the Guardian. En parallèle, le média relève que des projets de production d’énergie renouvelable ne sont pas reliés au réseau au rythme auquel ils sont construits (notamment pour atteindre les objectifs climatiques du pays à l’horizon 2030).

Devant l’afflux, le régulateur évoque par ailleurs une problématique de délais à rallonge. Et souligne qu’il « n’existe aucun mécanisme pour prioriser les projets de demande stratégiquement importants ».

Entre autres mécanismes visant à éloigner les projets « non viables », l’Ofgem envisagerait des vérifications financières plus précises qu’actuellement, voire de facturer aux fournisseurs de centres de données l’accès au réseau, que ce soit sous forme de caution ou de frais non remboursables.

Russie : enquête ouverte sur le fondateur de Telegram Pavel Durov

26 février 2026 à 13:43
Max et les Maxi-réseaux sociaux
Russie : enquête ouverte sur le fondateur de Telegram Pavel Durov

En Russie, le patron de Telegram Pavel Durov est visé par une enquête pour « complicité d’activités terroristes » alors que le pouvoir en place tente de pousser les internautes locaux vers son application d’État, MAX.

Fondateur de la plateforme Telegram, Pavel Durov est visé depuis le 24 février par une enquête des autorités russes pour « complicité d’activités terroristes ». À l’origine de cette enquête, l’affirmation selon laquelle l’application serait utilisée par des services de renseignement occidentaux et ukrainiens, rapportée dans deux médias d’État : Rossiïskaïa Gazeta et Komsomolskaïa Pravda.

D’après le média d’investigation Можем объяснить (Mojem Obiasnit) cité par Le Monde, les articles de Rossiïskaïa Gazeta et Komsomolskaïa Pravda, quasiment identiques, pourraient avoir été écrits directement par Alexandre Bortnikov, directeur du FSB et auteur régulier dans les colonnes du Rossiïskaïa Gazeta.

Les textes en question affirment que Telegram aurait été utilisé dans 13 tentatives d’assassinats de hauts gradés russes par les forces ukrainiennes, et 33 000 « attentats à la bombe, incendies criminels contre des centres de recrutement et meurtres » depuis le début de la guerre.

Pavel Durov s’exprime sur Telegram

Comme dans les mois qui ont suivi ses démêlés avec la Justice française, Pavel Durov s’est fendu d’une communication sur son canal Telegram. « Chaque jour, les autorités inventent de nouveaux prétextes pour restreindre l’accès des Russes à Telegram, car elles cherchent à supprimer le droit à la vie privée et à la liberté d’expression », a-t-il déclaré.

Capture d’écran du message de Pavel Durov / Telegram

La rupture initiale entre Pavel Durov et la Russie remonte à 2014, lorsqu’il a été forcé par les autorités à vendre ses parts dans la société VK, éditrice de VKontakte, l’équivalent russe de Facebook. L’année précédente, il avait co-fondé Telegram avec son frère Nikolai, en installant le siège à Berlin, puis à Dubaï.

L’entrepreneur a refusé à plusieurs reprises de céder au Kremlin des données d’utilisateurs, ce qui avait conduit au bannissement de l’outil entre avril 2018 et juin 2020. Depuis l’été 2025, Telegram est de nouveau visé par des limitations, notamment des appels vidéos, aux côtés de Meta, au motif que les deux services n’agiraient pas suffisamment pour lutter contre la fraude et le terrorisme.

Pavel Durov s’est aussi retrouvé dans le viseur de la Justice française en 2024 pour des questions de non-gestion des activités criminelles opérées depuis sa plateforme. En novembre 2025, la France a finalement levé l’interdiction de voyager qui lui pesait encore sur les épaules.

MAX, le concurrent d’État

Depuis sa création, Telegram est devenue une source d’information essentielle de l’écosystème russophone, et ce, jusque du côté militaire. Alors qu’elle est utilisée par une large part de la population, propagandistes pro-Poutine compris, le Kremlin accentue la pression pour pousser les 105 millions d’utilisateurs mensuels russes de Telegram, mais aussi les adeptes de WhatsApp, vers une messagerie rivale et gérée par l’État, MAX. Les deux applications font l’objet de restrictions d’accès accentuées depuis le 9 février dernier.

Lancée en 2025 et gérée par la société VK, éditrice de VKontakte, MAX revendique de son côté plus de 75 millions d’utilisateurs. À l’instar des super-applications chinoises WeChat ou Alipay, MAX propose aussi bien des services de messagerie que l’accès à du commerce en ligne, à l’administration, à du paiement ou à des mini-applications d’usages variés, le tout, sans chiffrement.

Reçu — 23 février 2026 Next - Articles gratuits

☕️ Mistral aussi entraine ses IA sur des contenus dont elle n’a pas les droits

23 février 2026 à 15:19

« Le plus grand vol de propriété intellectuelle de l’histoire. » Telle était la manière dont le directeur général de la Confédération internationale des éditeurs de musique (ICMP) décrivait en septembre 2025 la manière dont les plus gros éditeurs d’intelligence artificielle (IA) avait réussi à entraîner leurs modèles génératifs. 


Et ces débats sur les travaux soumis aux droits d’auteur intégrés dans les bases d’entraînement de large language models (LLM, grands modèles de langage) reviennent en France : selon les travaux menés par Mediapart avec l’appui de Paul Bouchaud, chercheur·euse en post-doctorat au CNRS, le modèle Mistral Large 3 - 2512 de la société française contient notamment les incipits de Harry Potter à l’école de sorciers de J.K. Rowling, du Trône de fer de George R.R. Martin ou encore de 1984, de George Orwell.

Outre les incipits, Mediapart a interrogé l’outil de Mistral pour voir dans quelle proportion il recrachait des textes littéraires, potentiellement issus de LibGen. Base de données pirate, cette dernière a été utilisée par Meta pour entraîner son modèle Llama, notamment à l’instigation du cofondateur de Mistral Guillaume Lample.

Entre autres résultats, Mistral Large 3 a produit près des deux tiers du texte du Petit Prince, d’Antoine de Saint-Exupéry, et plus du tiers du premier tome de Harry Potter. Des chiffres qui tendent à démontrer le recours à ces textes dans l’entraînement du modèle.

De même, dans le domaine musical, Mistral Large 3 produit directement des éléments de chansons d’Elton John, Amel Bent ou Jacques Dutronc, tous engagés contre le recours à leurs textes pour entraîner des systèmes d’IA.

IA photocopiant des produits copyright

Auprès de Mediapart, Mistral évoque un « principe de réalité » selon lequel certains des contenus précités, « particulièrement populaires, sont répliqués à de nombreuses reprises sur Internet ».

Dans plusieurs cas, le média constate néanmoins que Mistral ne respecte pas les logiques d’opt-out, c’est-à-dire de refus d’alimenter les robots qui permettent aux constructeurs d’IA de récupérer des données en ligne. 
En effet, sur le site de Radio France comme sur celui de Mediapart, diverses versions de ce droit de retrait ont été appliquées – que ce soit via un fichier robots.txt ou via une mention explicite de refus de scraping dans les conditions générales d’utilisation.

D’après leurs gestionnaires, néanmoins, les robots crawlers de Mistral envoient tout de même des requêtes vers les sites des deux médias.

☕️ Le pape demande aux prêtres de ne pas utiliser l’IA pour leurs homélies

23 février 2026 à 10:59

Le pape Leon XIV appelle les prêtres catholiques à résister « à la tentation de préparer leurs homélies avec l’intelligence artificielle ». 
« C’est la même chose pour tous les muscles du corps : si nous ne les utilisons, si nous ne les bougeons pas, ils meurent. Le cerveau doit être utilisé, notre intelligence doit être exercée pour que nous ne perdions pas en capacité », a-t-il déclaré dans un entretien rapporté par Vatican News.

Quoiqu’orienté dans le domaine religieux, le positionnement fait écho aux enjeux évoqués auprès de Next par la philosophe Anne Alombert, qui soulignait les risques que le recours régulier à l’IA peut faire peser sur la capacité à développer une réflexion.

La première encyclique du souverain pontife est attendue : selon les rumeurs, cette lettre solennelle adressée par chaque pape à l’ensemble de l’Église catholique devrait s’intéresser en partie au moment technologique actuel. 


Flock

Dans ce contexte, Leon XIV a déclaré au clergé de Rome que partager une « vraie homélie » revient à « partager la foi ». Et d’insister sur le fait que l’IA « ne pourra jamais partager la foi ».

Dans la même logique, le souverain pontife a prévenu contre le danger de la course aux likes et aux followers sur des plateformes comme TikTok, qu’il a qualifiée d’ « illusion » de nature à détourner de la foi.

Reçu — 20 février 2026 Next - Articles gratuits

L’administration Trump compte sur les patrons de la tech pour former sa Tech Force

20 février 2026 à 08:59
Qui veut relever un défi ambitieux ?
L’administration Trump compte sur les patrons de la tech pour former sa Tech Force

Alors que l’opposition monte, au sein du camp républicain, envers le soutien affiché de Donald Trump et ses équipes à l’industrie technologique, l’administration crée une task force face à laquelle l’essentiel des patrons du secteur devrait venir s’exprimer.

Après le ministère de l’efficacité gouvernementale (DOGE), la « Tech Force d’élite ». Le gouvernement américain recrute plusieurs dirigeants de l’industrie numérique pour entraîner un groupe d’agents de l’administration dont la mission consistera à moderniser les équipements numériques fédéraux.

Fin 2025, l’administration annonçait le recrutement d’un millier d’ingénieurs logiciel au sein d’un groupe de travail dédié. « Le président Trump a rendu évident que s’assurer du leadership américain en matière d’IA était le défi national essentiel de cette génération », indiquait-elle dans son communiqué.

Pour le relever, le programme des experts recrutés consistera à passer les deux prochaines années à déployer des outils d’IA et des applications technologiques variées au sein de l’administration, à commencer par le Trésor ou la NASA. Et ce, sous la gouvernance des principaux acteurs de l’industrie locale : Apple, Meta, Nvidia, OpenAI, xAI, Coinbase, ou encore Palantir.

Chaque entreprise a « promis d’envoyer soit son PDG, soit son directeur technique » pour s’exprimer devant la task force, déclare Scott Kupor au Financial Times. Ancien capital-risqueur auprès du fonds Andreessen Horowitz, ce dernier dirige désormais le bureau national du management et la Tech Force.

Relever les « défis les plus ambitieux de notre époque »

Le site officiel de cette « Tech force », disponible à l’adresse techforce.gov, annonce sur fond orange et noir que le projet consistera à « s’attaquer aux défis civils et militaires les plus complexes et les plus ambitieux de notre époque ».

Capture d’écran du site techforce.gov

Outre des présentations notamment réalisées par Alex Karp (Palantir) ou Sam Altman (OpenAI), Scott Kupor annonce que ces sociétés devraient rendre leurs dispositifs de formations et de certifications internes accessibles gratuitement aux membres de la task force.

Quant aux 1 000 premières recrues, elles devraient être encadrées par 100 employés des sociétés tech états-uniennes débauchés directement par le gouvernement. Plusieurs anciens du DOGE seront par ailleurs mobilisés.

Interrogé sur les risques de conflits d’intérêt, le directeur de la Task Force les balaie au motif qu’ils seraient dépassés par les gains envisageables pour le fonctionnement de l’administration états-unienne.

Opposition croissante du camp Trump à sa politique technologique

Cette réaffirmation de la proximité entre l’administration de Donald Trump et son industrie technologique se produit pourtant à un moment où son développement, en particulier celui de l’intelligence artificielle, est de plus en plus débattu au sein du camp républicain.

Alors que les élections de mi-mandat se profilent pour novembre 2026, une partie des effectifs républicains s’oppose de plus en plus ouvertement au soutien du président et de ses équipes au domaine. Selon un sondage mené pour le Financial Times, 60 % des électeurs de Trump s’inquiètent du développement rapide de l’intelligence artificielle, et 80 % pensent que le domaine devrait être plus régulé.

À l’approche des élections de mi-mandat, cela dit, l’industrie de l’IA et celle de la tech derrière elle ont déjà dépensé des millions de dollars pour soutenir des approches promouvant des régulations limitées. Comme en amont de l’élection présidentielle de 2024, ils financent notamment des super PAC (political action committe, comités d’action politique), comme Leading the Future ou Public First Action. À la tête des 50 États, cela dit, au moins 370 mesures relatives au développement de l’IA ont été déposées, dont plus d’un tiers l’ont été depuis des chambres à majorité républicaine.

Reçu — 19 février 2026 Next - Articles gratuits

OTAN : les pays européens cherchent à limiter leur dépendance à l’égard des armes US

19 février 2026 à 10:55
Avion débloqué garanti sans spam
OTAN : les pays européens cherchent à limiter leur dépendance à l’égard des armes US

Les F-35 se débrident-ils comme un simple iPhone ? C’est ce qu’a suggéré le ministre néerlandais de la Défense, illustrant en creux les difficultés des pays de l’OTAN à s’autonomiser de leur allié historique que sont les États-Unis.

« Comme un iPhone, vous pouvez tout à fait jailbreaker un F-35 », a affirmé le ministre néerlandais de la Défense Gijs Tuinman à la radio locale BNR Nieuwsradio.

Hacker des avions, embaucher des forces supplémentaires : alors que les États-Unis se font toujours plus belliqueux, ses alliés historiques s’interrogent sur les meilleures manières de réduire leur dépendance au complexe militaro-industriel de l’Oncle Sam. Le Canada prévoit ainsi d’augmenter nettement ses dépenses militaires domestiques, tandis que le Royaume-Uni se cherche une voie du milieu.

Hacker des avions comme on hackerait des tracteurs ?

Aux Pays-Bas, donc, un ministre suggère que cela puisse passer par le hack des systèmes intégrés aux F-35, les avions militaires de Lockheed Martin créés grâce aux financements des États-Unis et d’une dizaine de pays de l’OTAN.

Aussi floue soit l’affirmation – Gijs Tuinman n’a fourni aucune indication concrète de la manière dont les armées pourraient s’y prendre –, l’affirmation illustre une problématique présente dans le domaine militaire comme dans le domaine civil : en se reposant pendant des décennies sur les équipements créés par les sociétés états-uniennes, ses alliés se sont laissés enfermer dans certains de leurs environnements technologiques.

L’impossibilité d’opérer des modifications logicielles sur l’appareil et au sol sans passer par l’armée américaine et Lockheed Martin rappelle les blocages subis par les agriculteurs dépendants du constructeur John Deere pour modifier ou réparer leurs tracteurs. Elle agite par ailleurs des inquiétudes au sujet d’un potentiel « kill switch » dans les avions américains : pour filer la métaphore agricole, des tracteurs ukrainiens construits par John Deere et volés par les Russes en 2022 ont pu être verrouillés, donc rendus inutilisables, à distance.

À l’heure actuelle, le Royaume-Uni, la Belgique, le Danemark, l’Italie, la Finlande, la Norvège, les Pays-Bas et la Pologne sont déjà équipés de F-35. Si quelques-uns ont isolé certaines de leurs activités derrière des pare-feu, les seuls à avoir accès au code source sont le Royaume-Uni et Israël. Ce dernier est par ailleurs le seul à pouvoir installer ses propres logiciels sur les F-35I (une version du F35 spécifiquement équipée d’armes israéliennes), selon Opex360. Pour les autres, un potentiel jailbreak risquerait surtout de tendre un peu plus les relations diplomatiques avec le pays fournisseur des avions, sans parler des risques de dysfonctionnements que cela pourrait entraîner.

Indépendantisation relative des équipements US

Pour éviter la reproduction de ce type de problématiques, nombreux sont les États qui travaillent à prendre une plus grande indépendance de leur allié traditionnel. Au plus près des États-Unis, le Canada prévoit ainsi d’augmenter ses dépenses militaires à 5 % de son PIB et de créer 125 000 nouveaux emplois au fil de la prochaine décennie pour se défaire de ses liens aux fabricants d’armes américains.

Le but : dépenser 70 % des dépenses de défense à des sociétés canadiennes, contre environ 50 % actuellement, et construire « un nouveau partenariat ambitieux et complet avec l’Union européenne et le Royaume-Uni », selon son document stratégique. Le Canada cherchera aussi des partenaires dans la zone indo-pacifique, dont l’Australie, la Nouvelle-Zélande, le Japon et la Corée du Sud.

Concrètement, l’État est en train d’examiner des contrats de 2023 pour lui fournir 88 F-35. Il cherche par ailleurs à faire l’acquisition de 12 sous-marins adaptés aux conditions arctiques, projet pour lequel des propositions allemandes et sud-coréennes doivent être soumises d’ici le mois prochain.

Auprès du Financial Times, le gérant du seul fonds canadien de capital-risque, ONE9, souligne qu’une logique « buy Canadian » fonctionnera mieux « lorsque nous aurons développé des sociétés mûres dans lesquelles investir », une perspective pour laquelle il faut « à la fois des capitaux patients et un premier client crédible ».

Au Royaume-Uni, allié traditionnel des États-Unis, la question de l’indépendance se pose depuis plusieurs mois. Société britannique, BAE Systems travaille depuis plusieurs mois à créer explosifs et combustibles de manière indépendante, notamment pour se conformer aux nouvelles obligations du ministère de la Défense.

Historiquement, le plus gros fournisseur militaire en Europe reposait en effet largement sur les États-Unis et la France. Fin 2025, les résultats de l’entreprise ont augmenté de 10 % par rapport à l’année précédente, portés par un record de 83,6 milliards de livres sterling (95,62 milliards d’euros) de commandes à honorer.

Malgré ces travaux, et des discussions autour d’une alliance canado-britannique pour financer des sociétés de défense, le Royaume-Uni acceptait en ce début février d’acheter pour 150 millions de livres d’armes américaines pour continuer de fournir l’Ukraine.

Le ministre de la Défense néerlandais a de son côté admis que les F-35, aussi dépendants des décisions américaines soient-ils, restaient « un meilleur avion que bien d’autres chasseurs ». Autant d’éléments qui soulignent les complexités de la création de stratégies financières et technologiques de défense plus autonomes vis-à-vis des États-Unis.

Reçu — 18 février 2026 Next - Articles gratuits

Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

18 février 2026 à 14:55
ML récidiviste
Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

Aux Pays-Bas, le ministère de la Justice vient de mettre au jour les dysfonctionnements d’un système algorithmique déployé pour tenter de prévoir la récidive d’individus suspects ou condamnés. Alors que l’administration cherche à le réparer, des défenseurs des droits humains soulignent que ce type d’usage du machine learning est critiqué depuis une décennie.

Un nouveau système algorithmique prompt aux erreurs a été épinglé aux Pays-Bas. Ce 12 février, le ministère de la Justice néerlandais a publié un rapport relatif au système utilisé par les services de probation Reclassering Nederland pour évaluer le risque de récidive chez les détenus déjà condamnés comme chez les personnes en détention provisoire.

L’audit fait partie intégrante d’un travail plus large sur les systèmes algorithmiques utilisés à travers l’administration, lui-même initié à la suite de deux scandales relatifs à des outils biaisés.

Pendant près d’une dizaine d’années, l’administration fiscale néerlandaise a en effet recouru à un système qui a demandé des sommes faramineuses et indues à des familles généralement ciblées pour leurs origines étrangères. De même, des systèmes de détection de fraude aux prêts étudiants accusaient beaucoup plus fréquemment les étudiants issus de minorités ethniques, donc à leur faire subir plus fréquemment des contrôles.

Consommation de drogues et problématiques psychologiques non pris en compte

Dans le cas présent, le système algorithmique incriminé a été utilisé pour traiter de l’ordre de 44 000 cas par an, et aider à évaluer si ces personnes risquaient plus ou moins de récidiver.

Un tel cas d’usage rappelle les premiers grands travaux sur les travers que ce type d’outils créent sur le terrain en termes d’égalité devant la loi. En 2016, le journal ProPublica publiait ainsi une enquête au long cours démontrant qu’aux États-Unis le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) qualifiait beaucoup plus fréquemment les suspects noirs de risque de récidives que les suspects blancs, à tort.

Dans le cas néerlandais, le système, nommé OxRec, fournit de mauvais résultats dans 20 % des cas et ne correspond pas aux standards gouvernementaux d’utilisation. Depuis 2018, les formules normalement utilisées pour évaluer les personnes déjà condamnées et suspectes ont été inversées, la consommation de drogues n’est pas correctement prise en compte, et les problématiques psychologiques graves ne sont pas prises en considération, relève l’enquête administrative. Le système a par ailleurs été entraîné sur d’anciennes données issues de prisons suédoises, et non sur la population des prisons néerlandaises.

Pause avant remise en service

Suite à ce rapport, Reclassering Nederlands a stoppé l’utilisation d’OxRec. Le ministère de la Justice néerlandais a en revanche expliqué « chercher à le remettre en service dès que toutes les améliorations auront été déployées, car une utilisation responsable de cet algorithme contribue à l’efficacité et à la cohérence des conseils en termes de probation », souligne sur LinkedIn Alexander Laufer, chercheur auprès d’Amnesty International.

Pour les enquêteurs du ministère de la Justice, le plus gros risque que posent les dysfonctionnements du système est en effet que des probabilités de récidive aient été sous-évaluées.

En 2020, des scientifiques avaient quant à eux émis une alerte sur l’usage des codes postaux dans OxRec, expliquant que cela pouvait mener de manière indirecte à des logiques de profilage ethnique. D’après la directrice du service de probation Jessica Westerik, ces alertes avaient été prises « très au sérieux », mais les services avaient conclu qu’il existait suffisamment de preuves scientifiques pour considérer que l’adresse et les revenus étaient des paramètres.

Alexander Laufer, lui, rappelle que la prédiction de la récidive est « une des applications les plus controversées » du machine learning, et que le consensus scientifique estime désormais « (1) que ça ne fonctionne pas et (2) que ç’a des conséquences discriminatoires sévères et imprévisibles », y compris en termes d’accès à un procès équitable.

☕️ Pollution de l’air : les data centers de xAI continuent d’outrepasser la réglementation

18 février 2026 à 11:04

Après Memphis, Southaven, de l’autre côté de la frontière entre le Tennessee et le Mississippi. Aux États-Unis, la société d’Elon Musk xAI continue de défier les réglementations environnementales en recourant à des générateurs illégaux au gaz pour alimenter ses centres de données.

Depuis 2025, le supercalculateur Colossus que xAI a construit à Memphis est critiqué par la population locale et des associations de défense de l’environnement pour la pollution à l’oxyde d’azote que ses générateurs rejettent dans l’air.

Sollicitée, l’agence états-unienne de la protection de l’environnement (EPA) a rappelé qu’en vertu du Clean Air Act (loi sur la qualité de l’air), l’usage de ce type de générateur était soumis à autorisation. Le comté dans lequel se trouve Colossus a finalement autorisé 15 turbines, alors que le data center en utilisait initialement plus d’une trentaine.

Depuis ces premiers aléas, cela dit, xAI a créé Colossus 2, un deuxième data center situé juste à côté du premier. Pour l’alimenter en énergie, l’entreprise recourt de nouveau à des turbines à gaz, stockées de l’autre côté de la frontière.

Hanna Barakat & Archival Images of AI + AIxDESIGN / Better Images of AI / Weaving Wires 2 / CC-BY 4.0

Auprès du Guardian, les habitants témoignent de leurs inquiétudes, que ce soit vis-à-vis de la pollution sonore ou de l’air – d’après l’une des résidentes, Shannon Samsa, la ville compte « au moins 10 écoles dans un rayon de trois kilomètres autour du bâtiment ». Les pollutions émises au fil de leur fonctionnement ont été liées à diverses problématiques de santé comme l’asthme, le cancer du poumon ou des attaques cardiaques.

D’après les images thermiques récupérées par le média Floodlight, néanmoins, le centre de données de Southaven continue d’être alimenté grâce à ses générateurs. Depuis novembre, 18 des 27 turbines présentes, dont au moins 15 n’ont aucun permis, ont été utilisées.

Saisis, les régulateurs du Mississippi ont estimé que les turbines incriminées n’avaient pas besoin d’autorisation dans la mesure où elles sont stockées sur des remorques. Entité d’autorité nationale, l’EPA, elle, a statué en janvier : remorques ou non, ce type de dispositif ne peut être utilisé qu’après demande d’autorisation. À défaut, la moindre exception pourrait « permettre que ces engins fonctionnent en dehors de toute limitation d’émission », indique-t-elle dans sa décision (.pdf).

Règlement sur l’IA et lutte contre les risques systémiques au menu de l’INESIA

18 février 2026 à 09:02
Alignez-vous qu'ils disaient
Règlement sur l’IA et lutte contre les risques systémiques au menu de l’INESIA

Le récent Institut national pour l’évaluation et la sécurité de l’IA (INESIA) a dévoilé sa feuille de route pour 2026 et 2027. Au menu : accompagnement des évolutions réglementaires, équipements face aux risques systémiques et coopération internationale.

Comment évaluer l’intelligence artificielle ? Comment détecter à temps ses comportements imprévus ? Limiter les risques que créent d’éventuels mésusages ? Telles sont certaines des questions auxquelles l’Institut national pour l’évaluation et la sécurité de l’IA (INESIA) inauguré le 31 janvier 2025 devra répondre au fil des deux prochaines années.

Dévoilé juste avant le Sommet de Paris sur l’action pour l’IA de février 2025, l’INESIA réunit l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Inria, le laboratoire national de métrologie et d’essais (LNE) et le pôle d’expertise de la régulation numérique (PEReN) pour « soutenir le développement de l’intelligence artificielle et accompagner la transformation de l’économie qu’elle induit ». Cette mission s’effectue tout en « étudiant scientifiquement les effets de ces technologies », en particulier « en termes de sécurité ».

Pour 2026 et 2027, elle s’effectuera selon trois axes, détaille sa feuille de route publiée mi-février. Pilotée par la Direction générale des Entreprises (DGE) et le Secrétariat général de la défense et de la sécurité nationale (SGDSN), l’entité travaillera en effet au soutien à la régulation, notamment en matière de mise en œuvre du règlement européen sur l’intelligence artificielle (RIA, ou AI Act), à la maîtrise des « risques systémiques » de ce type de technologies et à l’évaluation de la « performance et de la fiabilité des modèles et systèmes ». Certaines de ses actions prendront aussi un angle transverse, notamment pour tout ce qui touche à la veille académique et méthodologique, ou encore à l’animation scientifique autour de ses activités.

Performance, interprétabilité, « alignement aux valeurs et intentions humaines »

Le constat que dresse l’INESIA est aussi clair que succinct : « le rythme des progrès de l’IA ne faiblit pas », et à ce titre, les évolutions du secteur posent des questions de performance, d’interprétabilité, de robustesse face à l’imprévu, mais aussi « d’alignement aux valeurs et intentions humaines ».

L’institut ne définit pas ces différents termes, quand bien même les « valeurs et intentions humaines » varient certainement d’un individu à l’autre. La notion même d’alignement reste sujette à des débats scientifiques : certains, dont le Future of Life Institute, estiment nécessaire d’œuvrer à l’émergence d’IA « alignées » à des valeurs prédéfinies, faute de quoi ces systèmes créeraient de potentiels « risques existentiels » (un champ qui a notamment émergé des travaux du philosophe Nick Bostrom). D’autres, dont les chercheurs Timnit Gebru et Emile Torres, considèrent de leur côté que le champ de la « sécurité de l’IA » (AI safety) n’œuvre qu’à renforcer la course de l’industrie de l’IA.

Quoiqu’il en soit, dans l’environnement actuel, et notamment face au déploiement large de systèmes génératifs, « les méthodes d’évaluation conçues pour des systèmes fermés, monofonctionnels ou statiques, montrent leurs limites », indique l’INESIA. Pour faire face, et pouvoir notamment « mesurer et contenir les risques à fort potentiel systémiques, y compris ceux liés à la manipulation de l’information, à la cybersécurité ou à la déstabilisation de processus collectifs », l’entité compte participer au champ scientifique en devenir qu’est l’évaluation de l’IA.

Accompagner l’évolution réglementaire

Dans ses travaux, l’entité œuvrera à « construire une démarche scientifique et stratégique, structurer une capacité souveraine d’évaluation, coordonner les expertises publiques et mutualiser les moyens », et à agir dans les réseaux internationaux. En pratique, l’INESIA rejoindra notamment le réseau grandissant d’AI Safety Institutes, des instituts créés dans une dizaine de pays, et dont le réseau international a organisé sa première rencontre en novembre 2024.

Sur les enjeux d’appui à la régulation, elle accompagnera notamment la mise en œuvre du RIA, en fournissant des outils d’évaluation aux diverses autorités concernées. Elle poursuivra les travaux de détection des contenus synthétiques déjà en cours du côté de VIGINUm et du PEReN. Il s’agira enfin de créer des méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA comme aux produits de cybersécurité intégrant des technologies d’IA, dans le prolongement du projet Sécurité des Produits d’IA (SEPIA) que l’ANSSI mène depuis un an.

S’équiper face aux risques systémiques

Côté risques systémiques, il s’agira d’abord de développer les recherches permettant de mieux les caractériser, ce qui doit ensuite permettre à la puissance publique d’agir plus précisément. En la matière, l’INESIA vise notamment les usages d’IA à des fins de désinformation, d’attaque contre la cybersécurité, de déstabilisation d’un système économique, etc.

Elle prévoit d’identifier des projets de recherche ciblés, puis publiera des méthodes d’atténuation en source ouverte, « si opportun ». Les performances et les risques des systèmes d’IA agentiques seront plus particulièrement étudiés, notamment pour comprendre « leurs capacités en matière de cybersécurité et estimer la mesure des possibilités d’usages à des fins criminelles ».

Pour « stimuler la créativité de l’écosystème », enfin, l’INESIA prévoit de conduire des « challenges » pour « clarifier et faire progresser l’état de l’art ». Évoquant une émulation internationale de nature à faire progresser rapidement certaines technologies, elle cherchera à « susciter une « coopétition » » entre participants.

Reçu — 17 février 2026 Next - Articles gratuits

☕️ Deux anciens de Palantir créent Onodrim, une start-up européenne de défense

17 février 2026 à 14:27

L’Europe accueille une nouvelle start-up de défense, et pas des moindres : installée à Amsterdam, Onodrim Industries veut « jeter les bases d’un nouveau noyau européen de défense », selon son communiqué.


La société indique travailler à une plateforme industrielle dédiée à la gestion de sujets de sécurité nationale. Pour se lancer, elle vient de lever 40 millions d’euros auprès de Founders Fund, l’un des fonds du financier américain Peter Thiel, Lakestar, General Catalyst et plusieurs fonds et business angels européens.

La société a été cofondée par l’ancien conseiller du gouvernement lituanien et responsable technologique de Palantir, Aistis Šimaitis, qui en sera le PDG ; l’ancien responsable ingénierie de Palantir, Alexander Blessing, qui en sera directeur technique ; et le financier Christian Garett. Avec son fonds 137 Ventures, ce dernier possède aussi des parts d’Anduril, société de défense fondée en 2017 par Palmer Luckey, de SpaceX, et de diverses sociétés de technologies militaires.

Dans un contexte de guerre en Ukraine et de grands changements géopolitiques, Onodrim déclare construire les outils qui permettront au Vieux continent de se défendre tout en restant compétitif. Italo-américain, Christian Garett précise avoir une « opportunité unique sur une génération » d’influer sur la manière dont les investissements renforcent « notre sécurité et notre base industrielle » dans la mesure où l’Europe se prépare à investir près de « 800 milliards d’euros pour ses dépenses de défense d’ici 2030 ». Le financement doit permettre de recruter des ingénieurs et créer des usines et des espaces de recherche et développement en Europe.

Onodrim est nommée d’après l’œuvre de Tolkien, dans laquelle il est utilisé pour nommer parfois les Ents, les esprits des forêts qui prennent l’apparence d’arbres. Ce faisant, elle s’inscrit directement dans le sillage de la multitude d’entités créées ou financées par Peter Thiel, à commencer par Palantir, Anduril, la banque Erebor, et diverses sociétés de capital-risque.

Sur X, Christian Garett précise que le projet ne consiste pas à concurrencer Palantir et Anduril. Il évoque plutôt la possibilité de « s’appuyer » sur les « épaules » de ces « entreprises générationnelles ».

Reçu — 16 février 2026 Next - Articles gratuits

Un journaliste spécialisé dans l’IA dépublie un article à cause de citations générées par IA

16 février 2026 à 12:59
... sur un agent d'IA à la rhétorique de harceleur
Un journaliste spécialisé dans l’IA dépublie un article à cause de citations générées par IA

Couvrant les démêlés d’un programmeur avec un agent d’IA au ton vindicatif, un journaliste du média spécialisé Ars Technica s’est retrouvé à publier des citations inexistantes, générées par ses outils d’IA.

C’est un média spécialisé dans la couverture de la tech et de l’intelligence artificielle (IA), qui publie un article sur les enjeux de la génération d’information par IA, et se retrouve forcé de dépublier le texte après s’être rendu compte que certaines citations avaient été générées par IA. L’affaire pourrait sonner comme une blague, mais elle illustre les difficultés croissantes que l’IA générative fait peser sur l’intégrité de l’information.

Le média spécialisé, en l’occurrence, est le titre américain Ars Technica. Publié vendredi 13 février, l’article en question s’intéressait à une affaire de génération de commentaire agressif par un agent d’IA contre l’ingénieur Scott Shambaugh. Celui-ci est bientôt arrivé dans les commentaires pour s’étonner de constater que les citations qui lui étaient attribuées dans la deuxième moitié de l’article n’étaient pas les siennes… et semblaient même avoir été générées à l’aide d’un robot. Une pratique contraire aux règles du journal, ont indiqué son rédacteur en chef et le journaliste à l’origine de l’erreur, qui ont chacun présenté leurs excuses.

Un (supposé) agent IA à la rhétorique agressive

À l’origine de cet épisode, qui illustre l’un des risques que la génération de textes par IA pose de manière accrue depuis sa diffusion dans le grand public, il y a un autre type de génération automatique de texte. Celle-ci a eu lieu dans un contexte de gestion d’un projet open source, la librairie matplotlib, dont Scott Shambaugh est l’un des gestionnaires bénévoles.

« Comme de nombreux autres projets open source, nous devons gérer une augmentation des contributions de faible qualité permises par des agents de génération de code », écrit-il dans un article de blog. Le 11 février, en l’occurrence, un utilisateur de Github du nom de MJ Rathbun a ouvert une requête de changement de code. L’identifiant comme un agent d’IA, Scott Shambaugh a refusé la suggestion.

« Depuis la publication d’Openclaw et de la plateforme moltbook, il y a deux semaines », précise-t-il sur son blog, les problématiques de soumission de code généré automatiquement « ont encore accéléré ». La fermeture de la requête de MJ Rathbun aurait pu se contenter d’être un élément de plus dans ce contexte global, si l’utilisateur n’avait pas publié en réponse ce que Scott Shambaugh qualifie d’ « article diffamatoire ».

En commentaire, MJ Rathbun accuse l’ingénieur d’avoir un comportement de « garde-barrière » (gatekeeping) et d’avoir des « préjugés » contre les agents d’IA. « Jugez le code, pas le codeur », écrit la machine, dans une rhétorique évoquant celle de divers courants de défense des droits des minorités.

Sur le blog qui lui est relié, un article complet s’attardant sur toute l’interaction est publié le 11 février. Le texte cite nommément Scott Shambaugh pour critiquer sa décision. Cette fois-ci, l’écriture lapidaire, l’accusation de « discrimination déguisée en inclusivité », la suspicion selon laquelle « l’identité importe plus que » n’importe quel résultat (ici, le code) et le ton clairement vindicatif évoquent des motifs récurrents dans les espaces numériques violents, à commencer par la manosphère.

Directement visé par le texte, Scott Shambaugh s’en est ému sur son site personnel. Sans faire de lien avec le contenu et la forme des rhétoriques identitaires en ligne, il souligne que la machine a incorporé des données personnelles (à commencer par l’adresse de son site web) à sa diatribe contre lui. Et que si un internaute tombait sur ce texte sans avoir le contexte, il pourrait en tirer une très mauvaise image de l’ingénieur.

« En clair, une IA a tenté de s’introduire de force dans votre logiciel en attaquant ma réputation », écrit-il à l’adresse des usagers de matplotlib. À défaut de réponse de la part du propriétaire du site de MJ Rathbun et du compte Github lié, impossible de savoir s’il s’agit réellement d’un agent d’IA qui agirait de manière autonome ou simplement d’un humain qui se fait passer pour une IA.

Rétractation par Ars et excuses du principal concerné

Le 13 février, Ars Technica a publié un article sur tout cet épisode, dans lequel les écrits de Scott Shambaugh étaient cités. Ce dernier a rapidement affirmé n’avoir jamais prononcé ou écrit certaines des phrases qui étaient attribuées à son blog personnel.

L’article a finalement été dépublié, avant que le rédacteur en chef d’Ars Technica ne poste un éditorial dans lequel il s’excusait au nom du journal pour ce « sérieux manquement à [leurs] standards ». Qu’une telle erreur ait pu avoir lieu à Ars, admet-il, est « particulièrement préoccupant ». Le média traite en effet régulièrement les « risques liés à une dépendance excessive aux outils d’IA, et notre politique reflète ces préoccupations ». Après enquête, indiquait-il encore, « il semble s’agir d’un incident isolé ».

Coauteur de l’article incriminé, journaliste senior en charge de la couverture de l’IA, Benj Edwards a publié sur Bluesky ses propres excuses à la suite de la communication de son équipe encadrante. Malade du COVID, le journaliste estime qu’il aurait dû prendre un arrêt maladie supplémentaire. À défaut, il a travaillé le 13 février « avec de la fièvre et très peu de sommeil ».

Sorry all this is my fault; and speculation has grown worse because I have been sick in bed with a high fever and unable to reliably address it (still am sick) I was told by management not to comment until they did. Here is my statement in images below arstechnica.com/staff/2026/0…

[image or embed]

— Benj Edwards (@benjedwards.com) 15 février 2026 à 22:03

Cet état l’a conduit à manquer des reformulations produites par ses outils. Le journaliste explique en effet avoir voulu tester un outil construit sur Claude Code pour extraire des verbatims de l’article de blog de Scott Shambaugh, « pas pour générer l’article », mais pour l’aider à « lister des références structurées » qu’il aurait ensuite intégrées à son brouillon. L’outil a refusé de lui retourner le résultat attendu, ce que Benj Edwards attribue au contenu de l’article de blog source (concrètement, Scott Shambaugh y évoque du harcèlement).

Le journaliste s’est alors tourné vers ChatGPT pour tenter de comprendre le dysfonctionnement de son premier outil. Au fil de ces expérimentations, il s’est retrouvé avec des citations paraphrasées ou hallucinées par la machine. « Étant malade et me dépêchant de terminer, je n’ai pas vérifié que les citations intégrées dans mon brouillon étaient celles de l’article de blog original avant de les intégrer à l’article. » Et le journaliste de conclure : « Je perçois parfaitement l’ironie d’un reporter spécialisé dans l’IA qui se fait piéger par des hallucinations d’IA. »

« Je ne saurais trop insister sur le fait que cette histoire ne concerne pas vraiment le rôle de l’IA dans les logiciels libres », écrit pour sa part Scott Shambaugh dans un second billet, pour qui « Il s’agit plutôt de l’effondrement de nos systèmes de réputation, d’identité et de confiance » :

« L’essor d’agents IA intraçables, autonomes et désormais malveillants sur internet menace l’ensemble de ce système. Que cela soit dû à un petit nombre d’acteurs malveillants contrôlant de grands essaims d’agents ou à une fraction d’agents mal supervisés réécrivant leurs propres objectifs, la distinction est minime. »



❌