Vue normale

Après la cybersécurité, Claude Code fait trembler IBM en bourse en s’attaquant à Cobol

24 février 2026 à 16:44
Colosses aux pieds d'argile ?
Après la cybersécurité, Claude Code fait trembler IBM en bourse en s’attaquant à Cobol

Anthropic a coup sur coup procédé à deux annonces qui ont fait l’effet de petits séismes sur les marchés financiers. Plusieurs grands noms de la cybersécurité ont ainsi vu leur cours de bourse chamboulé suite à l’annonce, vendredi, de Claude Code Security. Lundi, c’est le géant IBM qui a connu la plus mauvaise journée boursière de son histoire, en partie parce qu’Anthropic prétend désormais s’attaquer à l’une de ses chasses gardées : la modernisation des applications COBOL.

Si les études peinent encore à quantifier la contribution exacte de l’intelligence artificielle générative à l’économie réelle, son impact en matière de volatilité boursière n’est plus à démontrer. Anthropic vient d’en donner deux illustrations concrètes à quelques jours d’intervalle, avec deux annonces qui ont successivement fait vaciller les acteurs de la cybersécurité et IBM en bourse.

Claude Code Security bientôt concurrent des éditeurs spécialisés ?

Dévoilé le 20 février dernier, Claude Code Security se présente comme une nouvelle fonctionnalité intégrée à Claude Code, capable, selon Anthropic, de scanner des pans de code à la recherche de vulnérabilités.

Pour l’instant disponible sous forme de préversion limitée aux comptes Team et Entreprise, recommandée uniquement à des fins de recherche, l’outil ne se limite pas à la détection : il sait aussi suggérer des corrections logicielles à son validateur humain, de façon à « détecter et corriger les problèmes de sécurité que les méthodes traditionnelles ne parviennent souvent pas à identifier ».

D’après Anthropic, l’IA générative offre, dans le domaine cyber, une réelle avancée par rapport aux méthodes d’analyse statiques, qui reposent notamment sur la détection de motifs (des patterns) déjà identifiés au préalable :

« Claude Code Security se concentre sur les vulnérabilités critiques telles que la corruption de mémoire, les failles d’injection, les contournements d’authentification et les erreurs logiques complexes que les outils de correspondance de motifs ne détectent généralement pas. Il est particulièrement efficace pour identifier les vulnérabilités contextuelles qui nécessitent l’analyse du code dans plusieurs fichiers. »

Anthropic affirme que Claude Code Security est également capable de prendre du recul sur ses propres découvertes, avec un processus de vérification en plusieurs étapes, qui conduit à établir un score de sévérité et un indice de confiance, pour qu’une équipe humaine puisse ensuite déclencher, ou non, les éventuelles réponses suggérées.

Alors que le phénomène Openclaw illustre les dérives potentielles d’un agent IA laissé en roue libre, Anthropic insiste sur cette dimension de contrôle. L’entreprise présente par ailleurs son outil comme un complément, et non comme une alternative, aux outils de cybersécurité existants.

Sur la page dédiée, elle souligne que Claude Code Security a été testé (avec succès) sur son propre code, et promet que ces capacités d’analyse seront mises au service de la communauté open source. En guise de bonne foi (et de vitrine), Anthropic indique avoir découvert plus de 500 vulnérabilités au sein de logiciels courants, notamment open source, et promet une divulgation responsable au fur et à mesure que les mainteneurs ont mis en place les corrections nécessaires.

CrowdStrike, Datadog et consorts flanchent en bourse

Impossible, à ce stade, de juger de l’efficacité technique de Claude Code Security, ni de mesurer son éventuel impact sur le marché de la cyber. En bourse, l’annonce d’Anthropic a toutefois entraîné une réaction de défiance des investisseurs, avec une baisse immédiate de plus de 10 points du cours d’acteurs spécialisés comme CrowdStrike, Datadog ou Zscaler. Toujours sensible mardi, le mouvement de baisse a également affecté dans des proportions moindres le cours de Fortinet, Palo Alto Networks ou SentinelOne.

Sans préjuger des capacités de Claude Code Security, il convient toutefois de rappeler que ces sociétés, dont la valorisation se compte en dizaines de milliards de dollars, ont un portefeuille de produits et de solutions bien plus large que ce que promet Anthropic avec ce nouvel outil.

George Kurtz, CEO de CrowdStrike, a d’ailleurs choisi cet angle d’attaque pour tenter de minimiser l’impact de cette annonce. Sur LinkedIn, il explique ainsi avoir demandé à Claude Code de lui construire un produit destiné à remplacer CrowdStrike. Sans surprise, le modèle décline, et fait valoir, que la comparaison directe n’est pas valable.

Si les analystes financiers suivent globalement la même logique dans leurs recommandations sur le secteur, ils remarquent qu’à défaut de remplacer une plateforme de sécurité bout-en-bout, la promesse de Claude Code Security a tout de même de quoi fragiliser certains pans de l’activité.

Anthropic s’attaque à l’héritage COBOL

Non content d’avoir secoué le monde de la cyber, Anthropic a déclenché un nouvel épisode boursier lundi 23 février, en chahutant cette fois le cours d’IBM. L’action a en effet reculé de 13 % à Wall Street, soit près de 40 milliards de dollars de capitalisation effacés en une seule séance, du jamais vu dans l’histoire de Big Blue !

Cette baisse intervient dans un contexte de volatilité particulier, lié notamment aux incertitudes qui entourent les futurs plans de Trump sur les droits de douane, mais elle semble découler principalement d’un simple billet de blog.

Publié lundi par Anthropic, celui-ci décrit comment Claude Code peut intervenir dans la mise en œuvre d’un projet de modernisation de code COBOL. Rappelons que ce vénérable langage sous-tend encore de nombreux systèmes informatiques utilisés dans la banque, l’assurance, les services publics ou la finance de marché. Sa maintenance soulève un défi identifié de longue date : la formation de nouveaux mainteneurs, capables de remplacer les ingénieurs et développeurs ayant conçu ces systèmes il y a plus de 40 ans.

Comme nous le rappelions dans notre article dédié aux systèmes COBOL, le langage suppose une logique d’ingénierie différente de celle des projets informatiques modernes. Dans son billet, Anthropic fait valoir que Claude Code permet de reprendre la main sur un projet dont la documentation est partie avec les développeurs qui l’avaient conçue, notamment grâce à ses capacités d’exploration et de cartographie automatique de la base de code.

Anthropic reprend d’ailleurs à ce niveau l’un des arguments avancés dans le domaine de la cybersécurité, à savoir la capacité à aller plus loin que les modèles d’analyse statiques.

« Structures de données partagées, opérations de fichiers qui créent un couplage entre les modules, séquences d’initialisation qui affectent le comportement d’exécution – ces dépendances implicites n’apparaissent pas dans l’analyse statique parce qu’elles impliquent des données partagées par le biais de fichiers, de bases de données ou d’état global », décrit Anthropic.

Son billet de blog se conclut, comme souvent dans le monde du marketing BtoB, par un appel à laisser ses coordonnées pour télécharger un livre blanc, en l’occurrence un playbook dédié à la modernisation d’un projet COBOL vers « des langages modernes comme Java ou Python ».

« La modernisation du code existant a été bloquée pendant des années car comprendre ce code coûtait plus cher que de le réécrire. L’IA inverse cette équation », clame encore Anthropic. IBM ne dira pas nécessairement le contraire : Big Blue dispose depuis 2023 dans son propre catalogue de watsonx Code Assistant, une solution assistée par IA précisément dédiée à la modernisation des projets informatiques, dont le portage de COBOL vers Java…

☕️ Microsoft annonce quelques nouvelles possibilités dans son cloud « souverain »

24 février 2026 à 16:26

En juin dernier, Microsoft annonçait la disponibilité en Europe d’un nouveau programme qui faisait la promesse de données restant au sein des frontières de l’Union et donnait des assurances quant au contrôle assuré par un personnel européen.

Huit mois plus tard, l’éditeur étatsunien ajoute quelques nouveautés à son offre.

Ainsi, Microsoft met en avant la disponibilité de la déconnexion d’opérations dans Azure Local : « Les organisations peuvent désormais faire tourner leurs infrastructures critiques avec les outils de gestion et de conformité d’Azure, sans avoir besoin d’une connexion au cloud ».

L’entreprise souligne que la version déconnectée de Microsoft 365 Local est aussi disponible : « les charges de travail de productivité essentielles, Exchange Server, SharePoint Server et Skype for Business Server peuvent fonctionner entièrement dans les limites opérationnelles souveraines du client sur Azure Local ».

Enfin Microsoft met en avant l’ajout à son offre souveraine de Foundry Local, qui est une « solution d’inférence IA sur appareil que vous utilisez pour exécuter des modèles IA localement via une interface CLI, un SDK ou une API REST ».

« Les entreprises peuvent désormais intégrer des grands modèles d’IA dans des environnements souverains entièrement déconnectés grâce à Foundry Local », affirme l’entreprise. Les modes « déconnectés  » Azure Local et Microsoft 365 Local sont « disponibles dans le monde entier » tandis que le déploiement de LLM sur Foundry Local est pour l’instant réservé aux « clients éligibles ».

Mineurs sur Internet : « Réglementez les plateformes, pas les enfants »

24 février 2026 à 15:44
Mais c'est plus difficile
Mineurs sur Internet : « Réglementez les plateformes, pas les enfants »

Réseaux sociaux, IA, jeux vidéo… alors que le gouvernement français s’affiche à la pointe de la régulation des usages du numérique par les enfants, le commissaire aux droits de l’homme du Conseil de l’Europe demande aux législateurs européens de diriger les réglementations sur les obligations des plateformes plutôt que sur les mineurs.

« Alors que plusieurs pays européens envisagent d’introduire un âge minimum pour accéder aux plateformes de médias sociaux, j’appelle à la prudence dans l’imposition d’interdictions générales », affirme dans un communiqué Michael O’Flaherty, le commissaire aux droits de l’homme du Conseil de l’Europe.

La France fait partie des premiers pays de l’Union européenne à vouloir réglementer dans cette direction, soutenue par la Commission européenne malgré quelques critiques. L’Assemblée nationale a adopté fin janvier la proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, problématique à plusieurs points de vue.

Qui doit être responsable : l‘utilisateur ou la plateforme ?

Pour Michael O’Flaherty, « l’accent mis sur la restriction de l’accès ne doit pas faire oublier la nécessité de veiller à ce que les plateformes respectent les droits humains, au moyen d’obligations juridiques claires, d’une surveillance indépendante et d’une responsabilisation effective ».

Il ajoute qu’« interdire l’accès des enfants aux médias sociaux revient à déplacer la responsabilité en matière de sécurité : cette responsabilité n’incomberait plus aux plateformes qui créent l’environnement, mais aux enfants qui naviguent dans cet environnement ».

Le Commissaire aux droits de l’homme estime que « les États devraient plutôt exiger des plateformes qu’elles préviennent et atténuent les risques pour les droits de l’enfant, dès la conception et par défaut, et les tenir pour responsables si ces obligations n’ont pas été remplies ».

L’usage par les mineurs de l’IA dans le viseur du gouvernement français

Cet appel tombe alors que le gouvernement français affiche la volonté de prendre en main deux autres sujets numériques sous l’angle de la régulation de leur utilisation par les mineurs.

La semaine dernière, Anne Le Hénanff, la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a fait un appel international à contributions scientifiques sur les effets des usages de l’IA générative sur les mineurs.

Ces travaux et données recueillis « viendront nourrir la réflexion scientifique de la commission d’experts et contribuer à l’élaboration de recommandations concrètes dont les conclusions seront présentées dans le cadre de la présidence française du G7 », affirme la ministre dans son communiqué. À cette occasion, elle a lancé que « la France réaffirme ainsi un engagement fort : faire de la protection de l’enfance en ligne une priorité absolue, en s’appuyant sur la science et la coopération internationale au service de l’intérêt général ».

Dans la foulée, le gouvernement a aussi annoncé une « commission d’experts sur les risques et les vulnérabilités engendrées par les usages grand public de l’intelligence artificielle générative ». Le but est de « renforcer notre compréhension des vulnérabilités induites par ces technologies sur l’ensemble de la population, afin de mieux prévenir leurs conséquences ».

Et aussi les jeux vidéo

Autre sujet : le jeu vidéo. Emmanuel Macron indiquait récemment souhaiter disposer d’un éclairage scientifique sur les effets des jeux vidéo sur la violence dans la société tout en affirmant qu’« il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Le gouvernement l’a suivi en annonçant charger le Conseil de l’intelligence artificielle et du numérique d’une mission sur « les risques potentiels des jeux vidéo concernant les mineurs ».

« Cette mission devra établir une analyse scientifique des effets (tant positifs que négatifs) et risques potentiels des jeux vidéo, particulièrement sur la santé mentale, cognitive et physique des jeunes utilisateurs, et en matière de sécurité des mineurs », affirme la lettre envoyée par Anne Le Hénanff mais aussi par la ministre de la Culture Rachida Dati.

Elles demandent au Conseil d’« d’objectiver les risques, sur la base des connaissances scientifiques disponibles, en tenant compte du caractère multifactoriel des comportements à risque, des distinctions qui pourraient exister en fonction des publics, des types de jeux et des usages, et en évitant toute approche réductrice ».

Les travaux devront aussi évaluer si « les mécanismes actuels de sécurité dès la conception, de modération et de régulation sont suffisants, au regard de l’évolution des contenus, des pratiques et des modèles économiques, et proposer, le cas échéant, des mesures pour les clarifier, les adapter ou les renforcer ». Les deux ministères demandent au conseil de se pencher aussi sur les « nouvelles formes de socialisation induites par certains jeux en ligne ».

Reste la question de la vérification d’âge. Comme nous avons pu le voir avec l’obligation de contrôle à l’entrée des sites pornos, c’est encore trop souvent une vaste blague. Une carte d’identité de Dora l’Exploratrice ou modifier un cookie permet de passer les contrôles.

☕️ AMD va fournir 6 GW de GPU à Meta, qui va pouvoir racheter jusqu’à 10 % de ses actions

24 février 2026 à 15:03

En septembre et octobre 2025, OpenAI multipliait les partenariats avec NVIDIA et AMD. Dans les deux cas, les accords parlaient de « GW de puissance de calculs », sans aucun détail sur le type de puces utilisées. Comme déjà longuement expliqué dans un édito, c’est une pratique regrettable qui ne veut pas dire grand chose…

Quoi qu’il en soit, OpenAI s’engageait à déployer « au moins 10 GW de systèmes NVIDIA » (NVIDIA investit dans OpenAI), tandis qu’AMD s’engageait à fournir l’équivalent de 6 GW de GPU au père de ChatGPT.

Un nouvel accord vient d’être signé entre AMD et Meta cette fois-ci avec « un partenariat stratégique élargi pour déployer 6 GW de GPU AMD ». Pour les détails on repassera puisqu’il s’agit d’équiper les infrastructures de Meta avec « plusieurs générations de GPU AMD Instinct ». Tout juste savons nous que la première tranche, « à l’échelle du GW », devrait débuter durant la seconde moitié de 2026, avec des GPU « personnalisés AMD Instinct MI450 » et des processeurs EPYC de 6ᵉ génération. La suite n’est pas encore précisée.

Dans son communiqué, AMD rappelle que Meta est un partenaire qui a déjà déployé « des millions de processeurs AMD EPYC et d’importantes quantités de GPU Instinct MI300 et MI350 dans son infrastructure mondiale ».

Dans le cadre de ce partenariat, AMD propose aussi à Meta le droit d’acheter jusqu’à 160 millions de ses actions à un prix fixé à l’avance (warrants), en fonction de la réalisation d’objectifs sur les livraisons de GPU. Meta pourrait ainsi récupérer jusqu’à 10 % des actions AMD. L’annonce fait pour le moment bondir l’action d’AMD de 7 % lors de l’ouverture de la bourse.

La semaine dernière, Meta avait déjà annoncé un accord avec NVIDIA. Il porte sur une large gamme de produits, avec le « déploiement à grande échelle de CPU NVIDIA, de millions de GPU Blackwell et Rubin, ainsi que l’intégration des switchs Ethernet Spectrum-X pour la plateforme Facebook Open Switching System de Meta ».

Le point intéressant ici est la mise en avant d’une utilisation massive de CPU NVIDIA (avec des cœurs ARM). Ils seront utilisés pour des « applications dans les data centers de Meta et permettront d’obtenir des améliorations significatives en termes de performances par watt ».

NVIDIA ne cache pas cette joie, en forme de pied de nez à AMD et Intel : « Cette collaboration représente le premier déploiement à grande échelle exclusivement basé sur Grace », le CPU de NVIDIA. La suite se prépare avec le CPU Vera annoncé au CES de Las Vegas au début d’année.

Pour Goldman Sachs, l’IA n’apporte pas grand-chose à l’économie des États-Unis

24 février 2026 à 14:42
Comment donc ?
Pour Goldman Sachs, l’IA n’apporte pas grand-chose à l’économie des États-Unis

Plusieurs analystes financiers, dont ceux issus de Goldman Sachs, Morgan Stanley ou JP Morgan Chase remettent en cause la croissance que l’industrie de l’intelligence artificielle apporterait à l’économie américaine. En parallèle, les alertes sur la manière de comptabiliser le poids des infrastructures dans les investissements des géants numériques se multiplient, y compris de la part de l’agence de notation Moody’s.

Qu’apporte réellement le déploiement de l’intelligence artificielle (surtout générative, appuyée sur de grands modèles de langage) à l’économie ? Pour Goldman Sachs, il se pourrait bien que le domaine n’apporte… rien.

Du moins, pour les analystes de plusieurs autres banques de renom, dont Morgan Stanley ou JP Morgan Chase, le fait de se focaliser sur les montants faramineux d’investissements dépensés dans l’industrie des centres de données pourrait avoir caché le fait que ces flux de financements ne participent pas à la croissance économique des États-Unis, mais plutôt à celle des pays principalement asiatiques où les milliers de puces sont construites pour alimenter les serveurs.

En effet, selon les méthodes de calcul, l’IA pourrait être à la source de plus de la moitié de la croissance économique des États-Unis courant 2025, rappelle le Washington Post. Les cinq plus grosses sociétés du domaine prévoient par ailleurs de dépenser plus de 700 milliards de dollars dans l’IA en 2026, un volume plus ou moins équivalent à celui de l’économie suédoise. Ces chiffres expliquent directement la politique trumpiste de promotion de l’IA et de refus des régulations des sociétés numériques, mais aussi les critiques, notamment de la représentante Alexandria Ocasio-Cortez, selon lesquelles l’économie américaine serait anormalement dépendante de l’industrie de l’IA.

Gains économiques concrets : le grand flou

Or, selon les calculs récents de divers analystes financiers, le déploiement de l’IA n’aurait généré à peu près aucun impact sur l’économie des États-Unis. En effet, si les investissements d’OpenAI, Microsoft, NVIDIA et consorts sont très élevés, les trois quarts des coûts d’un centre de données dédié à l’IA sont estimés être liés à son équipement informatique. Mais l’essentiel de celui-ci est construit en dehors des États-Unis.

La comptabilité des effets de cette industrie sur l’économie a ceci d’important qu’à défaut d’indicateurs partagés, n’importe quel acteur peut choisir la manière de compter qui convient le mieux à son récit. Cette nouvelle manière de calculer pourrait néanmoins éloigner certaines inquiétudes relatives à la déformation des résultats de l’économie américaine que provoque la hausse du cours de bourse des « sept magnifiques » (NVIDIA, Meta, Tesla, Amazon, Alphabet, Microsoft et Apple). Pour essayer d’y voir plus clair, Goldman Sachs vient d’ailleurs de lancer un index S&P « sans IA », le SPXXAI, qui permet d’investir dans S&P 500 moins toutes les activités liées à l’IA.

Les géants numériques, en effet, ne facilitent la tâche de personne : en novembre, déjà, Michael Burry (dont le pari sur la crise des subprimes de 2008 a été illustré dans le film the Big Short) reprenait la parole sur X pour la première fois en deux ans. Sur le réseau social, il détaillait ce qu’il qualifiait d’amortissements abusifs dans les manières d’évaluer la durée de vie des équipements de centres de données chez les plus grosses valorisations technologiques états-uniennes.

Une comptabilité parcellaire des investissements dans les centres de données ?

En ce mois de février 2026, Moody’s alerte d’ailleurs sur le flou de la comptabilité relative aux centres de données. Pour la banque, les géants numériques ont pu recourir à un trou dans la raquette des règles états-uniennes de comptabilité pour cacher des dizaines de milliards de dollars de potentiel passif pour leurs data center.

Comme Meta ou Oracle, un nombre croissant d’entreprises créent en effet des entités principalement détenues par des acteurs extérieurs pour créer leurs fermes de serveurs. Ce sont ces véhicules qui supportent les coûts de construction, tandis que les Big Tech ne prennent auprès d’elle que des baux de location, quelquefois de relativement court terme – elles s’engagent généralement à verser une indemnité si jamais elles ne renouvelaient pas le contrat. Pour Moody’s, cela crée un risque que les investissements dans les murs et l’équipement ne soient comptabilisés nulle part.

La société de notation indique donc qu’elle exercera ses propres évaluations pour évaluer les passifs futurs à prendre en compte avant d’attribuer une notation à une société technologique, rapporte le Financial Times. Et de préciser qu’un « ajustement quantitatif de la dette sera probablement effectué si nous estimions que le passif locatif déclaré sous-estime les sorties probables de trésorerie ».

Alors que les dirigeants du secteur technologique commencent à s’inquiéter du relatif manque d’intérêt, voire de l’opposition croissante à l’explosion de l’intelligence artificielle, une récente enquête menée par le National Bureau of Economic Research des États-Unis auprès de 6 000 cadres dirigeants aux États-Unis, au Royaume-Uni, en Allemagne et en Australie montre que si 70 % des sociétés recourent à l’IA, 80 % d’entre elles ne constatent aucun impact sur l’emploi ou la productivité sur les trois dernières années.

Anthropic et OpenAI accusent des IA chinoises d’utiliser illégalement leur travail

24 février 2026 à 13:58
Misanthropic ?
Anthropic et OpenAI accusent des IA chinoises d’utiliser illégalement leur travail

Alors que l’entraînement de leurs modèles s’appuie notamment sur l’utilisation massive de données dont elles n’ont pas les droits, les startups de l’IA générative américaines se plaignent que leurs rivaux chinois utilisent, via la technique de « distillation », les données générées par leurs modèles.

Anthropic a accusé trois entreprises chinoises, DeepSeek, Moonshot AI et MiniMax d’utiliser les résultats générés par ses modèles pour entrainer les leurs. Quelques jours avant, OpenAI avait aussi accusé Deepseek, devant les élus étatsuniens, d’utiliser la technique de « distillation » (ou extraction) pour mettre au point son prochain modèle. Ces accusations arrivent alors que la startup chinoise doit sortir d’ici quelques jours un nouveau modèle.

Un tir de barrage avant l’arrivée d’un nouveau modèle DeepSeek

Depuis début janvier, les rumeurs d’une sortie d’un nouveau modèle v4 par DeepSeek grandissent. « La société chinoise spécialisée dans l’IA n’a pas encore annoncé de date de sortie, mais celle-ci devrait être imminente après la fin des célébrations du Nouvel An lunaire la semaine dernière », affirmait lundi 23 février CNBC. Et l’industrie américaine de l’IA tremble de revivre l’épisode que lui avait fait subir l’entreprise chinoise il y a un peu plus d’un an quand Wall Street avait remis en cause leurs capacités à lutter.

Dans ce cadre, OpenAI a envoyé le 12 février un mémo [PDF] aux élus de la Chambre des représentants des États-Unis qui participent à la commission sur la « Concurrence stratégique entre les États-Unis et le Parti communiste chinois ». Ce texte accuse DeepSeek de « tenter continuellement de profiter gratuitement des capacités développées par OpenAI et d’autres laboratoires américains de pointe ». L’entreprise de Sam Altman y présentait des indices observés sur sa plateforme qui témoignent, selon elle, « des tentatives continues de DeepSeek pour distiller les modèles de pointe d’OpenAI et d’autres laboratoires américains, notamment par le biais de nouvelles méthodes de brouillage ».

Ce lundi 23 février, Anthropic en remettait donc une couche avec un billet de blog accusant DeepSeek, Moonshot, et MiniMax de lancer des « campagnes à l’échelle industrielle […] pour extraire illicitement les capacités de Claude afin d’améliorer leurs propres modèles ».

« Ces laboratoires ont utilisé une technique appelée « distillation », qui consiste à entraîner un modèle moins performant à partir des résultats d’un modèle plus puissant », explique Anthropic. Pourtant, la startup américaine reconnait que « la distillation est une méthode d’entraînement largement utilisée et légitime. Par exemple, les laboratoires d’IA de pointe distillent régulièrement leurs propres modèles afin de créer des versions plus petites et moins coûteuses pour leurs clients ».

Une utilisation « illicite » de la distillation ?

Mais elle affirme que son utilisation est illicite si des concurrents l’utilisent « pour acquérir les capacités puissantes d’autres laboratoires en une fraction du temps et à un coût bien inférieur à ceux nécessaires pour les développer de manière indépendante », sans pour autant s’appuyer sur un quelconque texte légal. Dans son billet, l’entreprise américaine accuse les trois entreprises chinoises d’avoir utilisé des milliers de comptes qu’elles se seraient créés sur sa plateforme pour récupérer des millions de conversations avec Claude.

Les accusations des deux entreprises semblent plutôt vouloir pointer du doigt que DeepSeek s’appuierait sur leurs travaux et ainsi éviter que Wall Street s’affole de l’arrivée d’un nouveau modèle chinois dépassant les capacités de ses rivaux états-uniens.

Rappelons qu’Anthropic comme OpenAI ont été accusées l’une et l’autre d’avoir entrainé leurs modèles sur des contenus dont elle n’avaient pas les droits. L’entreprise de Dario Amodei a signé un accord de 1,5 milliard de dollars avec des auteurs en septembre 2025, celui-ci est toujours en cours de relecture chez le juge qui doit le valider.

Enfin, Reuters affirme que DeepSeek entrainerait son modèle sur des puces Blackwell de NVIDIA, normalement soumises à un embargo américain. Depuis peu, seule la génération précédente Hopper est autorisée à l’exportation en Chine.

Hetzner aussi augmente fortement le prix de ses VPS et serveurs dédiés

24 février 2026 à 13:20
Under pressure
Hetzner aussi augmente fortement le prix de ses VPS et serveurs dédiés

30 % d’augmentation sur les VPS et les Load Balancers, 15 % de plus sur les dédiés… Hetzner ajuste ses prix aussi bien pour les nouveaux que pour les anciens clients. En cause, encore une fois : les coûts d’exploitation et d’achat des composants qui ont « tous deux augmenté de façon spectaculaire ».

OVHcloud n’est pas le seul à augmenter les tarifs de ses VPS, Hetzner aussi va appliquer une nouvelle grille à partir du 1ᵉʳ avril. Là encore l’hébergeur n’y va pas avec le dos de la cuillère avec 30 à 39 % (32 % en moyenne) de hausse sur les serveurs en Allemagne ou en Finlande.

30 % de plus en moyenne sur les VPS Hetzner

La gamme de VPS d’entrée de gamme (Cost-Optimized) de Hetzner se compose de deux séries : les CX avec des processeurs Intel ou AMD en x86, ainsi que les CAX avec un processeur Ampere exploitant l’architecture Arm. Sur les autres gammes CPX (Regular Performance) et CCX (General Purpose) c’est de l’AMD aux commandes à chaque fois.

Nous avons déjà comparé le VPS CX23 (2 vCore, 4 Go de mémoire et 40 Go de stockage) de Hetzner aux VPS d’OVHcloud et YorkHost. Nous aurons très prochainement l’occasion de revenir plus en détail sur ce VPS dans un article dédié, pour continuer notre série de tests des VPS après Ionos et son CPU AMD EPYC, LWS avec sa virtualisation LXC et ses bridages, et OVHcloud en mode force tranquille.

Sur les modèles d’entrée de gamme comme le CX23, le tarif mensuel passera de 3,59 à 4,79 euros, soit 33,4 % de hausse (même augmentation sur les prix à l’heure). Sur le CAX11 (CPU Ampere, vous suivez ?) le prix augmentera de 36 % pour arriver à 5,39 euros au lieu des 3,95 euros actuels. On ne parle ici que des tarifs en IPv4 seulement, il faut ajouter 0,60 euro par mois pour avoir une adresse IPv6. Les VPS aux États-Unis et à Singapour sont également concernés par ces hausses.

15 % de plus en moyenne sur les dédiés

Les serveurs dédiés ne sont pas épargnés, avec entre 3 et 20 % environ de hausse, pour une moyenne aux alentours de 15 % environ. Les tarifs des dédiés augmentent donc en moyenne deux fois moins que ceux des VPS.

Tous les nouveaux tarifs sont détaillés sur cette page, avec les anciens et les nouveaux tarifs sur une même ligne (pratique pour comparer).

Toujours sur les dédiés, « tous les serveurs mis aux enchères subissent une augmentation de prix générale de 3 % ». La société propose en effet des enchères sur « des serveurs standardisés comme ceux de son portefeuille de produits, mais aussi sur des machines personnalisées adaptées aux besoins des clients par le passé ».

Il y a plusieurs centaines d’enchères en cours avec des tarifs allant de quelques dizaines à plusieurs centaines d’euros par mois. Attention, sur ces machines « les installateurs automatiques d’images, les images logicielles spéciales, le vKVM ou d’autres systèmes logiciels ne sont pas possibles », seul le rescue system est proposé.

C’est encore la faute de la RAM et des SSD

Dans un communiqué, Hetzner explique que « des hausses drastiques des prix ont récemment été observées dans divers secteurs du secteur informatique. C’est pourquoi, malheureusement, nous devons aussi augmenter les prix de nos produits ». Un argument déjà utilisé par OVHcloud. Les raisons sont connues : une pénurie causée par la forte demande de GPU pour l’intelligence artificielle, qui a toujours besoin de plus de mémoire pour ses grands modèles de langage.

Hetzner ajoute que « les coûts d’exploitation de [son] infrastructure et d’achat de nouveaux équipements ont tous deux augmenté de façon spectaculaire. Par conséquent, nos variations de prix affecteront à la fois les produits existants et les nouvelles commandes et entreront en vigueur à partir du 1ᵉʳ avril 2026 ».

L’hébergeur affirme avoir retardé au maximum ces hausses, mais il ne peut aujourd’hui « plus compenser la pression que cela exerce sur [ses] opérations ».

Déjà des hausses début février

Déjà début février, lors de l’annonce d’une hausse des frais d’installation, l’hébergeur expliquait que « les prix d’achat actuellement exceptionnellement élevés des composants matériels perturbent considérablement » son modèle économique. Il ajoutait que « cette augmentation ne couvrait pas les coûts supplémentaires réels supportés, et de loin ».

Hetzner ne cachait pas son agacement sur la gestion de la crise par les fabricants de mémoire et de périphériques de stockage :

« Le marché de la RAM est actuellement dominé par très peu de fabricants. À notre avis, leur politique tarifaire est difficilement compréhensible et a fait grimper les coûts de façon massive en peu de temps. La situation est similaire pour les SSD NVMe.

De plus, il est évident que même les quotas et engagements de prix promis par les fournisseurs ne sont actuellement fiables que dans une certaine mesure ».

Début février, Hetzner parlait d’une « première étape nécessaire » et ajoutait que ce n’était « probablement pas la seule » car il n’y avait alors « aucun signe que les conditions du marché vont s’apaiser ». Selon le PDG d’OVHcloud, l’augmentation des prix « va encore se poursuivre pour trouver un nouveau point d’équilibre entre l’offre et la demande probablement vers fin 2026 ».

Il faudra certainement encore attendre plusieurs mois avant un retour à la normale : « les prix resteront importants jusqu’à au moins 2028, le temps que de nouvelles capacités de production de mémoire voient le jour ». Selon Hetzner, « la pression sur les prix devrait se poursuivre au cours de l’année en cours ».

☕️ IBEX Q1 d’AQT : Scaleway s’équipe lui aussi d’un ordinateur quantique

24 février 2026 à 11:57

Scaleway, la filiale cloud d’iliad (maison mère de Free) a annoncé la semaine dernière une collaboration avec la société autrichienne Alpine Quantum Technologies (AQT, basée à Innsbruck) afin d’intégrer un ordinateur quantique IBEX Q1 à ions piégés. Pour rappel, nous avons publié un article de présentation de l’informatique quantique.

La machine « sera disponible via la plateforme Quantum as a Service (QaaS) de Scaleway » qui permet à tout un chacun ou presque « d’accéder à des unités de traitement quantique (QPU) via son infrastructure cloud souveraine ». Le côté souverain et européen est mis en avant à plusieurs reprises, avec un acteur français du cloud et autrichien du quantique.

« L’ordinateur quantique d’AQT est accessible et programmable sans réservation […] les mardis et mercredis de 10 h à 17 h CET ». Scaleway prend en charge les SDK open-source standard comme Qiskit d’IBM, Cirq de Google et Pennylane. Selon la fiche produit du IBEX Q1, la machine dispose de 12 qubits.

Scaleway propose une facturation « par shot, à l’heure (émulation), ou via une réservation dédiée ». Sur cette page, l’entreprise présente l’IBEX Q1 d’AQT comme ayant bien 12 ions piégés, avec une fiabilité de 99,97 % sur une porte et de 98,7 % sur deux. Comme nous l’expliquons dans cette actualité, les portes quantiques sont tout aussi importantes que les qubits.

« L’appareil est montable en rack standard, fonctionne à température ambiante et consomme moins de 2 kilowatts, idéal pour les simulations nécessitant une précision critique (par exemple, la dynamique des fluides) », ajoute l’entreprise.

Il y a quasiment deux ans, OVHcloud inaugurait « le premier ordinateur quantique installé au cœur d’un fournisseur de services cloud européen ». Il est installé dans locaux de la société à Croix, dans les Haut de France. Il s’agit d’un MosaiQ de la start-up française Quandela, une machine avec deux qubits photoniques.

☕️ Au Grand collisionneur de hadrons, des tests grandeur nature pour la haute luminosité

24 février 2026 à 11:12

Dans un communiqué, le CERN ne cache pas sa joie et annonce avoir « franchi une étape importante dans la progression du projet Grand collisionneur de hadrons à haute luminosité (HiLumi LHC), avec le début du refroidissement cryogénique à 1,9 K (‑271,3 °C) d’un banc d’essai de 95 m de longueur », une opération qui devrait prendre plusieurs semaines. Il s’agit d’une réplique grandeur nature de l’installation qui se trouve sur le Grand collisionneur de hadrons.

Si tout se passe bien, la mise en place est prévue pour l’été prochain avec « le lancement de quatre années de travaux de grande envergure au cours du troisième long arrêt (LS3) ». Le LS3 était prévu pour 2025 à 2027, avant d’être repoussé et rallongé à partir de mi-2026.

Le retour des opérations est donc prévu pour 2030. L’accélérateur sera de nouveau mis à l’arrêt et amélioré en 2034 et 2035, avant de passer au Run 5.

Dans le cas présent, la luminosité correspond au nombre de collisions de particules. Avec la haute luminosité, elle « sera multiplié par dix, ce qui augmentera très fortement le volume de données de physique disponibles pour la recherche ». « Ce bond en avant permettra d’étudier avec une précision inédite le comportement du boson de Higgs et d’autres particules élémentaires, voire éventuellement de découvrir de nouveaux phénomènes rares », explique le CERN.

Mark Thomson, directeur général du CERN, tient à mettre les points sur les i : « On ne soulignera jamais assez l’importance et l’intérêt du LHC à haute luminosité. C’est le plus grand projet entrepris par le CERN depuis 20 ans […] Il permettra d’étudier pour la première fois comment le boson de Higgs interagit avec lui-même : cette mesure clé pourrait nous aider à faire la lumière sur les premiers instants de l’Univers et son évolution ».

Il ajoute que « le LHC à haute luminosité servira également à explorer de nouveaux horizons, et pourrait conduire à des découvertes inattendues. C’est tout l’intérêt de sonder l’inconnu : on ne sait pas ce qui s’y trouve ». Il faudra être patient. Les mesures ne débuteront pas avant 2030, et il faudra ensuite les analyser.

[Tuto] Comment limiter son temps d’utilisation des réseaux sociaux ?

24 février 2026 à 10:33
et d'autres usages numériques chronophages ?
[Tuto] Comment limiter son temps d’utilisation des réseaux sociaux ?

De la limitation dans les applications elles-mêmes aux solutions physiques de blocage des réseaux sociaux, Next vous propose un tour d’horizon de différents outils destinés à faciliter la maîtrise de son temps d’usage des réseaux sociaux… et d’autres usages numériques.

Comment reprendre la main sur ses réseaux sociaux ? Comment lutter contre la tentation du doomscrolling, qui fait quelquefois disparaître des heures entières dans une succession de messages ou de vidéos ?

Environ un tiers de la population adulte passait plus de 4 h devant un écran chaque jour de la semaine en 2022 ; 36 % des femmes et 46 % des hommes y passaient de nouveau plus de 4 h par jour le week-end, selon une étude menée sur la population belge.

En France, de 76 à 94 % des plus de 2 000 personnes interrogées dans le cadre du baromètre de la mission interministérielle de lutte contre les drogues et les conduites addictives (MILDECA) déclaraient passer plus de temps que prévu sur leurs écrans selon les activités concernées.

80 % des 15 - 24 ans et 68 % des 25 - 34 ans déclaraient passer « régulièrement plus de temps que prévu » sur les usages plus spécifiques que sont ceux des réseaux sociaux. Dans la mesure où une personne interrogée sur deux déclarait avoir des difficultés à réduire ses usages, Next vous propose un tour d’horizon de diverses solutions de limitations susceptibles d’aider à réduire l’utilisation des plateformes sociales (et potentiellement de quelques autres). Si le résultat vous est utile, pensez à vous abonner.

Quelle que soit la ou les tactiques adoptées, le principe commun est simple : ajouter de la friction dans vos usages numériques. En effet, c’est notamment via des expériences utilisateur extrêmement fluides, par exemple via le mécanisme de scrolling infini, que les plateformes sociales parviennent à maintenir l’attention de leur public sur des plages de temps très longues. Pour reprendre le contrôle, l’un des enjeux consiste donc à freiner cette trop grande simplicité d’utilisation répétée.

Niveau 1 : freiner ses usages dans et autour des plateformes concernées

Niveau 0,5 : l’autrice de ces lignes utilise le refus de personnalisation des publicités sur les plateformes d’Instagram comme un anti-doomscrolling relativement efficace.

En suivant notre précédent tuto sur la manière de refuser la personnalisation des publicités sur les plateformes de Meta, vous devriez voir apparaître des panneaux publicitaires génériques (au sens de : non adaptés à vos usages spécifiques) au milieu de vos sessions de consultation de stories ou de votre scroll dans le flux de contenu Instagram. Leur consultation est obligatoire pendant 5 à 6 secondes, un laps de temps court, mais suffisant pour vous obliger à prendre une pause dans la succession de contenu que vous venez de consulter… donc vous pousser à vous déconnecter si c’est l’effet recherché.

Un écran publicitaire un brin désagréable / Instagram, capture d’écran Next

Niveau 1 : Sur plusieurs plateformes (Instagram, Facebook, TikTok), il est aussi possible de régler une temporalité d’utilisation dans les paramètres de l’application.

Pour ce faire, sur les applications mobiles de Facebook et Instagram, rendez-vous sur votre page de profil, appuyez sur le menu burger en haut à gauche, cherchez « votre activité » > « Temps passé » et vous trouverez des outils pour limiter votre utilisation quotidienne (selon des plages de 15, 30, 45 minutes à plusieurs heures).

Sur TikTok, cherchez de même le menu burger en haut à gauche de votre profil, puis « Paramètres et confidentialité » > « temps d’écran et bien-être » > « temps d’écran ». Vous pourrez programmer des pauses de 10, 20, 30 minutes ou de durées personnalisées, ou limiter votre temps d’utilisation quotidien.

Soulignons néanmoins que ces outils vous maintiennent dans l’écosystème de chaque application, et qu’il suffit, par exemple chez TikTok, d’entrer un code pour déverrouiller le blocage institué.

Plus radical, certains internautes choisissent de supprimer les applications des réseaux qui les gênent de leur smartphone. Si vous êtes convaincu·es du bien-fondé de réduire votre temps d’utilisation des services en question, cela peut fonctionner. Selon un rapide sondage auprès de nos proches, cela dit, ça n’empêchera pas les plus adeptes d’entre nous… de consulter leur(s) plateforme(s) favorite(s) depuis un navigateur. Techniquement, ce détour permet d’ajouter un peu de friction à son usage. Mais à partir du moment où la fenêtre de votre plateforme favorite reste ouverte… c’est quasiment comme si vous aviez le réseau social à portée de main.

Niveau 2 : Les extensions de navigateur

Quand on est journaliste, qui plus est journaliste spécialisée dans le numérique, recourir aux réseaux sociaux, y compris depuis son navigateur, fait partie du travail quotidien. Revers de la médaille : cela participe directement à l’addiction de certaines. Une parade possible ? Ajouter une extension sur son navigateur, la paramétrer en fonction des sites que vous voulez vous réfréner d’utiliser (nous, donc, y avons mis toute plateforme à dimension sociale), et lui indiquer l’heure à partir de laquelle vous souhaitez bloquer.

Sur Distract me Not (firefox), ce fonctionnement est modulable en fonction des jours de la semaine. Une fois lancée et l’heure dite dépassée, elle vous accroche par le collet alors que vous tentez, pour la 150e fois de la journée, de vous connecter à l’un de vos réseaux sociaux.

Rattrapée par la patrouille / Distract me Not, Capture d’écran Next

À noter : l’application n’est pas avare de bugs – elle décide quelquefois qu’un site sans rapport mérite d’être bloqué –, mais pour l’usage décrit ici, elle convient tout à fait.

D’autres options sur le même mode s’appellent Leechblock (chrome et firefox), Stay Focusd (chrome) ou Time to Focus (chrome, firefox, edge), qui propose aussi d’adopter la technique du minuteur pomodoro (qui suppose que des pauses régulières permettent d’améliorer la concentration de long terme). Celles disponibles pour chrome sont aussi utilisables sur les navigateurs installés sur chromium (Vivaldi, Opera, Brave, etc).

Niveau 3 : les paramètres généraux

Sur smartphone comme sur ordinateur, vous pouvez créer des limites d’utilisation depuis les réglages systèmes de l’appareil. Avantage de l’opération : cela vous permet de vous occuper de plusieurs applications et usages à la fois. Inconvénient : comme depuis l’intérieur de votre application Instagram ou Tiktok, vous pouvez aussi relativement facilement vous offrir une petite rallonge si l’envie vous en prend. 


Néanmoins, cela rajoute toujours de la friction. Pour retrouver les instructions sur Mac, c’est ici, sur Microsoft, c’est considéré sous l’angle du contrôle parental, quand bien même l’enjeu concerne tous les âges, et c’est là. Et sous Android, c’est dans Paramètres > Applications > Temps d’utilisation.

Niveau 4 : les applications radicales

Si rien de tout cela ne vous suffit, il y a encore les applications les plus radicales. Avant d’en arriver là, il y a celles qui remplissent peu ou prou les mêmes fonctionnalités que celles exposées pour les extensions de navigateur, en vous permettant un paramétrage plus ou moins fin. Pour ce type de cas, citons par exemple One Sec, Forest ou Freedom.

Mais si vous avez un projet chronophage sur lequel il faut absolument que vous vous concentriez, vous voudrez peut-être employer les grands moyens. À ce sujet, sur Mac, signalons SelfControl, une application grâce à laquelle vous pouvez créer votre liste de sites à bloquer (vous pouvez aussi y mettre votre boîte mail ou n’importe quel autre usage nécessitant internet qui vous fait perdre du temps). Une fois lancée, vous serez dans l’incapacité de vous connecter au site ou à la plateforme en question… y compris si vous rallumez votre ordinateur. L’application est open source, ce qui a permis de construire des services similaires pour d’autres systèmes d’exploitation (SelfRestraint sous Windows, par exemple, Chomper sous Linux).

Autre possibilité, plus onéreuse que la plupart des propositions formulées jusqu’ici : obtenir une « brick », c’est-à-dire un élément matériel sur lequel vous serez obligé·e de poser votre téléphone pour pouvoir débloquer les applications dont vous cherchez à limiter l’usage. Pour un peu plus de 60 euros, vous obtenez une brique de la marque américaine brick et vous paramétrez l’application de contrôle en fonction de vos besoins. Une fois le temps d’utilisation de vos différents usages écoulé, que vous soyez au bureau, en transit ou en voyage, impossible de réaccéder aux applications bloquées si vous n’avez pas votre brique avec vous.

Vous avez testé d’autres outils ou fonctionnalités ? Dites-nous lesquelles en commentaire !

☕️ Sur LinkedIn, drôle de passe d’armes entre Jean-Baptiste Kempf (VLC) et Gérald Darmanin

24 février 2026 à 10:07

Jean-Baptiste Kempf, l’un des principaux contributeurs du projet VideoLAN et de son célèbre lecteur VLC, s’est fendu lundi 23 février d’une charge virulente adressée au garde des Sceaux Gérald Darmanin. « J’envisage de quitter la France, et c’est intégralement la faute de M.Darmanin », titre l’ingénieur, dont la publication LinkedIn devient très vite virale.

Il y raconte les démêlés de sa femme, Audrey Prévost Kempf, avec l’administration en charge des admissions au concours de l’École nationale de la magistrature (ENM), qu’elle passe avec brio à sa seconde tentative, avant d’être informée, par courrier, qu’elle n’a finalement pas le droit de concourir.

D’après le résumé qu’en fait Jean-Baptiste Kempf, le ministère de la Justice décide de retoquer sa participation, a posteriori et alors qu’elle se classe 9ᵉ à l’issue du grand oral, « au motif d’une prétendue insuffisance d’activité juridique qualifiante ».

Intro du billet publié par J-B Kempf le 22 février sur LinkedIn

Audrey Prévost Kempf avait elle-même relaté cette déconvenue quelques jours plus tôt. Son éviction du concours de l’ENM (qui concerne également au moins un autre candidat) intervient dans le cadre des nouvelles modalités d’admission introduites suite à la réforme de 2023.

Aux premier et deuxième concours (destinés respectivement aux jeunes diplômés et aux salariés de la fonction publique), elle ajoute un troisième concours réservé aux candidats venus du privé, sous réserve que ces derniers puissent justifier d’au moins quatre ans d’une expérience « particulièrement qualifiante dans le domaine juridique, administratif, économique ou social ».

Et c’est là que le bât semble avoir blessé dans le cas d’Audrey Prevost Kempf : ses dix ans d’implication aux côtés de Jean-Baptiste Kempf dans VideoLAN n’auraient pas été reconnus comme une expérience « particulièrement qualifiante ».

« Le légal dans VideoLAN est plus compliqué et complexe que dans la plupart des sociétés que je connais, et avec un champ d’application bien plus large. Et devinez qui m’a aidé dans tout ce travail pendant dix ans ? Audrey, évidemment. Moi, je n’ai aucune base scolaire en droit. »

S’ensuivent cinq mois d’échanges avec le ministère avec un recours au fond, jusqu’à cette interpellation publique.

« Le travail autour de VideoLAN est titanesque, même bénévole, et il n’appartient pas au Garde des Sceaux ni à son administration de déjuger notre travail. Le mieux, c’est lorsque M. Darmanin écrit que  « le numérique […] et le droit du numérique ne sont pas utiles au magistrat de l’ordre judiciaire » », écrit Jean-Baptiste Kempf, fait chevalier de l’ordre national du Mérite en 2018, qui jure qu’on ne l’y prendra plus.

« Jamais plus je n’aiderai l’État français gratuitement par mon travail, et tant pis pour les agents de la justice (utilisant beaucoup VLC) qui auraient besoin de lire de nouveaux formats de vidéo. Cracher sur le professionnalisme du travail de VideoLAN est totalement inadmissible. »

Quelques heures plus tard, Gérald Darmanin lui répond en commentaire de sa publication LinkedIn, indiquant d’abord ne pas avoir été saisi personnellement du litige et regrettant le ton agressif de la missive, avant de finalement écrire : « il me semble que ma réponse avant le recours formulé devant le Conseil d’État était de demander à mon administration de revoir sa décision. Mais je veux vous le lui confirmer de façon certaine ».

« J’ai le plus grand respect pour elle d’avoir réussi ce difficile concours et, en effet, la magistrature manque de personnes connaissant le numérique », écrit encore le ministre.

Les 375 nouveaux auditeurs de justice qui constituent la promotion 2026 de l’ENM, dont 49 issus du troisième concours, ont fait leur rentrée le 16 février dernier.

Shein s’installe dans cinq BHV en province, des corners de 400 à 1 000 m²

24 février 2026 à 09:40
Chein
Shein s’installe dans cinq BHV en province, des corners de 400 à 1 000 m²

Angers, Dijon, Limoges, Grenoble et Reims : cinq BHV vont accueillir à partir de demain un corner Shein, de 400 à 1 000 m². Après l’expérimentation à Paris, l’ambiance est toujours électrique, mais le patron du BHV (Frédéric Merlin) se veut rassurant.

En octobre, Shein et le BHV du Marais à Paris défrayaient la chronique avec l’ouverture d’un « corner » du spécialiste de la mode ultra éphémère (ultra-fast fashion). Au cœur de cet accord, la Société des grands magasins (SGM) qui possède le BHV, sept magasins Galeries Lafayette et onze centres commerciaux.

Pour rappel, « en mai 2022, SGM acquiert sept magasins Galeries Lafayette en province. En novembre 2023, le groupe devient propriétaire de la marque BHV, intégrant les magasins BHV Marais et Parly 2 à son portefeuille », relate le groupe SGM.

BHV et Shein : nouvelle tempête après le calme après la tempête ?

Quelques jours avant l’ouverture du corner Shein au BHV à Paris, la marketplace chinoise était sous le feu des projecteurs pour avoir vendu des « poupées sexuelles à caractère pédopornographique ». Les jours et semaines suivantes ont été agités : la plateforme a fermé sa marketplace en France, des contrôles massifs ont été effectués aux douanes, le gouvernement a engagé une procédure de suspension (rejetée par le tribunal judiciaire de Paris), etc.

Alors que le calme était plus ou moins revenu, la SGM vient d’envoyer un communiqué de presse pour annoncer que, « à compter du 25 février, les BHV de Limoges, Angers, Dijon, Grenoble et Reims ouvrent au public leurs corners Shein ». L’ouverture à Paris du corner Shein avait été l’occasion de nombreuses levées de boucliers chez les marques, les commerçants, les clients et les élus. À voir ce qu’il en sera en province.

« Ces espaces s’inscrivent dans le cadre du partenariat expérimental en cours entre le groupe SGM et Shein visant à intégrer une marque digital-first dans l’écosystème d’un magasin physique, afin de répondre aux nouveaux usages des consommateurs », explique la Société des grands magasins fondée par Frédéric et Maryline Merlin.

« L’ouverture se fera de manière progressive », avec des surfaces comprises entre 400 et 1 000 m² selon les magasins. Pour commencer, il sera principalement question d’une « sélection hivernale » d’articles. Ensuite, à partir d’avril, « l’offre évoluera pour intégrer une sélection plus large de références saisonnières » et de produits « en phase avec les préférences observées localement ». Pour la SGM, cela permet « d’ajuster la sélection et le parcours client en fonction des retours clients ».

Frédéric Merlin (SGM) : « Il ne faut pas avoir raison trop tôt »

Il y a quelques jours à peine, Frédéric Merlin répondait à une interview du Figaro. Il reconnaissait des erreurs, notamment l’immense affiche avec le patron de Shein placardé sur son magasin, mais ajoutait qu’il s’était : « rendu compte qu’il ne faut pas avoir raison trop tôt ». Une manière de s’affirmer comme précurseur.

« Si cela ne marche pas dans un an, on arrêtera », ajoutait néanmoins l’entrepreneur à nos confrères. Il revenait aussi sur la qualité des produits et affirmait que, dans les jours qui ont suivi l’ouverture, « nous avons tout eu, le contrôle des douanes, celui de la DGCCRF. Ils n’ont rien trouvé ».

Il précise avoir revu sa stratégie (articles moins chers, plus de choix de taille…) avec succès : six clients sur dix achèteraient désormais des produits Shein. Autre revirement de situation : « Nous allons changer de modèle d’exploitation pour les espaces Shein du BHV. Ce sont toujours nos vendeurs qui continueront à opérer. Mais, à partir d’avril, Shein sera responsable du choix des assortiments et nous percevrons une commission à la vente ».

Divorce largement consommé entre Galeries Lafayette et BHV

Il n’en reste pas moins des séquelles visibles de l’arrivée de Shein au BHV : « Le groupe Galeries Lafayette a rompu son contrat avec la SGM concernant sept magasins de province, rebaptisés BHV. Une centaine de marques (Guerlain, Dior, Sandro, etc.) ont quitté le grand magasin parisien, protestant contre Shein ou des retards de paiements », explique Sud Ouest.

Lors d’une audition au Sénat en janvier, Frédéric Merlin reconnaissait « une vraie baisse de chiffre d’affaires sur cette fin d’année avec le départ de marques ». Il affirmait déjà qu’un nouveau système de paiement était mis en place, promesse de nouveau faite dans l’interview au Figaro. Libération relate une partie de l’audition durant laquelle Frédéric Merlin a été « jusqu’à se présenter comme « un chef d’entreprise éthique ». Rires dans l’assemblée ».

Le BHV était également empêtré dans la vente de l’immeuble qu’il occupe à Paris. C’est finalement en janvier que les Galeries Lafayette ont officialisé la vente au canadien Brookfield, pour 300 millions d’euros. La SGM devait initialement racheter les murs, mais avec l’affaire Shein la Banque des Territoires s’était retirée.

En plein boom de l’IA, Microsoft ferme le centre d’ingénierie sur l’IA de son siège parisien

24 février 2026 à 09:01
Refactoring RH
En plein boom de l’IA, Microsoft ferme le centre d’ingénierie sur l’IA de son siège parisien

Le Microsoft Engineering Center d’Issy-les-Moulineaux va faire l’objet d’un plan de cessation d’activités d’ici l’été. Officiellement motivée par la volonté de réunir les ingénieurs autour de grands hubs internationaux comme Redmond ou Dublin, la décision suscite l’incompréhension parmi la centaine de collaborateurs concernés, qui travaillent au quotidien sur certaines des briques sous-tendant les principaux produits d’IA de l’entreprise.

Inauguré en 2011 aux portes de Paris, et recentré à partir de 2019 sur les sujets liés à l’intelligence artificielle, le Microsoft Engineering Center français va fermer ses portes d’ici l’été. L’annonce en a été faite le 19 février dernier à la centaine de collaborateurs concernés, à qui il a été confirmé qu’il s’agissait bien d’un plan de cessation d’activité et non d’une simple réduction d’effectifs.

Une annonce surprise pour la centaine d’ingénieurs concernés

Révélé la semaine dernière par l’Usine digitale, ce projet de fermeture nous a été confirmé par Microsoft France dans une déclaration :

« Nous avons présenté aux représentants du personnel un projet visant à cesser les activités du Microsoft Engineering Center Paris. Les discussions sont en cours et aucune décision définitive n’a été prise. Nous nous engageons à mener cette consultation de manière responsable et à soutenir tous les collaborateurs tout au long du processus. »

La nouvelle, annoncée par des membres des ressources humaines avec le concours d’un cadre français venu des États-Unis, a d’abord suscité stupeur et incompréhension au sein des équipes concernées. Opérant au sein d’une filiale dédiée, ses ingénieurs avaient été épargnés par la rupture conventionnelle collective mise en place par Microsoft France en novembre dernier (200 postes concernés, soit environ 10 % de l’effectif national).

« On ne comprend pas le signal. D’un côté, on a le discours selon lequel Microsoft investit en France parce que c’est le pays de l’IA et des ingénieurs. De l’autre, on vire une équipe de 100 personnes, dont la capacité à faire des choses n’a jamais été remise en cause. Quand on voit les sujets sur lesquels on travaille, il y a de quoi se poser des questions », nous confie un employé du Microsoft Engineering Center sous couvert d’anonymat.

Un centre d’ingénierie principalement consacré à l’IA

Immatriculé en 2011, le Microsoft Engineering Center français est installé depuis ses débuts au siège social de Microsoft France, à Issy-les-Moulineaux, aux portes de Paris. Au cours des années 2010, le centre se consacre notamment au développement de fonctionnalités et de services chargés d’accompagner la stratégie de l’éditeur en matière de distribution de contenus, qu’il s’agisse de flux vidéo, de musique, de jeux ou d’expériences interactives.

À partir de 2019, Microsoft donne une inflexion particulière à son centre, avec l’ouverture d’un centre de développement spécifiquement dédié à l’intelligence artificielle. « Ce Centre a pour mission d’accompagner les entreprises du monde entier dans leur transformation digitale et dans leur quête d’efficacité et de productivité accrues grâce à l’IA. Elles pourront bénéficier de solutions IA répondant à leurs besoins métiers à travers notamment l’usage des plateformes Dynamics 365 ou Azure. », expliquait alors Microsoft.

Cet axe constitue désormais l’activité principale du centre parisien. « Nous sommes une équipe reconnue, capable de livrer et maintenir des produits à succès, affirme notre contact. Nous étions parmi les premiers à travailler sur l’automatisation avec Copilot dès 2022. Les appels d’IA générative de la Power Platform [la collection d’outils de développement low code de Microsoft, ndlr] passent, par exemple, par un service conçu et développé à Paris ».

Une volonté affichée de rationalisation

Du côté de Microsoft France, un porte-parole indique que ce plan de cessation d’activités découle d’une stratégie, déjà engagée par ailleurs, de concentration des efforts autour de grands hubs internationaux comme Microsoft en compte déjà à Redmond ou à Dublin. Autrement dit, la décision de fermer le centre parisien ne découlerait pas d’une lecture qualitative de ses contributions, mais plutôt d’un changement d’organisation décidé et opéré à plus grande échelle.

« Ces changements proposés n’auront aucune incidence sur les autres activités de Microsoft en France. Nous restons pleinement engagés auprès de nos clients ainsi qu’à poursuivre nos investissements dans le pays », veut par ailleurs rassurer l’éditeur, selon qui des propositions de relocalisation dans l’un de ses centres sont envisageables pour les ingénieurs intéressés.

Le 4 novembre dernier, Microsoft renouvelait ses marques d’intérêt envers la France et l’IA au travers d’un rapport réaffirmant sa double promesse de « former un million de Français à l’IA d’ici 2027 » et « d’accompagner 2 500 startups françaises dans leur développement grâce à l’IA d’ici 2027 ». Au printemps 2024, Microsoft avait par la voix de son président Brad Smith promis 4 milliards d’euros d’investissements « au service de l’intelligence artificielle » dans le pays à l’occasion du salon Choose France.

☕️ Retour des humains sur la Lune : Artemis II rentre au garage, le lancement repoussé

24 février 2026 à 08:07

Ce week-end, Jared Isaacman, administrateur de la NASA, laissait peu d’espoir quant au lancement de la mission Artemis II en mars. Les ingénieurs ont en effet détecté une « interruption du flux d’hélium dans l’étage de propulsion cryogénique intérimaire du SLS » ou Space Launch System, le lanceur lourd de la NASA.

Il ajoutait que « les équipes procèdent au dépannage et se préparent à un probable retour d’Artemis II au VAB » ou Vehicle Assembly Building, le hangar à fusée de l’Agence spatiale américaine. Rapidement, la mauvaise nouvelle a été confirmée : « Quelle que soit la panne potentielle, l’accès et la résolution de ces problèmes ne peuvent être effectués que dans le VAB ».

À cause des conditions météo, le retour au hangar n’est pas prévu avant le 25 février. La fusée mettra environ 12 heures pour faire les 6,4 km qui séparent le dock de lancement du VAB.

Il y a un mois, la fusée s’était installée à la verticale sur son pas de tir. Artemis II embarquera quatre astronautes à bord qui iront faire le tour de la Lune (une première depuis 50 ans), mais sans se poser. Fouler le sol de notre satellite naturel sera l’objectif d’Artemis III.

Selon la NASA, 16 fenêtres de tir étaient possibles entre les 6 février et 30 avril. On peut déjà exclure février et mars, avril semble très court comme délai puisqu’il faut inspecter la fusée, trouver le souci, le régler, effectuer des tests, la replacer sur son pas de tir, etc.

Artemis II : fusée et astronautes dans les starting-blocks pour aller autour de la Lune

La retombée d’un Falcon 9 de SpaceX a créé un nuage de lithium dans la haute atmosphère

24 février 2026 à 07:42
Après moi...
La retombée d’un Falcon 9 de SpaceX a créé un nuage de lithium dans la haute atmosphère

Il y a un an, SpaceX a perdu le contrôle du deuxième étage de sa fusée au cours d’un de ses lancements de satellites de Starlink. Des débris avaient été retrouvés en Pologne, mais des chercheurs allemands montrent un an après que la fusée a créé un nuage de lithium dans la haute atmosphère au dessus de l’ouest de l’Irlande s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.

Les échecs des lancements de fusées peuvent polluer la haute atmosphère terrestre avec des conséquences inconnues pour la couche d’ozone. Le 18 février 2025, SpaceX lançait une 438e fois un Falcon 9 en dehors de l’atmosphère pour envoyer une vingtaine de satellites Starlink en orbite basse.

L’entreprise s’est félicitée du retour du premier étage de la fusée pour son premier lancement des Bahamas. Mais le 19 février, des Polonais témoignaient de la retombée de débris du deuxième étage de la fusée de SpaceX et l’agence spatiale polonaise POLSA confirmait « que dans la nuit du 19 février 2025, entre 04h46 et 04h48, une rentrée incontrôlée dans l’atmosphère au-dessus du territoire polonais d’un étage de la fusée porteuse FALCON 9 R/B a eu lieu ».

Une détection au-dessus du nord de l’Allemagne

Mais la retombée incontrôlée du deuxième étage du Falcon 9 a eu des conséquences qu’on n’imaginait pas. Des chercheurs et chercheuses de l’institut Leibniz de physique de l’atmosphère ont publié, tout juste un an après, un article scientifique indiquant qu’ils ont pu détecter et mesurer un nuage de lithium dans la haute atmosphère au-dessus de l’ouest de l’Irlande et s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.

De fait, leur équipe explique avoir d’abord détecté une multiplication par 10 des atomes de lithium au-dessus de la petite ville de Kühlungsborn, en Allemagne, « environ 20 heures après la rentrée incontrôlée d’un étage supérieur Falcon 9 » avec un lidar, un appareil de détection par laser qui permet aussi d’estimer la distance à laquelle sont détectées les particules.

« La densité maximale de la couche de lithium était inférieure à 3 atomes cm⁻³ pendant la majeure partie de la mesure. Une augmentation soudaine du signal d’un facteur 10 a été détectée juste après minuit UTC le 20 février », expliquent-ils.

Ils ont ensuite mis en place des simulations pour vérifier d’où pouvaient provenir ces atomes. « L’ensemble des trajectoires calculées (en bleu) est représenté sur la figure 3 [ci-dessous] avec une carte thermique de densité de probabilité indiquant la région au-dessus du Royaume-Uni et de l’Irlande où le panache de lithium a probablement pris naissance » :

Sur la carte, le tracé noir représente la trajectoire de rentrée du Falcon 9 et la courbe constituée de petits cercles représente un exemple de trajectoire possible qu’ils ont simulé et qui correspondrait à l’heure de rentrée de la fusée dans la haute atmosphère.

Le lithium, la signature des débris spatiaux

Ils expliquent que le lithium a été choisi comme métal cible « pour détecter les signatures des débris spatiaux en raison de sa présence en quantités infimes dans les météoroïdes chondritiques et de ses applications bien documentées dans les engins spatiaux, notamment les batteries lithium-ion et le revêtement des coques en alliage lithium-aluminium (Li-Al) ».

Leur travail montre que les lidars, et notamment ceux à fluorescence par résonance, peuvent être utilisés pour la détection du lithium dans la haute atmosphère « lorsqu’il est associé à d’autres mesures atmosphériques et étayé par une analyse modélisée ». L’idée est de pouvoir comprendre ce qu’il se passe avant l’entrée dans la couche d’ozone. Des recherches ont déjà montré que la combustion des satellites pourrait gravement endommager la couche d’ozone. Mais la détection et la quantification de polluants dans la couche d’ozone stratosphérique est complexe et chère, selon eux.

Les autrices et auteurs soulignent aussi que leur travail « vient étayer les inquiétudes croissantes selon lesquelles le trafic spatial pourrait polluer la haute atmosphère d’une manière qui n’est pas encore entièrement comprise. La croissance continue des lancements et des rentrées de satellites pourrait entraîner des effets cumulatifs, avec des implications pour la composition atmosphérique à long terme et les interactions climatiques ». Reste une inconnue : les conséquences de cette pollution que ce soit sur cette haute atmosphère ou sur la couche d’ozone.

Rappelons qu’outre la haute atmosphère, les lancements de SpaceX sont responsables d’autres pollutions. Ainsi, un mois avant, en janvier 2025, des débris de Starship sont tombés sur des plages et routes des îles Turques-et-Caïques. Enfin, depuis plusieurs années, les astrophysiciens alertent sur les menaces que font peser les constellations de satellites sur les observations astronomiques, menaces qui se sont accélérées avec la taille de ces constellations.

☕️ Rembobine.info revient sur l’impact de notre enquête sur les sites d’infos GenAI

24 février 2026 à 06:55

Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :

En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.

La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.

En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.

En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France CultureTV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.

Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.

Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !

« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :

« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias ! Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »

❌