Meta AI Security Researcher Said an OpenClaw Agent Ran Amok on Her Inbox
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
TRYX l'avait présenté pour la toute première fois lors du Computex en mai 2025, en annonçant un lancement pour la fin de l'année. Rien ne s'était finalement produit à ce moment-là, mais il faisait une nouvelle apparition sur le stand de la firme, cette fois lors du CES début janvier 2026. Cette fois...
Read more of this story at Slashdot.
Death Stranding 2: On the Beach sortira pour rappel sur PC le 19 mars 2026, nous l'avons appris il y a seulement 11 petits jours de cela. En ce 24 février, nous découvrons à présent les configurations recommandées du jeu de Kojima Production et Sony Interactive. Elles viennent en effet d'être publié...
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Anthropic a coup sur coup procédé à deux annonces qui ont fait l’effet de petits séismes sur les marchés financiers. Plusieurs grands noms de la cybersécurité ont ainsi vu leur cours de bourse chamboulé suite à l’annonce, vendredi, de Claude Code Security. Lundi, c’est le géant IBM qui a connu la plus mauvaise journée boursière de son histoire, en partie parce qu’Anthropic prétend désormais s’attaquer à l’une de ses chasses gardées : la modernisation des applications COBOL.
Si les études peinent encore à quantifier la contribution exacte de l’intelligence artificielle générative à l’économie réelle, son impact en matière de volatilité boursière n’est plus à démontrer. Anthropic vient d’en donner deux illustrations concrètes à quelques jours d’intervalle, avec deux annonces qui ont successivement fait vaciller les acteurs de la cybersécurité et IBM en bourse.
Dévoilé le 20 février dernier, Claude Code Security se présente comme une nouvelle fonctionnalité intégrée à Claude Code, capable, selon Anthropic, de scanner des pans de code à la recherche de vulnérabilités.
Pour l’instant disponible sous forme de préversion limitée aux comptes Team et Entreprise, recommandée uniquement à des fins de recherche, l’outil ne se limite pas à la détection : il sait aussi suggérer des corrections logicielles à son validateur humain, de façon à « détecter et corriger les problèmes de sécurité que les méthodes traditionnelles ne parviennent souvent pas à identifier ».
D’après Anthropic, l’IA générative offre, dans le domaine cyber, une réelle avancée par rapport aux méthodes d’analyse statiques, qui reposent notamment sur la détection de motifs (des patterns) déjà identifiés au préalable :
« Claude Code Security se concentre sur les vulnérabilités critiques telles que la corruption de mémoire, les failles d’injection, les contournements d’authentification et les erreurs logiques complexes que les outils de correspondance de motifs ne détectent généralement pas. Il est particulièrement efficace pour identifier les vulnérabilités contextuelles qui nécessitent l’analyse du code dans plusieurs fichiers. »
Anthropic affirme que Claude Code Security est également capable de prendre du recul sur ses propres découvertes, avec un processus de vérification en plusieurs étapes, qui conduit à établir un score de sévérité et un indice de confiance, pour qu’une équipe humaine puisse ensuite déclencher, ou non, les éventuelles réponses suggérées.
Alors que le phénomène Openclaw illustre les dérives potentielles d’un agent IA laissé en roue libre, Anthropic insiste sur cette dimension de contrôle. L’entreprise présente par ailleurs son outil comme un complément, et non comme une alternative, aux outils de cybersécurité existants.
Sur la page dédiée, elle souligne que Claude Code Security a été testé (avec succès) sur son propre code, et promet que ces capacités d’analyse seront mises au service de la communauté open source. En guise de bonne foi (et de vitrine), Anthropic indique avoir découvert plus de 500 vulnérabilités au sein de logiciels courants, notamment open source, et promet une divulgation responsable au fur et à mesure que les mainteneurs ont mis en place les corrections nécessaires.
Impossible, à ce stade, de juger de l’efficacité technique de Claude Code Security, ni de mesurer son éventuel impact sur le marché de la cyber. En bourse, l’annonce d’Anthropic a toutefois entraîné une réaction de défiance des investisseurs, avec une baisse immédiate de plus de 10 points du cours d’acteurs spécialisés comme CrowdStrike, Datadog ou Zscaler. Toujours sensible mardi, le mouvement de baisse a également affecté dans des proportions moindres le cours de Fortinet, Palo Alto Networks ou SentinelOne.
Sans préjuger des capacités de Claude Code Security, il convient toutefois de rappeler que ces sociétés, dont la valorisation se compte en dizaines de milliards de dollars, ont un portefeuille de produits et de solutions bien plus large que ce que promet Anthropic avec ce nouvel outil.
George Kurtz, CEO de CrowdStrike, a d’ailleurs choisi cet angle d’attaque pour tenter de minimiser l’impact de cette annonce. Sur LinkedIn, il explique ainsi avoir demandé à Claude Code de lui construire un produit destiné à remplacer CrowdStrike. Sans surprise, le modèle décline, et fait valoir, que la comparaison directe n’est pas valable.
Si les analystes financiers suivent globalement la même logique dans leurs recommandations sur le secteur, ils remarquent qu’à défaut de remplacer une plateforme de sécurité bout-en-bout, la promesse de Claude Code Security a tout de même de quoi fragiliser certains pans de l’activité.
Non content d’avoir secoué le monde de la cyber, Anthropic a déclenché un nouvel épisode boursier lundi 23 février, en chahutant cette fois le cours d’IBM. L’action a en effet reculé de 13 % à Wall Street, soit près de 40 milliards de dollars de capitalisation effacés en une seule séance, du jamais vu dans l’histoire de Big Blue !
Cette baisse intervient dans un contexte de volatilité particulier, lié notamment aux incertitudes qui entourent les futurs plans de Trump sur les droits de douane, mais elle semble découler principalement d’un simple billet de blog.
Publié lundi par Anthropic, celui-ci décrit comment Claude Code peut intervenir dans la mise en œuvre d’un projet de modernisation de code COBOL. Rappelons que ce vénérable langage sous-tend encore de nombreux systèmes informatiques utilisés dans la banque, l’assurance, les services publics ou la finance de marché. Sa maintenance soulève un défi identifié de longue date : la formation de nouveaux mainteneurs, capables de remplacer les ingénieurs et développeurs ayant conçu ces systèmes il y a plus de 40 ans.
Comme nous le rappelions dans notre article dédié aux systèmes COBOL, le langage suppose une logique d’ingénierie différente de celle des projets informatiques modernes. Dans son billet, Anthropic fait valoir que Claude Code permet de reprendre la main sur un projet dont la documentation est partie avec les développeurs qui l’avaient conçue, notamment grâce à ses capacités d’exploration et de cartographie automatique de la base de code.
Anthropic reprend d’ailleurs à ce niveau l’un des arguments avancés dans le domaine de la cybersécurité, à savoir la capacité à aller plus loin que les modèles d’analyse statiques.
« Structures de données partagées, opérations de fichiers qui créent un couplage entre les modules, séquences d’initialisation qui affectent le comportement d’exécution – ces dépendances implicites n’apparaissent pas dans l’analyse statique parce qu’elles impliquent des données partagées par le biais de fichiers, de bases de données ou d’état global », décrit Anthropic.
Son billet de blog se conclut, comme souvent dans le monde du marketing BtoB, par un appel à laisser ses coordonnées pour télécharger un livre blanc, en l’occurrence un playbook dédié à la modernisation d’un projet COBOL vers « des langages modernes comme Java ou Python ».
« La modernisation du code existant a été bloquée pendant des années car comprendre ce code coûtait plus cher que de le réécrire. L’IA inverse cette équation », clame encore Anthropic. IBM ne dira pas nécessairement le contraire : Big Blue dispose depuis 2023 dans son propre catalogue de watsonx Code Assistant, une solution assistée par IA précisément dédiée à la modernisation des projets informatiques, dont le portage de COBOL vers Java…
En juin dernier, Microsoft annonçait la disponibilité en Europe d’un nouveau programme qui faisait la promesse de données restant au sein des frontières de l’Union et donnait des assurances quant au contrôle assuré par un personnel européen.
Huit mois plus tard, l’éditeur étatsunien ajoute quelques nouveautés à son offre.
Ainsi, Microsoft met en avant la disponibilité de la déconnexion d’opérations dans Azure Local : « Les organisations peuvent désormais faire tourner leurs infrastructures critiques avec les outils de gestion et de conformité d’Azure, sans avoir besoin d’une connexion au cloud ».

L’entreprise souligne que la version déconnectée de Microsoft 365 Local est aussi disponible : « les charges de travail de productivité essentielles, Exchange Server, SharePoint Server et Skype for Business Server peuvent fonctionner entièrement dans les limites opérationnelles souveraines du client sur Azure Local ».
Enfin Microsoft met en avant l’ajout à son offre souveraine de Foundry Local, qui est une « solution d’inférence IA sur appareil que vous utilisez pour exécuter des modèles IA localement via une interface CLI, un SDK ou une API REST ».
« Les entreprises peuvent désormais intégrer des grands modèles d’IA dans des environnements souverains entièrement déconnectés grâce à Foundry Local », affirme l’entreprise. Les modes « déconnectés » Azure Local et Microsoft 365 Local sont « disponibles dans le monde entier » tandis que le déploiement de LLM sur Foundry Local est pour l’instant réservé aux « clients éligibles ».
En juin dernier, Microsoft annonçait la disponibilité en Europe d’un nouveau programme qui faisait la promesse de données restant au sein des frontières de l’Union et donnait des assurances quant au contrôle assuré par un personnel européen.
Huit mois plus tard, l’éditeur étatsunien ajoute quelques nouveautés à son offre.
Ainsi, Microsoft met en avant la disponibilité de la déconnexion d’opérations dans Azure Local : « Les organisations peuvent désormais faire tourner leurs infrastructures critiques avec les outils de gestion et de conformité d’Azure, sans avoir besoin d’une connexion au cloud ».

L’entreprise souligne que la version déconnectée de Microsoft 365 Local est aussi disponible : « les charges de travail de productivité essentielles, Exchange Server, SharePoint Server et Skype for Business Server peuvent fonctionner entièrement dans les limites opérationnelles souveraines du client sur Azure Local ».
Enfin Microsoft met en avant l’ajout à son offre souveraine de Foundry Local, qui est une « solution d’inférence IA sur appareil que vous utilisez pour exécuter des modèles IA localement via une interface CLI, un SDK ou une API REST ».
« Les entreprises peuvent désormais intégrer des grands modèles d’IA dans des environnements souverains entièrement déconnectés grâce à Foundry Local », affirme l’entreprise. Les modes « déconnectés » Azure Local et Microsoft 365 Local sont « disponibles dans le monde entier » tandis que le déploiement de LLM sur Foundry Local est pour l’instant réservé aux « clients éligibles ».
La semaine dernière, nous faisions le point sur les taux de réclamation au sujet des AMD Radeon RX 9070 XT, et constations qu'un modèle sortait du lot, et pas dans le bon sens du terme : la PowerColor Radeon RX 9070 XT Reaper... Allons-nous également avoir une ou plusieurs mauvaises élèves en bascul...
Read more of this story at Slashdot.
Réseaux sociaux, IA, jeux vidéo… alors que le gouvernement français s’affiche à la pointe de la régulation des usages du numérique par les enfants, le commissaire aux droits de l’homme du Conseil de l’Europe demande aux législateurs européens de diriger les réglementations sur les obligations des plateformes plutôt que sur les mineurs.
« Alors que plusieurs pays européens envisagent d’introduire un âge minimum pour accéder aux plateformes de médias sociaux, j’appelle à la prudence dans l’imposition d’interdictions générales », affirme dans un communiqué Michael O’Flaherty, le commissaire aux droits de l’homme du Conseil de l’Europe.
La France fait partie des premiers pays de l’Union européenne à vouloir réglementer dans cette direction, soutenue par la Commission européenne malgré quelques critiques. L’Assemblée nationale a adopté fin janvier la proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, problématique à plusieurs points de vue.
Pour Michael O’Flaherty, « l’accent mis sur la restriction de l’accès ne doit pas faire oublier la nécessité de veiller à ce que les plateformes respectent les droits humains, au moyen d’obligations juridiques claires, d’une surveillance indépendante et d’une responsabilisation effective ».
Il ajoute qu’« interdire l’accès des enfants aux médias sociaux revient à déplacer la responsabilité en matière de sécurité : cette responsabilité n’incomberait plus aux plateformes qui créent l’environnement, mais aux enfants qui naviguent dans cet environnement ».
Le Commissaire aux droits de l’homme estime que « les États devraient plutôt exiger des plateformes qu’elles préviennent et atténuent les risques pour les droits de l’enfant, dès la conception et par défaut, et les tenir pour responsables si ces obligations n’ont pas été remplies ».
Cet appel tombe alors que le gouvernement français affiche la volonté de prendre en main deux autres sujets numériques sous l’angle de la régulation de leur utilisation par les mineurs.
La semaine dernière, Anne Le Hénanff, la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a fait un appel international à contributions scientifiques sur les effets des usages de l’IA générative sur les mineurs.
Ces travaux et données recueillis « viendront nourrir la réflexion scientifique de la commission d’experts et contribuer à l’élaboration de recommandations concrètes dont les conclusions seront présentées dans le cadre de la présidence française du G7 », affirme la ministre dans son communiqué. À cette occasion, elle a lancé que « la France réaffirme ainsi un engagement fort : faire de la protection de l’enfance en ligne une priorité absolue, en s’appuyant sur la science et la coopération internationale au service de l’intérêt général ».
Dans la foulée, le gouvernement a aussi annoncé une « commission d’experts sur les risques et les vulnérabilités engendrées par les usages grand public de l’intelligence artificielle générative ». Le but est de « renforcer notre compréhension des vulnérabilités induites par ces technologies sur l’ensemble de la population, afin de mieux prévenir leurs conséquences ».
Autre sujet : le jeu vidéo. Emmanuel Macron indiquait récemment souhaiter disposer d’un éclairage scientifique sur les effets des jeux vidéo sur la violence dans la société tout en affirmant qu’« il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Le gouvernement l’a suivi en annonçant charger le Conseil de l’intelligence artificielle et du numérique d’une mission sur « les risques potentiels des jeux vidéo concernant les mineurs ».
« Cette mission devra établir une analyse scientifique des effets (tant positifs que négatifs) et risques potentiels des jeux vidéo, particulièrement sur la santé mentale, cognitive et physique des jeunes utilisateurs, et en matière de sécurité des mineurs », affirme la lettre envoyée par Anne Le Hénanff mais aussi par la ministre de la Culture Rachida Dati.
Elles demandent au Conseil d’« d’objectiver les risques, sur la base des connaissances scientifiques disponibles, en tenant compte du caractère multifactoriel des comportements à risque, des distinctions qui pourraient exister en fonction des publics, des types de jeux et des usages, et en évitant toute approche réductrice ».
Les travaux devront aussi évaluer si « les mécanismes actuels de sécurité dès la conception, de modération et de régulation sont suffisants, au regard de l’évolution des contenus, des pratiques et des modèles économiques, et proposer, le cas échéant, des mesures pour les clarifier, les adapter ou les renforcer ». Les deux ministères demandent au conseil de se pencher aussi sur les « nouvelles formes de socialisation induites par certains jeux en ligne ».
Reste la question de la vérification d’âge. Comme nous avons pu le voir avec l’obligation de contrôle à l’entrée des sites pornos, c’est encore trop souvent une vaste blague. Une carte d’identité de Dora l’Exploratrice ou modifier un cookie permet de passer les contrôles.
Réseaux sociaux, IA, jeux vidéo… alors que le gouvernement français s’affiche à la pointe de la régulation des usages du numérique par les enfants, le commissaire aux droits de l’homme du Conseil de l’Europe demande aux législateurs européens de diriger les réglementations sur les obligations des plateformes plutôt que sur les mineurs.
« Alors que plusieurs pays européens envisagent d’introduire un âge minimum pour accéder aux plateformes de médias sociaux, j’appelle à la prudence dans l’imposition d’interdictions générales », affirme dans un communiqué Michael O’Flaherty, le commissaire aux droits de l’homme du Conseil de l’Europe.
La France fait partie des premiers pays de l’Union européenne à vouloir réglementer dans cette direction, soutenue par la Commission européenne malgré quelques critiques. L’Assemblée nationale a adopté fin janvier la proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, problématique à plusieurs points de vue.
Pour Michael O’Flaherty, « l’accent mis sur la restriction de l’accès ne doit pas faire oublier la nécessité de veiller à ce que les plateformes respectent les droits humains, au moyen d’obligations juridiques claires, d’une surveillance indépendante et d’une responsabilisation effective ».
Il ajoute qu’« interdire l’accès des enfants aux médias sociaux revient à déplacer la responsabilité en matière de sécurité : cette responsabilité n’incomberait plus aux plateformes qui créent l’environnement, mais aux enfants qui naviguent dans cet environnement ».
Le Commissaire aux droits de l’homme estime que « les États devraient plutôt exiger des plateformes qu’elles préviennent et atténuent les risques pour les droits de l’enfant, dès la conception et par défaut, et les tenir pour responsables si ces obligations n’ont pas été remplies ».
Cet appel tombe alors que le gouvernement français affiche la volonté de prendre en main deux autres sujets numériques sous l’angle de la régulation de leur utilisation par les mineurs.
La semaine dernière, Anne Le Hénanff, la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a fait un appel international à contributions scientifiques sur les effets des usages de l’IA générative sur les mineurs.
Ces travaux et données recueillis « viendront nourrir la réflexion scientifique de la commission d’experts et contribuer à l’élaboration de recommandations concrètes dont les conclusions seront présentées dans le cadre de la présidence française du G7 », affirme la ministre dans son communiqué. À cette occasion, elle a lancé que « la France réaffirme ainsi un engagement fort : faire de la protection de l’enfance en ligne une priorité absolue, en s’appuyant sur la science et la coopération internationale au service de l’intérêt général ».
Dans la foulée, le gouvernement a aussi annoncé une « commission d’experts sur les risques et les vulnérabilités engendrées par les usages grand public de l’intelligence artificielle générative ». Le but est de « renforcer notre compréhension des vulnérabilités induites par ces technologies sur l’ensemble de la population, afin de mieux prévenir leurs conséquences ».
Autre sujet : le jeu vidéo. Emmanuel Macron indiquait récemment souhaiter disposer d’un éclairage scientifique sur les effets des jeux vidéo sur la violence dans la société tout en affirmant qu’« il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Le gouvernement l’a suivi en annonçant charger le Conseil de l’intelligence artificielle et du numérique d’une mission sur « les risques potentiels des jeux vidéo concernant les mineurs ».
« Cette mission devra établir une analyse scientifique des effets (tant positifs que négatifs) et risques potentiels des jeux vidéo, particulièrement sur la santé mentale, cognitive et physique des jeunes utilisateurs, et en matière de sécurité des mineurs », affirme la lettre envoyée par Anne Le Hénanff mais aussi par la ministre de la Culture Rachida Dati.
Elles demandent au Conseil d’« d’objectiver les risques, sur la base des connaissances scientifiques disponibles, en tenant compte du caractère multifactoriel des comportements à risque, des distinctions qui pourraient exister en fonction des publics, des types de jeux et des usages, et en évitant toute approche réductrice ».
Les travaux devront aussi évaluer si « les mécanismes actuels de sécurité dès la conception, de modération et de régulation sont suffisants, au regard de l’évolution des contenus, des pratiques et des modèles économiques, et proposer, le cas échéant, des mesures pour les clarifier, les adapter ou les renforcer ». Les deux ministères demandent au conseil de se pencher aussi sur les « nouvelles formes de socialisation induites par certains jeux en ligne ».
Reste la question de la vérification d’âge. Comme nous avons pu le voir avec l’obligation de contrôle à l’entrée des sites pornos, c’est encore trop souvent une vaste blague. Une carte d’identité de Dora l’Exploratrice ou modifier un cookie permet de passer les contrôles.
En septembre et octobre 2025, OpenAI multipliait les partenariats avec NVIDIA et AMD. Dans les deux cas, les accords parlaient de « GW de puissance de calculs », sans aucun détail sur le type de puces utilisées. Comme déjà longuement expliqué dans un édito, c’est une pratique regrettable qui ne veut pas dire grand chose…
Quoi qu’il en soit, OpenAI s’engageait à déployer « au moins 10 GW de systèmes NVIDIA » (NVIDIA investit dans OpenAI), tandis qu’AMD s’engageait à fournir l’équivalent de 6 GW de GPU au père de ChatGPT.
Un nouvel accord vient d’être signé entre AMD et Meta cette fois-ci avec « un partenariat stratégique élargi pour déployer 6 GW de GPU AMD ». Pour les détails on repassera puisqu’il s’agit d’équiper les infrastructures de Meta avec « plusieurs générations de GPU AMD Instinct ». Tout juste savons nous que la première tranche, « à l’échelle du GW », devrait débuter durant la seconde moitié de 2026, avec des GPU « personnalisés AMD Instinct MI450 » et des processeurs EPYC de 6ᵉ génération. La suite n’est pas encore précisée.

Dans son communiqué, AMD rappelle que Meta est un partenaire qui a déjà déployé « des millions de processeurs AMD EPYC et d’importantes quantités de GPU Instinct MI300 et MI350 dans son infrastructure mondiale ».
Dans le cadre de ce partenariat, AMD propose aussi à Meta le droit d’acheter jusqu’à 160 millions de ses actions à un prix fixé à l’avance (warrants), en fonction de la réalisation d’objectifs sur les livraisons de GPU. Meta pourrait ainsi récupérer jusqu’à 10 % des actions AMD. L’annonce fait pour le moment bondir l’action d’AMD de 7 % lors de l’ouverture de la bourse.
La semaine dernière, Meta avait déjà annoncé un accord avec NVIDIA. Il porte sur une large gamme de produits, avec le « déploiement à grande échelle de CPU NVIDIA, de millions de GPU Blackwell et Rubin, ainsi que l’intégration des switchs Ethernet Spectrum-X pour la plateforme Facebook Open Switching System de Meta ».
Le point intéressant ici est la mise en avant d’une utilisation massive de CPU NVIDIA (avec des cœurs ARM). Ils seront utilisés pour des « applications dans les data centers de Meta et permettront d’obtenir des améliorations significatives en termes de performances par watt ».
NVIDIA ne cache pas cette joie, en forme de pied de nez à AMD et Intel : « Cette collaboration représente le premier déploiement à grande échelle exclusivement basé sur Grace », le CPU de NVIDIA. La suite se prépare avec le CPU Vera annoncé au CES de Las Vegas au début d’année.