Vue normale

☕️ Amazon perd le responsable de son AI Lab, qui part en quête de l’IA générale (AGI)

25 février 2026 à 16:30

C’est via un message sur LinkedIn que David Luan annonce son départ d’Amazon, une entreprise qu’il avait rejointe il y a un peu moins de deux ans suite au rachat de sa start-up Adept AI Lab. Il avait auparavant passé un an chez Google et un peu moins de trois ans dans les équipes d’OpenAI chez qui il a eu « la chance de participer à l’incubation des premiers GPT ».

« Il y a un travail incroyable à accomplir chez Amazon et des opportunités pour moi de m’investir dans de nouveaux domaines. Mais avec l’intelligence artificielle générale (IAG) si proche, j’ai décidé de consacrer 100 % de mon temps à enseigner aux systèmes d’IA de toutes nouvelles capacités ».

Amazon serait-elle en retard pour qu’il quitte ainsi l’entreprise ? Selon The Verge, la réponse est clairement oui : « La perte d’un développeur d’IA de premier plan chez Amazon intervient alors que l’entreprise peine à suivre le rythme de la course à l’IA ; même ses propres employés qualifieraient ses produits d’IA internes de « Amazon Basics » ».

Il quittera son poste à la fin de la semaine, Peter Desantis prendra la relève. Cela fait plus de 27 ans qu’il est en place chez Amazon.

Discord temporise sur la vérification d’âge

25 février 2026 à 16:10
Pomme de Discord
Discord temporise sur la vérification d’âge

Face à la bronca d’une partie de ses utilisateurs, Discord met en pause son projet de vérification d’âge généralisée, et prévoit désormais un déploiement au second semestre. L’entreprise promet par ailleurs qu’elle fournira des garanties supplémentaires en matière de respect de la vie privée, au sein de ses propres outils comme dans le choix des prestataires techniques. Elle affirme par exemple avoir abandonné l’idée de travailler avec l’entreprise Persona.

Discord, à qui la rumeur prête l’intention d’aller en bourse, a récemment dévoilé son plan pour vérifier, à l’échelle mondiale, l’âge de ses utilisateurs, afin de protéger les jeunes publics des contenus sensibles. Si l’annonce a peut-être été perçue positivement par l’administration des pays qui veulent imposer un contrôle d’âge avant l’accès aux réseaux sociaux… force est de constater que Discord a raté son effet vis-à-vis de sa cible principale.

Depuis l’annonce du 9 février, la plateforme fait en effet l’objet d’une véritable bronca sur les réseaux sociaux. Les protestations n’émanent bien sûr que d’une infime portion des 200 millions d’utilisateurs revendiqués par la plateforme, mais le bruit qu’elles génèrent a conduit Discord à admettre s’être plantée dans les grandes largeurs. Et donc, à revoir ses plans, comme elle l’a expliqué mardi 24 février dans un billet en forme de mea culpa.

90 % des utilisateurs n’auront pas à justifier leur âge

Alors que le communiqué qui a mis le feu au poudre était simplement signé Discord, c’est cette fois Stanislav Vishnevskiy, cofondateur et directeur technique de la plateforme, qui prend la plume. En préambule, il admet s’être attendu à ce que cette décision de systématiser la vérification d’âge fasse du bruit, mais sans doute pas à un tel niveau. Il affirme dans le même temps que si cette décision a été mal comprise, c’est sans doute parce qu’elle a mal été expliquée, et s’abstient de rejeter la faute sur la couverture médiatique de l’événement :

« Tel que le message a été reçu, beaucoup d’entre vous ont cru que nous exigions une numérisation faciale et le téléchargement d’une pièce d’identité de tous les utilisateurs de Discord. Ce n’est pas le cas, mais le fait que tant de personnes le croient prouve que nous avons failli à notre mission première : expliquer clairement ce que nous faisons et pourquoi. Nous en sommes responsables. »

Rappelons que Discord avait annoncé que tous les comptes de ses utilisateurs seraient passés début mars en mode ado (teen mode), avec désactivation des contenus sensibles par défaut, et indiqué qu’il faudrait justifier de son âge pour modifier ce paramètre avec trois scénarios identifiés : une détection automatisée via un modèle d’inférence, une estimation de l’âge par reconnaissance faciale ou la fourniture d’un document d’identité attestant de son âge à un service de vérification partenaire.

En dépit de la proximité de l’échéance, Discord restait évasif sur la sélection des partenaires autorisés, ou la proportion exacte des utilisateurs susceptibles d’être automatiquement reconnus comme des adultes. L’entreprise se veut désormais nettement plus catégorique, même s’il faudra attendre encore pour les détails techniques :

« Plus de 90 % des utilisateurs n’auront jamais besoin de vérifier leur âge pour continuer à utiliser Discord comme aujourd’hui. Ceci est rendu possible notamment grâce à nos systèmes de sécurité internes, capables de déterminer l’âge de nombreux utilisateurs adultes sans aucune intervention de leur part. Nous détaillerons la méthodologie employée dans un article de blog technique avant le lancement mondial. »

Pour les 10 % restants, une histoire de confiance

Aux près de 10 % restants, Discord promet que l’éventail de solutions garantira la possibilité de justifier leur âge sans lui révéler leur identité. La plateforme souligne également que la vérification d’âge n’est imposée que si l’on souhaite accéder aux contenus dits sensibles.

Pour Stanislav Vishnevskiy, c’est le recours à une solution tierce qui garantit cette étanchéité entre contrôle de l’âge et connaissance de l’identité. « L’idée est simple : nous ne voulons pas savoir qui vous êtes. Nous avons juste besoin de savoir si vous êtes majeur. Et cela fonctionne dans les deux sens : un prestataire n’a aucun moyen de relier votre identité à votre compte Discord. C’est voulu ».

Sans même parler des considérations relatives au double anonymat qui n’est souvent pas tout à fait anonyme d’un point de vue réglementaire, l’argument ne se tient que si l’on a véritablement confiance dans le prestataire chargé d’opérer cette jonction. Sur ce point, Discord promet une sélection drastique, qui passerait par un audit de sécurité et de respect de la vie privée, notamment pour vérifier que les données soumises à contrôle sont bien supprimées dès que possible, etc.

Discord prend ses distances d’avec Persona

Comme pour donner du corps à cette vague promesse, Discord indique dans son billet avoir testé au Royaume-Uni la solution Persona, avant de la révoquer. Cette mention explicite ne doit rien au hasard.

Persona est en effet l’un des prestataires spécialisés disponibles sur le marché. C’est par exemple la solution mise en œuvre par LinkedIn pour son programme de vérification d’identité, et c’est également celle que l’on retrouve chez Roblox ou Reddit, dans les pays tels que le Royaume-Uni ou l’Australie, qui interdisent l’accès aux réseaux sociaux aux moins de 16 ans.

C’est aussi, comme l’a récemment rappelé Open Rights Group, une société financée et donc codétenue par Peter Thiel, le cofondateur de Palantir, l’entreprise star de l’analyse prédictive dont les outils sont mis en œuvre par l’ICE, outre-Atlantique, dans sa chasse aux immigrés en situation irrégulière. C’est enfin, accessoirement, une solution dont la sécurité a récemment été mise en défaut.

Promesses de transparence

Comment se prémunir d’un choix douteux ? Discord met l’accent sur la possibilité de choisir entre différentes options, ainsi que sur la « transparence complète » qui sera la sienne : « Nous documenterons sur notre site web tous les prestataires de vérification avec lesquels nous collaborons, y compris leurs pratiques en matière de traitement des données. Vous n’aurez plus à vous demander qui gère vos informations. »

La plateforme précise également préparer l’introduction d’une vérification d’âge basée sur une carte de paiement (sans en préciser le fonctionnement), et jure qu’elle communiquera en détails sur tous ces changements d’ici le lancement officiel, désormais programmé pour le deuxième semestre 2026. Reste à voir si ce discours, mieux rodé mais pas radicalement différent de l’annonce initiale sur le fond, suffira à éteindre l’incendie.

☕️ #LIDD : Elon Musk a fait de Twitter une zone de « guerre civile » dystopique

25 février 2026 à 15:12

Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.

Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.

Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.

L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.

John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.

Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.

John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».

Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».

Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.

Datacenters : c’est quoi un campus, les Tiers, un hyperscaleur, la colocation, on premise…

25 février 2026 à 14:51
DC Comiques
Datacenters : c’est quoi un campus, les Tiers, un hyperscaleur, la colocation, on premise…

Dans le monde des datacenters, on voit souvent passer des termes abscons comme « on premise », des niveaux Tiers, de l’hyperscale, des Campus (IA), etc. Next vous explique ce qui se cache derrière. Parfois une définition bien précise, mais pas toujours.

Dans une précédente série d’articles, nous avions expliqué ce qu’était un datacenter, en partant du plus petit élément : un serveur. Nous sommes ensuite passés à la baie de brassage (ou rack) et enfin au datacenter en lui-même, avec tout ce qu’il doit apporter aux équipements informatiques.

Nous étions arrivés à la conclusion qu’un datacenter, c’est le bâtiment qui fournit le gîte et le couvert (au sens du refroidissement, de l’électricité, de la sécurité des locaux, de la mise à disposition de fibre optique…) à des serveurs et donc aux applications qui tournent dessus. Des datacenters, il en existe de toutes les tailles ou presque.

Passons maintenant à des explications sur les termes utilisés par les acteurs du monde des centres de données.

C’est quoi un parc ou un campus ?

Parc ou campus de centres de données a une définition officielle publiée au Journal de l’Union européenne : « une installation qui abrite plusieurs centres de données ». On peut facilement extrapoler à un Campus IA : une installation avec plusieurs datacenters pensés pour l’intelligence artificielle, et donc avec de gros GPU.

Dans le cas d’un Campus ou d’un Parc, « l’exploitant de chaque centre de données doit mettre à la disposition du public et communiquer à la base de données européenne un ensemble distinct d’informations et d’indicateurs de performance clés pour chaque centre de données de l’installation », précise le document de la Commission européenne.

C’est quoi la haute densité ?

La notion de haute densité est associée à celle de la puissance électrique (et donc de la consommation). Plus la puissance électrique est importante, plus la densité est élevée, c’est aussi simple que cela. Il n’existe pas de seuil officiel (même vague) à partir duquel parler de haute densité. Pire encore, au fil des évolutions, la haute densité d’hier devient la densité classique d’aujourd’hui. Haute densité électrique implique aussi un refroidissement adapté.

Vous l’avez certainement compris, parler de haute densité ne veut donc pas dire grand-chose si l’hébergeur ne précise pas la puissance électrique par baie (souvent en kW), par exemple. Il existe aussi la très haute densité, la densité extrême, avec les mêmes inconnues sur les seuils.

S’il fallait s’essayer à dresser de grandes lignes, on pourrait dire que la haute densité commence à une dizaine de kW, la très haute densité à quelques dizaines de kW et la densité extrême dépasse allègrement les 100 kW par rack. La baie NVIDIA GB200 NVL72 (.pdf) avec 72 GPU B200 Blackwell et 36 CPU Grace est par exemple à 135 kW. Les kW sont pour les baies, au niveau des datacenters on parle de MW.

Dans son rapport (.pdf) sur les implantations de datacenters en France, la Direction générale des entreprises est encore plus floue : « Les centres haute densité pour le calcul haute performance (HPC) et l’entrainement de modèles d’IA sont une branche émergente et en expansion rapide du secteur des centres de données ». La haute densité est ici associée à la puissance de calcul.

C’est quoi un hyperscaleur ?

Wikipédia donne la définition suivante pour hyperscale : « la capacité d’une architecture technique à s’adapter rapidement à des demandes importantes de ressources (dans des systèmes à grande échelle) ». Dans le monde de l’informatique et du cloud plus précisément, c’est la capacité pour une entreprise de proposer de la puissance de calcul et du stockage à grande échelle. Un hyperscaleur dispose donc de datacenters bien plus gros que la moyenne, ce sont les géants des centres de données.

Les plus connus sont AWS (Amazon Web Services), Microsoft Azure, Google Cloud, Meta, Alibaba Cloud, etc. Comme avec la haute densité, Redhat rappelle qu’il « n’existe pas de norme universelle qui permette de définir précisément la catégorie des hyperscalers ».

C’est quoi la colocation ?

Il n’y a pas de piège ici. Un datacenter de colocation vous permet de louer une partie du datacenter pour y installer vos équipements. Cela peut aller d’un serveur à tout ou partie d’une baie, voire d’une salle dédiée. Suivant les cas, les propriétaires des serveurs peuvent ajouter des protections pour limiter l’accès aux serveurs (si une baie est partagée, plusieurs clients peuvent alors y accéder).

« Le centre de données prend en charge des services essentiels tels que l’alimentation électrique redondante, la climatisation, la surveillance et la sécurité. Ces installations permettent une disponibilité constante des systèmes, même en cas de panne ou de surcharge », explique OVHcloud.

C’est comme une colocation dans un appartement : l’eau, l’électricité, la connexion Internet et le refroidissement sont communs, ensuite chacun dispose de son espace dédié. Vous pouvez généralement choisir l’emplacement, avec une capacité électrique. Des options permettent d’augmenter la puissance, la connectivité, etc.

C’est quoi on premise et edge ?

C’est encore plus simple : un serveur ou du matériel « on premise » veut dire sur site, dans votre bâtiment. Vous n’êtes pas chez un hébergeur ; vous gérez tout de A à Z. Il faut donc construire et entretenir l’infrastructure, mais vous êtes seul maître à bord. Vos données ne dépendent pas d’un tiers. C’est un avantage pour la confidentialité, mais un défi pour la sécurité et la disponibilité (vous êtes seul responsable).

Quand il est question de datacenter « edge », cela veut simplement dire que les installations informatiques sont disposées à proximité des utilisateurs, des clients finaux. Vous pouvez utiliser un prestataire (les hyperscaleurs ont des datacenters un peu partout dans le monde) ou gérer vous-même, il n’y a pas de règle.

C’est quoi les niveaux Tier I à IV ?

Terminons par les Tiers, une classification des datacenters qui est, selon HPE, « un bon moyen de communiquer rapidement les caractéristiques attendues d’un datacenter ». L’Uptime Institute définit quatre niveaux, en fonction des équipements et de la redondance des équipements du datacenter. Le plus bas est Tiers I, le plus élevé Tiers IV.

Tier I est le niveau de capacité de base avec une « alimentation sans interruption (ASI) pour les coupures de courant et les pointes. Un domaine pour les systèmes informatiques. Équipement de refroidissement dédié qui fonctionne en dehors des heures de bureau. Un générateur de secours pour les coupures de courant […] Tier I protège contre les perturbations dues à une erreur humaine, mais pas une défaillance ou une panne inattendue ». HPE résume ainsi : « peu ou pas de composants redondants et de secours ».

Tier II propose des capacités de redondance pour l’alimentation et le refroidissement. Dans un datacenter Tier II, « les composants peuvent être retirés sans les arrêter ». Néanmoins, « comme une installation de Tier I, l’arrêt inattendu d’un datacenter de Tier II affectera le système ». HPE simplifie : « Un datacenter de classe 2 dispose d’une seule voie pour l’alimentation et le refroidissement, mais présente quelques composants redondants et de secours ».

Avec Tier III, « ces installations ne nécessitent aucun arrêt lorsque l’équipement doit être entretenu ou remplacé. Les composants de Tier III sont ajoutés aux composants de Tier II afin que toute pièce puisse être arrêtée sans affecter le fonctionnement informatique ». HPE y va de son explication : il y a « plusieurs voies pour l’alimentation et le refroidissement ».

Tier IV est le niveau le plus élevé : « Lorsqu’un équipement tombe en panne ou qu’il y a une interruption dans le chemin de distribution, les opérations informatiques ne seront pas affectées […] Les datacenters de Tier IV nécessitent également un refroidissement continu pour rendre l’environnement stable ». La version HPE : « tous ses composants sont en redondance ».

Fin janvier 2026, Thésée Datacenter affirmait être le « premier et seul Tier IV Certifié Uptime en France ». L’entreprise ajoutait qu’un « datacenter Tier IV affiche une disponibilité de 99,995 %, ce qui se traduit par un temps d’arrêt annuel maximal de seulement 26,3 minutes ».

Sur un Tiers III, la disponibilité est de 99,982 %, soit environ 1,6 heure d’arrêt par an selon Thésée Datacenter. HPE ajoute qu’un Tier II à une disponibilité de 99,741 % (22 heures de temps d’arrêt par an) et un Tier I de 99,671 % (28,8 heures de temps d’arrêt par an).

Dans un précédent dossier, nous avions pour rappel déjà abordé les questions environnementales avec les indicateurs PUE, WUE et CUE :

☕️ YouTube étoffe son Premium Lite avec lecture hors-ligne ou en arrière-plan

25 février 2026 à 14:15

YouTube a annoncé mardi une évolution à venir de son abonnement Premium Lite, qui autorisera bientôt le téléchargement (pour une consultation hors ligne au sein de l’application) et la lecture en arrière-plan sur « la plupart des vidéos ».

Cette mise à jour doit intervenir « dans les prochaines semaines », sur tous les marchés où YouTube Premium Lite est déjà disponible. D’abord testée aux États-Unis et dans dix pays, cette formule plus accessible de l’abonnement payant à YouTube avait été étendue à de nouvelles zones, dont la France, en juillet dernier.

En ajoutant le téléchargement et la lecture en arrière-plan, YouTube réduit l’écart qui sépare Premium Lite, affichée à 7,99 euros par mois pour un particulier, de la formule Premium classique facturée 12,99 euros par mois.

Cette dernière conserve toutefois l’exclusivité des clips et vidéos musicales dépourvus de publicités, ainsi que de certaines fonctionnalités d’interface, comme la mise en file d’attente. Surtout, YouTube Premium est le seul abonnement qui fait disparaître totalement la publicité.

Avec Premium Lite, il n’y a en principe pas de réclame sur la plupart des vidéos, mais des publicités peuvent apparaître lors de la navigation ou dans le contexte de recherches, indique l’astérisque qui accompagne le résumé comparatif des deux offres.

Premium Lite gagnera dans les prochaines semaines la lecture hors ligne ou en arrière-plan, réservée jusqu’ici à l’abonnement Premium standard – crédit YouTube

☕️ OnlyOffice 9.3 simplifie la signature et l’édition de PDF

25 février 2026 à 13:44

En décembre, OnlyOffice 9.2 officialisait son agent IA pour le travail bureautique. Une nouvelle mise à jour 9.3 vient d’être mise en ligne. Elle permet « de signer des formulaires par saisie de texte, dessin directement sur l’écran ou téléchargement d’une image ». Pour les pros, « une nouvelle fonctionnalité de sécurité permet de télécharger un certificat de signature via le panneau d’administration afin d’apposer des signatures numériques fiables sur les formulaires PDF ».

L’éditeur de PDF a été amélioré afin de prendre en charge « la modification des fichiers protégés par mot de passe, la gestion des hyperliens, le suivi de l’historique des versions et la possibilité de masquer du texte à partir du panneau d’outils contextuel ». Il supporte aussi les macros.

D’autres changements sont de la partie sur la partie collaborative, avec par exemple des commentaires améliorés avec des couleurs sur les documents textes et un rendu accéléré sur les feuilles de calcul volumineuses, notamment celles de plus de 3 Mo.

Impossible de passer à côté : l’IA est toujours plus présente avec des assistants personnalisés : « Cette
fonctionnalité permet de créer et d’enregistrer des invites IA spécifiques pour les opérations textuelles dans l’éditeur de documents
 ».

Les notes de version détaillées se trouvent par ici. Pour télécharger OnlyOffice, c’est par là. Une vidéo de présentation a aussi été mise en ligne.

La DGSI accusée de bloquer l’adoption d’une loi renforçant la cybersécurité

25 février 2026 à 12:24
Direction générale de la sécurité inférieure
La DGSI accusée de bloquer l’adoption d’une loi renforçant la cybersécurité

Deux parlementaires, ayant sanctuarisé le chiffrement de bout en bout dans le projet de loi transposant la directive européenne NIS2, accusent la DGSI d’en empêcher l’adoption au Parlement. D’après Intelligence Online, la DGSI ne parviendrait à pirater que 25 à 30 % des smartphones seulement. Un problème amené à empirer, alors que le protocole RCS va généraliser le chiffrement de bout en bout.

La directive NIS 2 (pour Network and Information Security 2), censée renforcer la cybersécurité des infrastructures critiques et des services essentiels dans l’Union européenne, impose aux États membres qu’elle soit transposée dans leur droit national avant le 17 octobre 2024.

Un projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité avait bien été déposé et adopté en première lecture au Sénat le 15 octobre 2024, mais il est bloqué à l’Assemblée depuis septembre 2025.

Le député (Les Démocrates) Philippe Latombe et le sénateur (centriste) Olivier Cadic, présidents de la commission spéciale de ce projet de loi, accusent le ministère de l’Intérieur, et plus particulièrement la Direction générale de la Sécurité intérieure (DGSI), d’en bloquer la transposition.

Dans une conférence de presse conjointe, début février, ils ont expliqué que c’est « clairement » l’introduction de l’article 16 bis dans le projet de loi qui en bloquerait, depuis, l’inscription à l’ordre du jour par le gouvernement.

Initialement introduit et défendu par Olivier Cadic afin d’ « inscrire dans la loi un principe clair de sécurité numérique », et depuis renforcé par un amendement de Philippe Latombe adopté en septembre dernier, il sanctuarise le chiffrement de bout en bout :

« Il ne peut être imposé aux fournisseurs de services de chiffrement, y compris aux prestataires de services de confiance qualifiés, l’intégration de dispositifs techniques visant à affaiblir volontairement la sécurité des systèmes d’information et des communications électroniques tels que des clés de déchiffrement maîtresses ou tout autre mécanisme ou processus permettant un accès non consenti aux données protégées. »

À l’époque, Olivier Cadic l’avait justifié au motif que « certaines initiatives législatives et réglementaires, tant au niveau national qu’international, ont cherché à imposer aux fournisseurs de services de chiffrement des obligations visant à insérer des dispositifs techniques permettant un accès aux données protégées par des tiers, notamment par les autorités publiques » :

« Ces dispositifs, communément appelés « portes dérobées » (backdoors), « clés de déchiffrement maîtresses » ou autres mécanismes d’affaiblissement volontaire de la sécurité, présentent des risques considérables pour la sécurité informatique et la protection des droits fondamentaux. »

La DGSI a un problème, la France aussi

« Je le dis de façon claire et je ne vais pas me faire de copains en disant ça mais c’est pas grave, la DGSI et les services veulent la fin de l’article 16 bis », a précisé Philippe Latombe lors de la conférence de presse : « la DGSI a un problème, elle veut savoir ce qui se passe dans les communications chiffrées des délinquants, elle veut mettre un tuyau sur le pipeline pour pouvoir regarder ce qui s’y passe ».

À quoi le député rétorque que si les délinquants savent qu’ils peuvent être écoutés, ils n’utiliseront plus ces messageries chiffrées. Il rappelle également que les États-Unis avaient eux aussi tenté d’y parvenir, en vain. Et souligne qu’il y aurait des incohérences entre les demandes de la DGSI et celles de la DGSE, qui n’appréhendent pas le problème de la même façon et n’ont pas le même mode de fonctionnement.

Une situation ubuesque : un projet de loi précisément destiné à renforcer la cybersécurité se retrouverait bloqué… parce qu’il consacre explicitement le chiffrement des communications.

En cas de fraude massive de données, le gouvernement engage sa responsabilité

« Le texte a été voté il y a bientôt un an au Sénat. Il devait être mis à l’ordre du jour avant la fin de l’année et puis finalement ils ont reporté au mois de janvier. Et puis au mois de janvier, ils ont décidé de ne pas le présenter à l’ordre du jour alors qu’il aurait dû être mise en œuvre depuis fin octobre 2024 », dénonce Olivier Cadic, sénateur des Français établis hors de France, sollicité par L’Usine Digitale :

« J’avais déposé cet amendement parce qu’aux États-Unis, des backdoors – qui avaient été utilisées pour surveiller des appels et des messages – avaient été exploitées par les hackers chinois, donc pour compromettre des millions de télécommunications. J’ai considéré que la possibilité d’installer des backdoors était contradictoire avec la capacité d’élever notre niveau de cyber-résilience. »

« Il y a une administration qui semble gênée, qui au demeurant ne vient pas voir les parlementaires concernés pour discuter de ça, et utilise le ministre pour bloquer l’ordre du jour du Parlement », déplore-t-il auprès de L’Usine Digitale.

Une situation d’autant plus préjudiciable qu’ « en cas de fraude massive de données, le gouvernement engage sa responsabilité puisqu’il ne permet pas à la France de se préparer », souligne-t-il, citant notamment la sanction de 5 millions d’euros infligée à France Travail par la CNIL.

Et ce alors que NIS 1 concernait environ 300 opérateurs d’importance vitale (OIV) et opérateurs de services essentiels (OSE), là où NIS 2 vise plus de 15 000 entités dans 18 secteurs différents.

La stratégie nationale de cybersécurité consacre pourtant le chiffrement

Les deux parlementaires pointent également du doigt le problème de crédibilité de la France à l’échelle européenne. « Comment est-ce que la France peut discuter de la suite, alors que les autres pays ont transposé NIS 2 et que nous, ce n’est toujours pas fait ? », interroge Olivier Cadic, pour qui la France s’expose à un triple risque, résume L’Usine Digitale :

« une insécurité juridique persistante pour les entreprises et administrations concernées par NIS 2, une fragilisation de sa position au sein de l’UE ainsi qu’un affaiblissement durable de la confiance des citoyens dans la capacité de l’État à protéger leurs données. »

Un blocage d’autant plus incompréhensible que la France vient aussi de dévoiler sa stratégie nationale de cybersécurité pour 2026 à 2030, qui est présentée comme « une priorité nationale » et qui rappelle que « le chiffrement est un composant essentiel du socle de sécurité permettant d’assurer la confidentialité et l’intégrité des communications ou du stockage des données ».

Dans une tribune cosignée en mars 2025 par Philippe Latombe, David Naccache, chercheur en cryptologie, Guillaume Poupard, ex-directeur général de l’ANSSI et Sébastien Soriano, ancien président de l’Arcep, Anne Le Hénanff, devenue depuis ministre déléguée chargée de l’Intelligence artificielle et du Numérique, rappelait la première recommandation du rapport du conseil scientifique de la Commission européenne, qui avait rassemblé des centaines d’experts pour un colloque préparatoire à son rapport sur la cybersécurité :

« Pour maintenir la confiance des utilisateurs/citoyens, ainsi que protéger leur vie privée et assurer la sécurité, aucune porte dérobée ni aucun autre moyen d’affaiblir le chiffrement ne doit être introduit. »

Dans un billet publié sur LinkedIn intitulé « La DGSI contre le Parlement, et la perte stratégique de temps », Sébastien Garnault, président du Paris Cyber Summit et fondateur de la CyberTaskForce, une initiative du secteur privé dédiée à aider les décideurs publics et privés à comprendre, anticiper et maîtriser les enjeux de cybersécurité, de souveraineté numérique et de stratégie, écrivait que « face aux deux présidents des commissions spéciales Résilience, Philippe Latombe et Olivier Cadic, on regrette le silence de la profession qui ne défend pas la clef de confiance du marché cyber : le chiffrement » :

« Les adversaires n’ont déjà pas besoin de portes dérobées légales pour s’implanter durablement et exploiter des faiblesses structurelles. Dans un contexte de confrontation systémique, la fragilisation volontaire devient une faiblesse exploitable, pas un levier de souveraineté. Et le @ministere de l’interieur en portera, le cas échéant, la responsabilité. »

« Chaque jour perdu expose davantage nos entreprises, institutions et citoyens »

Réagissant au fait que « les fuites de données explosent », illustrées récemment par l’incident majeur concernant FICOBA, le fichier national des comptes bancaires, l’Alliance pour la Confiance Numérique (ACN, l’organisation professionnelle qui réunit plus de 120 entreprises du secteur de la cybersécurité et de l’identité numérique) appelait elle aussi, dans un communiqué mis en ligne ce 19 février dernier, « à la finalisation urgente du projet de loi « Résilience » » :

« Dans ce contexte, l’ACN appelle à la transposition immédiate de la directive européenne NIS2 et surtout à sa mise en œuvre rapide. Au-delà, la confiance numérique, dans toutes ses composantes (sécurité numérique, résilience, souveraineté) doit désormais être appréhendée, au plus haut niveau de l’Etat comme un enjeu majeur et doit être érigée en priorité nationale. »

« Depuis plusieurs mois, on assiste à une flambée des fuites de données dont la presse se fait tous les jours écho », déplore Gregory Wintrebert, le président de l’ACN : « 1,2 million de données bancaires potentiellement dans la nature, c’est 1,2 million de personnes potentiellement en danger ! Nous devons apprendre à vivre avec cette nouvelle réalité, mais il n’y a pas de fatalité à cela. »

L’ACN appelle à une « prise de conscience généralisée sur la nécessité urgente d’augmenter massivement notre niveau de résilience numérique », souligne-t-il : « Chaque jour perdu expose davantage nos entreprises, nos institutions et nos citoyens à des risques de moins en moins soutenable. La résilience et la confiance numérique doivent devenir une priorité nationale ! Agir vite, c’est protéger notre avenir numérique. »

L’ACN souligne qu’ « en France, nous avons la chance de pouvoir compter sur une filière de confiance numérique robuste, reconnue mondialement pour son expertise dont les solutions sont immédiatement disponibles », et que « ces entreprises, de toutes tailles, sont prêtes à accompagner les organisations dans cette transition ».

« Faire appel à nos entreprises françaises de la confiance numérique, c’est non seulement renforcer la sécurité, mais aussi contribuer à notre souveraineté numérique qui est un volet, au moins aussi important que la résilience, en termes de réduction des risques numériques », relève Gregory Wintrebert : « C’est un choix stratégique et responsable face à des enjeux qui ne peuvent plus attendre. »

« Compte tenu de la menace actuelle », l’ANSSI rappelle les entités concernées à leurs obligations

L’ANSSI vient elle aussi de mettre à jour (archive) la page de son site messervices.cyber.gouv.fr consacrée à la Directive NIS 2, rappelant que sa transposition en France « est en cours », mais qu’en attendant, « et compte tenu de la menace actuelle, les futures entités essentielles et importantes sont invitées à s’engager dès à présent dans une démarche visant à renforcer leur niveau de sécurité ».

18 secteurs d’activité sont concernés, représentant plusieurs milliers d’entités, pour l’essentiel des moyennes et grandes entreprises ainsi que des collectivités territoriales et des administrations. L’ANSSI rappelle qu’elles font face à trois nouvelles obligations majeures :

  • pré-enregistrer leur entité via son bureau de pré-enregistrement, ouvert en novembre dernier,
  • mettre en place des mesures juridiques, techniques et organisationnelles visant à gérer les risques qui menacent la sécurité de leurs réseaux et de leurs systèmes d’information,
  • signaler à l’ANSSI leurs incidents de sécurité ayant un impact important et fournir des rapports concernant l’évolution de la situation.

La DGSI ne parvient à pirater que 25 à 30 % des smartphones

Mi-février, Intelligence Online révélait de son côté que le piratage – appelé piégeage par le ministère de l’Intérieur – des téléphones par le Service technique national de captation judiciaire (STNCJ) de la direction technique de la DGSI « ne produit pas les résultats escomptés. Et pour cause, le taux de réussite du service est compris entre 25 et 30 % ». En outre, et « même en cas de succès, la manœuvre n’est efficace que durant quelques jours ».

En 2023 déjà, L’Express rapportait que « Selon un professionnel du renseignement technique, la méthode « one click » de la DGSI produit des résultats décevants depuis 2018, avec moins d’une centaine de téléphones infectés de cette façon en 2022. »

En janvier, le Premier ministre a d’ailleurs confié une mission d’information temporaire « ayant pour objet les politiques publiques de sécurité à l’ère numérique » au député (socialiste puis macroniste) et président de la commission des lois de l’Assemblée Florent Boudié.

Par ailleurs premier vice-président de la Délégation parlementaire au renseignement, il devra explorer les « possibilités d’évolution des dispositifs juridiques existants » pour « préserver l’accès nécessaire et encadré aux communications dans le cadre de la lutte contre le terrorisme et la criminalité organisée ».

Le problème ne concerne pas que les seules messageries chiffrées. Dans sa lettre de mission, Sébastien Lecornu souligne en effet que le problème « devrait s’accroître avec la norme qui remplace les SMS, le RCS (Rich Communication Services) ».

Disponible chez les quatre opérateurs en France depuis un an seulement, ce protocole intègre depuis peu « des fonctionnalités de chiffrement de bout en bout et permet l’échange de messages écrits, vocaux et vidéos ».  

Tom Van Pelt, directeur technique de la GSM Association (GSMA), avait alors souligné que RCS serait le premier service de messagerie à grande échelle à supporter un chiffrement de bout en bout interopérable entre tous les clients qui l’implémentent.

Le Pentagone donne 3 jours à Anthropic pour lever ses restrictions, ou être black-listé

25 février 2026 à 10:11
MafIA
Le Pentagone donne 3 jours à Anthropic pour lever ses restrictions, ou être black-listé

Le secrétaire d’État états-unien à la Guerre Pete Hegseth a posé un ultimatum à Anthropic. L’entreprise a jusqu’à vendredi pour changer ses conditions d’utilisation de Claude par l’armée des États-Unis (qui l’utilise déjà sur certains projets) ou celle-ci la mettrait sur liste noire.

Dans une réunion avec Dario Amodei, le CEO d’Anthropic, le secrétaire d’État états-unien à la Guerre Pete Hegseth a posé un ultimatum à la startup, lui demandant de lever, pour l’armée américaine, toute restriction d’usage de son IA générative Claude actuellement en place dans ses conditions d’utilisation.

La startup sous menaces de rétorsions par l’administration Trump

Si elle n’exécute pas les volontés de l’administration Trump, l’enjeu de la menace est la mise au ban de la startup des fournisseurs du Pentagone ou l’utilisation d’une loi américaine de réquisition pour la défense « les obligeant à être utilisés par le Pentagone, qu’ils le veuillent ou non », explique une source de CNN.

Pete Hegseth a affirmé au patron de la startup, selon Axios, qu’il ne laisserait aucune entreprise dicter les conditions dans lesquelles le Pentagone prend ses décisions opérationnelles, ni s’opposer à des cas d’utilisation particuliers.

Le Pentagone utilise déjà Claude

Anthropic travaille déjà pour le Pentagone. En novembre 2024, elle communiquait sur un partenariat qu’elle avait noué avec Palantir et AWS pour fournir aux agences de renseignement et de défense des États-Unis un accès aux modèles Claude d’Anthropic. À l’époque, les conditions d’utilisation chez Anthropic étaient floues.

Depuis, l’entreprise les a un peu modifiées en septembre dernier en précisant que les utilisateurs de ses modèles ne doivent pas « développer ou concevoir des armes » avec, alors que le texte précédent interdisait seulement leur utilisation pour en acquérir (ce qui est toujours le cas dans les nouvelles conditions).

Mais comme nous le disions, pour les contrats spécifiques avec l’armée américaine, la startup peut choisir à loisir d’appliquer ou non ses conditions d’utilisation, ou d’avoir un accord spécifique avec le gouvernement américain.

En juin 2025, Anthropic annonçait avoir développé des modèles nommés « Claude Gov », spécifiquement pour les agences de renseignement des États-Unis. Et mi-janvier, le Wall Street Journal assurait que Claude avait été utilisé dans l’enlèvement du président Nicolás Maduro en début d’année, sans donner de détail. Selon CNN, la somme des contrats entre le Pentagone et la startup s’élève à 200 millions de dollars.

Refus d’utilisation pour des armes autonomes et la surveillance de masse

Mais Anthropic refuserait toujours de laisser l’armée américaine utiliser ses modèles pour mettre en place des armes autonomes et de la surveillance de masse, et selon des sources de CNN, la startup n’aurait pas l’intention de céder.

Du côté du Pentagone, un responsable réfute toute volonté de ce genre d’utilisation mais déclare à nos confrères qu’ « on ne peut pas mener des opérations tactiques par exception […] La légalité relève de la responsabilité du Pentagone en tant qu’utilisateur final ».

Pete Hegseth mènerait, selon le Financial Times, des négociations parallèles avec Google, OpenAI et xAI pour remplacer les modèles d’Anthropic dans les systèmes de l’armée états-unienne. Grok serait même « déjà prêt à être utilisé dans un cadre confidentiel, tandis que les autres entreprises sont sur le point de l’être ».

[Test] VPS pas cher (5 euros) : Hetzner n’est ni bon ni mauvais, dans la moyenne (basse)

25 février 2026 à 08:59
Geht es gut oder schlecht?
[Test] VPS pas cher (5 euros) : Hetzner n’est ni bon ni mauvais, dans la moyenne (basse)

Hetzner ne se distingue pas de la concurrence, que ce soit dans le bon ou le mauvais sens. L’hébergeur n’est pas cher avec deux vCores (Skylake) et 4 Go de mémoire pour 3,59 euros seulement par mois… mais les tarifs vont augmenter. Hetzner a un atout qui peut intéresser certains : un tarif à l’heure pour les petits usages.

Dans le cadre de notre comparatif de VPS pas cher, nous quittons la France pour passer de l’autre côté du Rhin, en Allemagne, avec Hetzner. L’entreprise est basée dans le sud du pays, à Gunzenhausen. Elle dispose de trois datacenters en Europe : deux en Allemagne à Nuremberg et Falkenstein, un en Finlande à Helsinki. Elle a également un datacenter aux États-Unis et un autre à Singapour.

CX23 : 2 vCores, 4 Go de mémoire et 40 Go de stockage

L’hébergeur propose trois gammes de VPS, de l’entrée de gamme en Cost Optimized à du haut de gamme en General Purpose avec un maximum de 48 cœurs et 192 Go de mémoire. Pour nos tests, nous avons pris un CX23 à Nuremberg (NBG1) avec deux vCores « Intel ou AMD » selon la fiche technique, 4 Go de mémoire et 40 Go de SSD.

La société propose aussi des VPS avec des cœurs de CPU Ampere (architecture Arm), nous les testerons une prochaine fois afin de comparer les performances à celles d’un VPS en x86.

Le VPS est à 4,19 euros par mois, mais vous pouvez réduire la facture à 3,59 euros par mois si vous acceptez de vous passer d’une IPv4. La pénurie a des conséquences tangibles chez Hetzner : l’IPv4 de base coûte 60 centimes sur tous les VPS. Attention, ces tarifs ne sont valables que jusqu’au 1ᵉʳ avril. Des hausses ont été annoncées, avec 30 % en moyenne sur les VPS. Notre CX23 passera alors à 4,79 euros sans adresse IPv4 et 5,39 euros avec.

Hetzner a la particularité de proposer deux tarifs : à l’heure et au mois. Le plus avantageux des deux est appliqué en fonction de votre usage. Si vous n’utilisez le serveur que quelques heures ou jours, la facturation horaire est intéressante, sinon c’est le tarif au mois qui est appliqué. « La facture de votre serveur ne dépassera jamais son plafond mensuel de prix », affirme l’hébergeur.

Performances : Hetzner n’a pas d’atout dans sa manche (sans être mauvais)

Passons maintenant aux tests à proprement parler. Selon votre VPS, le processeur utilisé est de type « Intel Xeon Processor (Skylake, IBRS, no TSX) ». Cette gamme de processeurs a été lancée en 2015 par Intel, après la génération Haswell que nous avions dans notre VPS OVHcloud.

Sur un seul cœur, Hetzner prend l’avantage sur OVHcloud, mais reste bien loin d’Ionos avec des cœurs AMD EPYC bien plus récents et beaucoup plus performants. Notre VPS n’a par contre que deux cœurs, il ne tient donc plus vraiment la comparaison avec le VPS OVHcloud qui en a quatre lorsqu’on libère tous les cœurs pour les tests.

Comme pour les autres VPS, voici le diagramme de Kiviat avec, en pointillé, la moyenne de tous les VPS et en violet/rose notre VPS Hetzner du jour. Plus la zone colorée est importante, plus les performances sont élevées. On voit qu’il ne se démarque sur aucun de nos indicateurs, sans être totalement à la ramasse non plus.

Il se place deuxième sur le stockage (sa meilleure position), sinon le VPS est généralement aux alentours de la 4ᵉ place. Les résultats sont relativement stables, avec 3,3 % d’écart en moyenne sur nos différentes séries de mesures. OVHcloud était à moins de 2 %, contre 2,8 % pour Ionos alors que LWS grimpait jusqu’à… près de 18 %.

Comme avec nos précédents tests (et les futurs à venir), vous pouvez également retrouver l’ensemble de nos mesures sur le VPS Hetzner dans cette feuille de calcul ODS. Vous pouvez aussi consulter le rapport Geekbench à cette adresse.

Serveur en Allemagne, latence plus élevée vers Paris et trafic limité

Sur la partie réseau, Hetzner est au coude à coude avec OVHcloud sur notre indice de mesure. Notre VPS a un ping relativement élevé sur Paris par rapport aux autres, ce qui est normal puisque notre serveur est au sud de l’Allemagne, plus loin de Paris. Même chose avec New York, tandis que la latence vers Londres est dans la moyenne.

Sur les téléchargements, notre VPS grimpait jusqu’à 2 Gb/s chez MilkyWan avec un fichier de 1 Go, tandis que chez Free le débit était aux alentours de 1 Gb/s. C’est dans tous les cas largement plus que LWS ou OVHcloud qui appliquent des limites strictes.

Attention toutefois, Hetzner ne propose « que » 20 To de trafic par mois avec ses VPS en Europe, et seulement 1 To pour ceux aux États-Unis et 0,5 To à Singapour. Au-delà, le To est facturé 1,2 euro en Europe et aux États-Unis, mais pas moins de 8,88 euros à Singapour. L’addition peut donc rapidement grimper. Il faut prendre en compte ce paramètre en fonction de vos besoins.

LWS, pour rappel, propose de l’ « illimité* » et l’étoile est importante puisque seuls 256 Go sont à la vitesse maximum de 100 Mb/s (qui est déjà la limitation la plus forte de notre comparatif), puis le débit tombe à seulement 10 Mb/s par la suite. Hetzner est à 20 To, déjà bien plus confortable pour un petit VPS. Il faut passer à CCX43 (General Purpose) pour dépasser cette limite avec 30 To et jusqu’à 60 To pour le CCX63 à près de 300 euros par mois (sans compter l’augmentation à venir).

Système d’exploitation et options

Niveau système d’exploitation, Hetzner propose Ubuntu 24.04, Fedora 43, Debian 13, CentOS Stream 10, Rocky Linux 10, AlmaLinux 10 et openSUSE 16. Dans les options, il est possible de souscrire à une offre de « backup » pour 20 % du prix du VPS en plus. Les sauvegardes sont automatiques et quotidiennes pour l’ensemble de votre stockage. Il est aussi possible de prendre des snapshots et payer en fonction du stockage utilisé : 0,0132 euros par Go et par mois.

Du stockage additionnel est aussi proposé, avec un minimum de 10 Go (53 centimes par mois) et jusqu’à 1 000 Go dans notre cas (52,80 euros par mois). Vous avez le choix entre deux systèmes de fichiers : EXT4 et XFS.

Nous avons lancé plusieurs séries de mesures (de jour comme de nuit) pour vérifier s’il n’y avait pas de CPU Steal : rien à signaler de ce côté-là.

Conclusion ?

Au final, Hetzner propose des performances dans la moyenne plutôt basse de l’ensemble des VPS de notre comparatif, mais a l’avantage de proposer une facturation à l’heure si vous en avez besoin pour une durée limitée.

À 3,59 euros par mois avec deux vCores, mais seulement une IPv6, le CX23 propose un bon rapport qualité/prix, dommage qu’il passe à 4,79 euros à partir du 1ᵉʳ avril. Dans la suite de notre comparatif, nous reviendrons en détail sur YorkHost, PulseHeberg et d’autres.

☕️ Gestionnaire de mots de passe : 1Password augmente ses prix de près de 40 %

25 février 2026 à 07:45

C’est via un email que l’entreprise annonce la mauvaise nouvelle à ses clients. À partir du 27 mars 2026, le tarif individuel passera de 38,16 à 52,56 euros, soit près de 38 % de hausse, explique MacG. Le tarif famille passera à 82,8 euros par an.

Les tarifs mensuels ne semblent pas concernés (pour le moment ?), mais ils sont déjà bien plus chers que les prix annuels. L’abonnement individuel est à 5,27 euros par mois, soit 63,22 euros par an, tandis que le familial est à 8,39 par mois, soit 100,66 euros sur un an.

Pour rappel, les tarifs affichés sur le site de 1Password sont hors taxes. La société explique qu’elle calcule et récupère « les taxes en fonction de votre adresse, quelle que soit la devise de paiement. Les prix affichés sur 1Password.com n’incluent pas la TVA, car chaque pays et région applique un taux de taxe différent ». En France, elle est de 20 %.

À titre de comparaison, LastPass est actuellement à 29,23 euros par an pour le compte Premium individuel et à 39,31 euros pour la famille. Dashlane est à 57,6 euros par an en Premium basique, contre 87,12 euros pour la formule Friends & Family. Chez Proton, le Pass Plus est à 35,88 euros par an.

Pour rappel, une étude récente a pointé des faiblesses dans Bitwarden, LastPass et Dashlane. Nous expliquions alors que les trois services « pourraient, dans des conditions exceptionnelles, permettre la divulgation du mot de passe principal de leurs utilisateurs, en dépit de leur promesse relative au chiffrement « Zero Knowledge » ». Des correctifs sont déjà en place.

Bitwarden, nous en parlions récemment avec un tuto pour installer Vaultwarden (une version légère) sur un VPS à moins de cinq euros par mois, soit une soixante d’euros par an. Vous pouvez ainsi auto-héberger votre gestionnaire de mot de passe et même utiliser le VPS pour d’autres usages (des tutos arrivent).

☕️ Firefox 148 introduit le kill switch IA promis par Mozilla

25 février 2026 à 07:34

Annoncé en décembre dernier et confirmé début février, le paramètre dédié à la désactivation en un clic des fonctionnalités d’IA intégrées à Firefox fait son apparition officielle au sein de la version 148 du navigateur, publiée mardi 24 février.

« Firefox vous offre désormais un point de gestion central des fonctionnalités augmentées par l’IA. Vos préférences restent en place, même en cas de déploiement des mises à jour », annonce le logiciel.

Un onglet Contrôles de l’IA fait son apparition dans les paramètres du navigateur. Également accessible à l’adresse about:preferences#ai, il offre donc un bouton permettant de bloquer l’ensemble des fonctions IA du navigateur, mais il faut passer par un écran de confirmation pour valider l’action.

Firefox 148 inaugure un panneau Contrôles de l’IA – capture d’écran Next

« Vous ne verrez pas les améliorations par IA (nouvelles ou existantes) dans Firefox, ni les popups qui s’y rapportent. Par la suite, vous pourrez débloquer toute fonctionnalité que vous souhaitez continuer à utiliser », indique cette alerte.

Elle évoque des possibilités telles que la traduction directement accessible dans la barre d’adresse, l’affichage d’un texte alternatif pour les images dans la visionneuse PDF, ou la mise en avant de points clés dans l’aperçu proposé sur les liens hypertextes. Le kill switch désactive par ailleurs les raccourcis vers les chatbots courants proposés dans le menu latéral. « Le blocage affecte également les extensions qui utilisent l’IA fournie par Firefox », prévient par ailleurs Mozilla.

La fondation a intégré cet interrupteur central en réponse aux vives réactions suscitées, dans la communauté, par l’annonce de ses visées stratégiques autour de l’intelligence artificielle.

Anthony Enzor-DeMeo, CEO de Mozilla, a pour mémoire identifié l’IA comme l’un des axes stratégiques de travail autour de Firefox lors de sa prise de fonction, en décembre 2025. « Nous agirons avec urgence. L’IA change les logiciels. Les navigateurs deviennent le point de contrôle de la vie numérique. La réglementation modifie les défauts. Ces changements jouent en faveur des forces de Mozilla », déclarait-il à cette occasion.

Firefox 148 améliore pour le reste la prise en charge des formules mathématiques dans les PDF pour les lecteurs d’écran, introduit la fonction de sauvegarde Firefox Backup pour les utilisateurs de Windows 10 et ajoute la prise en charge du chinois traditionnel et du vietnamien au niveau de l’outil de traduction intégré. La nouvelle version corrige également quelques bugs et vulnérabilités de sécurité, listés dans les notes de version.

Après la cybersécurité, Claude Code fait trembler IBM en bourse en s’attaquant à Cobol

24 février 2026 à 16:44
Colosses aux pieds d'argile ?
Après la cybersécurité, Claude Code fait trembler IBM en bourse en s’attaquant à Cobol

Anthropic a coup sur coup procédé à deux annonces qui ont fait l’effet de petits séismes sur les marchés financiers. Plusieurs grands noms de la cybersécurité ont ainsi vu leur cours de bourse chamboulé suite à l’annonce, vendredi, de Claude Code Security. Lundi, c’est le géant IBM qui a connu la plus mauvaise journée boursière de son histoire, en partie parce qu’Anthropic prétend désormais s’attaquer à l’une de ses chasses gardées : la modernisation des applications COBOL.

Si les études peinent encore à quantifier la contribution exacte de l’intelligence artificielle générative à l’économie réelle, son impact en matière de volatilité boursière n’est plus à démontrer. Anthropic vient d’en donner deux illustrations concrètes à quelques jours d’intervalle, avec deux annonces qui ont successivement fait vaciller les acteurs de la cybersécurité et IBM en bourse.

Claude Code Security bientôt concurrent des éditeurs spécialisés ?

Dévoilé le 20 février dernier, Claude Code Security se présente comme une nouvelle fonctionnalité intégrée à Claude Code, capable, selon Anthropic, de scanner des pans de code à la recherche de vulnérabilités.

Pour l’instant disponible sous forme de préversion limitée aux comptes Team et Entreprise, recommandée uniquement à des fins de recherche, l’outil ne se limite pas à la détection : il sait aussi suggérer des corrections logicielles à son validateur humain, de façon à « détecter et corriger les problèmes de sécurité que les méthodes traditionnelles ne parviennent souvent pas à identifier ».

D’après Anthropic, l’IA générative offre, dans le domaine cyber, une réelle avancée par rapport aux méthodes d’analyse statiques, qui reposent notamment sur la détection de motifs (des patterns) déjà identifiés au préalable :

« Claude Code Security se concentre sur les vulnérabilités critiques telles que la corruption de mémoire, les failles d’injection, les contournements d’authentification et les erreurs logiques complexes que les outils de correspondance de motifs ne détectent généralement pas. Il est particulièrement efficace pour identifier les vulnérabilités contextuelles qui nécessitent l’analyse du code dans plusieurs fichiers. »

Anthropic affirme que Claude Code Security est également capable de prendre du recul sur ses propres découvertes, avec un processus de vérification en plusieurs étapes, qui conduit à établir un score de sévérité et un indice de confiance, pour qu’une équipe humaine puisse ensuite déclencher, ou non, les éventuelles réponses suggérées.

Alors que le phénomène Openclaw illustre les dérives potentielles d’un agent IA laissé en roue libre, Anthropic insiste sur cette dimension de contrôle. L’entreprise présente par ailleurs son outil comme un complément, et non comme une alternative, aux outils de cybersécurité existants.

Sur la page dédiée, elle souligne que Claude Code Security a été testé (avec succès) sur son propre code, et promet que ces capacités d’analyse seront mises au service de la communauté open source. En guise de bonne foi (et de vitrine), Anthropic indique avoir découvert plus de 500 vulnérabilités au sein de logiciels courants, notamment open source, et promet une divulgation responsable au fur et à mesure que les mainteneurs ont mis en place les corrections nécessaires.

CrowdStrike, Datadog et consorts flanchent en bourse

Impossible, à ce stade, de juger de l’efficacité technique de Claude Code Security, ni de mesurer son éventuel impact sur le marché de la cyber. En bourse, l’annonce d’Anthropic a toutefois entraîné une réaction de défiance des investisseurs, avec une baisse immédiate de plus de 10 points du cours d’acteurs spécialisés comme CrowdStrike, Datadog ou Zscaler. Toujours sensible mardi, le mouvement de baisse a également affecté dans des proportions moindres le cours de Fortinet, Palo Alto Networks ou SentinelOne.

Sans préjuger des capacités de Claude Code Security, il convient toutefois de rappeler que ces sociétés, dont la valorisation se compte en dizaines de milliards de dollars, ont un portefeuille de produits et de solutions bien plus large que ce que promet Anthropic avec ce nouvel outil.

George Kurtz, CEO de CrowdStrike, a d’ailleurs choisi cet angle d’attaque pour tenter de minimiser l’impact de cette annonce. Sur LinkedIn, il explique ainsi avoir demandé à Claude Code de lui construire un produit destiné à remplacer CrowdStrike. Sans surprise, le modèle décline, et fait valoir, que la comparaison directe n’est pas valable.

Si les analystes financiers suivent globalement la même logique dans leurs recommandations sur le secteur, ils remarquent qu’à défaut de remplacer une plateforme de sécurité bout-en-bout, la promesse de Claude Code Security a tout de même de quoi fragiliser certains pans de l’activité.

Anthropic s’attaque à l’héritage COBOL

Non content d’avoir secoué le monde de la cyber, Anthropic a déclenché un nouvel épisode boursier lundi 23 février, en chahutant cette fois le cours d’IBM. L’action a en effet reculé de 13 % à Wall Street, soit près de 40 milliards de dollars de capitalisation effacés en une seule séance, du jamais vu dans l’histoire de Big Blue !

Cette baisse intervient dans un contexte de volatilité particulier, lié notamment aux incertitudes qui entourent les futurs plans de Trump sur les droits de douane, mais elle semble découler principalement d’un simple billet de blog.

Publié lundi par Anthropic, celui-ci décrit comment Claude Code peut intervenir dans la mise en œuvre d’un projet de modernisation de code COBOL. Rappelons que ce vénérable langage sous-tend encore de nombreux systèmes informatiques utilisés dans la banque, l’assurance, les services publics ou la finance de marché. Sa maintenance soulève un défi identifié de longue date : la formation de nouveaux mainteneurs, capables de remplacer les ingénieurs et développeurs ayant conçu ces systèmes il y a plus de 40 ans.

Comme nous le rappelions dans notre article dédié aux systèmes COBOL, le langage suppose une logique d’ingénierie différente de celle des projets informatiques modernes. Dans son billet, Anthropic fait valoir que Claude Code permet de reprendre la main sur un projet dont la documentation est partie avec les développeurs qui l’avaient conçue, notamment grâce à ses capacités d’exploration et de cartographie automatique de la base de code.

Anthropic reprend d’ailleurs à ce niveau l’un des arguments avancés dans le domaine de la cybersécurité, à savoir la capacité à aller plus loin que les modèles d’analyse statiques.

« Structures de données partagées, opérations de fichiers qui créent un couplage entre les modules, séquences d’initialisation qui affectent le comportement d’exécution – ces dépendances implicites n’apparaissent pas dans l’analyse statique parce qu’elles impliquent des données partagées par le biais de fichiers, de bases de données ou d’état global », décrit Anthropic.

Son billet de blog se conclut, comme souvent dans le monde du marketing BtoB, par un appel à laisser ses coordonnées pour télécharger un livre blanc, en l’occurrence un playbook dédié à la modernisation d’un projet COBOL vers « des langages modernes comme Java ou Python ».

« La modernisation du code existant a été bloquée pendant des années car comprendre ce code coûtait plus cher que de le réécrire. L’IA inverse cette équation », clame encore Anthropic. IBM ne dira pas nécessairement le contraire : Big Blue dispose depuis 2023 dans son propre catalogue de watsonx Code Assistant, une solution assistée par IA précisément dédiée à la modernisation des projets informatiques, dont le portage de COBOL vers Java…

☕️ Microsoft annonce quelques nouvelles possibilités dans son cloud « souverain »

24 février 2026 à 16:26

En juin dernier, Microsoft annonçait la disponibilité en Europe d’un nouveau programme qui faisait la promesse de données restant au sein des frontières de l’Union et donnait des assurances quant au contrôle assuré par un personnel européen.

Huit mois plus tard, l’éditeur étatsunien ajoute quelques nouveautés à son offre.

Ainsi, Microsoft met en avant la disponibilité de la déconnexion d’opérations dans Azure Local : « Les organisations peuvent désormais faire tourner leurs infrastructures critiques avec les outils de gestion et de conformité d’Azure, sans avoir besoin d’une connexion au cloud ».

L’entreprise souligne que la version déconnectée de Microsoft 365 Local est aussi disponible : « les charges de travail de productivité essentielles, Exchange Server, SharePoint Server et Skype for Business Server peuvent fonctionner entièrement dans les limites opérationnelles souveraines du client sur Azure Local ».

Enfin Microsoft met en avant l’ajout à son offre souveraine de Foundry Local, qui est une « solution d’inférence IA sur appareil que vous utilisez pour exécuter des modèles IA localement via une interface CLI, un SDK ou une API REST ».

« Les entreprises peuvent désormais intégrer des grands modèles d’IA dans des environnements souverains entièrement déconnectés grâce à Foundry Local », affirme l’entreprise. Les modes « déconnectés  » Azure Local et Microsoft 365 Local sont « disponibles dans le monde entier » tandis que le déploiement de LLM sur Foundry Local est pour l’instant réservé aux « clients éligibles ».

Mineurs sur Internet : « Réglementez les plateformes, pas les enfants »

24 février 2026 à 15:44
Mais c'est plus difficile
Mineurs sur Internet : « Réglementez les plateformes, pas les enfants »

Réseaux sociaux, IA, jeux vidéo… alors que le gouvernement français s’affiche à la pointe de la régulation des usages du numérique par les enfants, le commissaire aux droits de l’homme du Conseil de l’Europe demande aux législateurs européens de diriger les réglementations sur les obligations des plateformes plutôt que sur les mineurs.

« Alors que plusieurs pays européens envisagent d’introduire un âge minimum pour accéder aux plateformes de médias sociaux, j’appelle à la prudence dans l’imposition d’interdictions générales », affirme dans un communiqué Michael O’Flaherty, le commissaire aux droits de l’homme du Conseil de l’Europe.

La France fait partie des premiers pays de l’Union européenne à vouloir réglementer dans cette direction, soutenue par la Commission européenne malgré quelques critiques. L’Assemblée nationale a adopté fin janvier la proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, problématique à plusieurs points de vue.

Qui doit être responsable : l‘utilisateur ou la plateforme ?

Pour Michael O’Flaherty, « l’accent mis sur la restriction de l’accès ne doit pas faire oublier la nécessité de veiller à ce que les plateformes respectent les droits humains, au moyen d’obligations juridiques claires, d’une surveillance indépendante et d’une responsabilisation effective ».

Il ajoute qu’« interdire l’accès des enfants aux médias sociaux revient à déplacer la responsabilité en matière de sécurité : cette responsabilité n’incomberait plus aux plateformes qui créent l’environnement, mais aux enfants qui naviguent dans cet environnement ».

Le Commissaire aux droits de l’homme estime que « les États devraient plutôt exiger des plateformes qu’elles préviennent et atténuent les risques pour les droits de l’enfant, dès la conception et par défaut, et les tenir pour responsables si ces obligations n’ont pas été remplies ».

L’usage par les mineurs de l’IA dans le viseur du gouvernement français

Cet appel tombe alors que le gouvernement français affiche la volonté de prendre en main deux autres sujets numériques sous l’angle de la régulation de leur utilisation par les mineurs.

La semaine dernière, Anne Le Hénanff, la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a fait un appel international à contributions scientifiques sur les effets des usages de l’IA générative sur les mineurs.

Ces travaux et données recueillis « viendront nourrir la réflexion scientifique de la commission d’experts et contribuer à l’élaboration de recommandations concrètes dont les conclusions seront présentées dans le cadre de la présidence française du G7 », affirme la ministre dans son communiqué. À cette occasion, elle a lancé que « la France réaffirme ainsi un engagement fort : faire de la protection de l’enfance en ligne une priorité absolue, en s’appuyant sur la science et la coopération internationale au service de l’intérêt général ».

Dans la foulée, le gouvernement a aussi annoncé une « commission d’experts sur les risques et les vulnérabilités engendrées par les usages grand public de l’intelligence artificielle générative ». Le but est de « renforcer notre compréhension des vulnérabilités induites par ces technologies sur l’ensemble de la population, afin de mieux prévenir leurs conséquences ».

Et aussi les jeux vidéo

Autre sujet : le jeu vidéo. Emmanuel Macron indiquait récemment souhaiter disposer d’un éclairage scientifique sur les effets des jeux vidéo sur la violence dans la société tout en affirmant qu’« il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Le gouvernement l’a suivi en annonçant charger le Conseil de l’intelligence artificielle et du numérique d’une mission sur « les risques potentiels des jeux vidéo concernant les mineurs ».

« Cette mission devra établir une analyse scientifique des effets (tant positifs que négatifs) et risques potentiels des jeux vidéo, particulièrement sur la santé mentale, cognitive et physique des jeunes utilisateurs, et en matière de sécurité des mineurs », affirme la lettre envoyée par Anne Le Hénanff mais aussi par la ministre de la Culture Rachida Dati.

Elles demandent au Conseil d’« d’objectiver les risques, sur la base des connaissances scientifiques disponibles, en tenant compte du caractère multifactoriel des comportements à risque, des distinctions qui pourraient exister en fonction des publics, des types de jeux et des usages, et en évitant toute approche réductrice ».

Les travaux devront aussi évaluer si « les mécanismes actuels de sécurité dès la conception, de modération et de régulation sont suffisants, au regard de l’évolution des contenus, des pratiques et des modèles économiques, et proposer, le cas échéant, des mesures pour les clarifier, les adapter ou les renforcer ». Les deux ministères demandent au conseil de se pencher aussi sur les « nouvelles formes de socialisation induites par certains jeux en ligne ».

Reste la question de la vérification d’âge. Comme nous avons pu le voir avec l’obligation de contrôle à l’entrée des sites pornos, c’est encore trop souvent une vaste blague. Une carte d’identité de Dora l’Exploratrice ou modifier un cookie permet de passer les contrôles.

☕️ AMD va fournir 6 GW de GPU à Meta, qui va pouvoir racheter jusqu’à 10 % de ses actions

24 février 2026 à 15:03

En septembre et octobre 2025, OpenAI multipliait les partenariats avec NVIDIA et AMD. Dans les deux cas, les accords parlaient de « GW de puissance de calculs », sans aucun détail sur le type de puces utilisées. Comme déjà longuement expliqué dans un édito, c’est une pratique regrettable qui ne veut pas dire grand chose…

Quoi qu’il en soit, OpenAI s’engageait à déployer « au moins 10 GW de systèmes NVIDIA » (NVIDIA investit dans OpenAI), tandis qu’AMD s’engageait à fournir l’équivalent de 6 GW de GPU au père de ChatGPT.

Un nouvel accord vient d’être signé entre AMD et Meta cette fois-ci avec « un partenariat stratégique élargi pour déployer 6 GW de GPU AMD ». Pour les détails on repassera puisqu’il s’agit d’équiper les infrastructures de Meta avec « plusieurs générations de GPU AMD Instinct ». Tout juste savons nous que la première tranche, « à l’échelle du GW », devrait débuter durant la seconde moitié de 2026, avec des GPU « personnalisés AMD Instinct MI450 » et des processeurs EPYC de 6ᵉ génération. La suite n’est pas encore précisée.

Dans son communiqué, AMD rappelle que Meta est un partenaire qui a déjà déployé « des millions de processeurs AMD EPYC et d’importantes quantités de GPU Instinct MI300 et MI350 dans son infrastructure mondiale ».

Dans le cadre de ce partenariat, AMD propose aussi à Meta le droit d’acheter jusqu’à 160 millions de ses actions à un prix fixé à l’avance (warrants), en fonction de la réalisation d’objectifs sur les livraisons de GPU. Meta pourrait ainsi récupérer jusqu’à 10 % des actions AMD. L’annonce fait pour le moment bondir l’action d’AMD de 7 % lors de l’ouverture de la bourse.

La semaine dernière, Meta avait déjà annoncé un accord avec NVIDIA. Il porte sur une large gamme de produits, avec le « déploiement à grande échelle de CPU NVIDIA, de millions de GPU Blackwell et Rubin, ainsi que l’intégration des switchs Ethernet Spectrum-X pour la plateforme Facebook Open Switching System de Meta ».

Le point intéressant ici est la mise en avant d’une utilisation massive de CPU NVIDIA (avec des cœurs ARM). Ils seront utilisés pour des « applications dans les data centers de Meta et permettront d’obtenir des améliorations significatives en termes de performances par watt ».

NVIDIA ne cache pas cette joie, en forme de pied de nez à AMD et Intel : « Cette collaboration représente le premier déploiement à grande échelle exclusivement basé sur Grace », le CPU de NVIDIA. La suite se prépare avec le CPU Vera annoncé au CES de Las Vegas au début d’année.

Pour Goldman Sachs, l’IA n’apporte pas grand-chose à l’économie des États-Unis

24 février 2026 à 14:42
Comment donc ?
Pour Goldman Sachs, l’IA n’apporte pas grand-chose à l’économie des États-Unis

Plusieurs analystes financiers, dont ceux issus de Goldman Sachs, Morgan Stanley ou JP Morgan Chase remettent en cause la croissance que l’industrie de l’intelligence artificielle apporterait à l’économie américaine. En parallèle, les alertes sur la manière de comptabiliser le poids des infrastructures dans les investissements des géants numériques se multiplient, y compris de la part de l’agence de notation Moody’s.

Qu’apporte réellement le déploiement de l’intelligence artificielle (surtout générative, appuyée sur de grands modèles de langage) à l’économie ? Pour Goldman Sachs, il se pourrait bien que le domaine n’apporte… rien.

Du moins, pour les analystes de plusieurs autres banques de renom, dont Morgan Stanley ou JP Morgan Chase, le fait de se focaliser sur les montants faramineux d’investissements dépensés dans l’industrie des centres de données pourrait avoir caché le fait que ces flux de financements ne participent pas à la croissance économique des États-Unis, mais plutôt à celle des pays principalement asiatiques où les milliers de puces sont construites pour alimenter les serveurs.

En effet, selon les méthodes de calcul, l’IA pourrait être à la source de plus de la moitié de la croissance économique des États-Unis courant 2025, rappelle le Washington Post. Les cinq plus grosses sociétés du domaine prévoient par ailleurs de dépenser plus de 700 milliards de dollars dans l’IA en 2026, un volume plus ou moins équivalent à celui de l’économie suédoise. Ces chiffres expliquent directement la politique trumpiste de promotion de l’IA et de refus des régulations des sociétés numériques, mais aussi les critiques, notamment de la représentante Alexandria Ocasio-Cortez, selon lesquelles l’économie américaine serait anormalement dépendante de l’industrie de l’IA.

Gains économiques concrets : le grand flou

Or, selon les calculs récents de divers analystes financiers, le déploiement de l’IA n’aurait généré à peu près aucun impact sur l’économie des États-Unis. En effet, si les investissements d’OpenAI, Microsoft, NVIDIA et consorts sont très élevés, les trois quarts des coûts d’un centre de données dédié à l’IA sont estimés être liés à son équipement informatique. Mais l’essentiel de celui-ci est construit en dehors des États-Unis.

La comptabilité des effets de cette industrie sur l’économie a ceci d’important qu’à défaut d’indicateurs partagés, n’importe quel acteur peut choisir la manière de compter qui convient le mieux à son récit. Cette nouvelle manière de calculer pourrait néanmoins éloigner certaines inquiétudes relatives à la déformation des résultats de l’économie américaine que provoque la hausse du cours de bourse des « sept magnifiques » (NVIDIA, Meta, Tesla, Amazon, Alphabet, Microsoft et Apple). Pour essayer d’y voir plus clair, Goldman Sachs vient d’ailleurs de lancer un index S&P « sans IA », le SPXXAI, qui permet d’investir dans S&P 500 moins toutes les activités liées à l’IA.

Les géants numériques, en effet, ne facilitent la tâche de personne : en novembre, déjà, Michael Burry (dont le pari sur la crise des subprimes de 2008 a été illustré dans le film the Big Short) reprenait la parole sur X pour la première fois en deux ans. Sur le réseau social, il détaillait ce qu’il qualifiait d’amortissements abusifs dans les manières d’évaluer la durée de vie des équipements de centres de données chez les plus grosses valorisations technologiques états-uniennes.

Une comptabilité parcellaire des investissements dans les centres de données ?

En ce mois de février 2026, Moody’s alerte d’ailleurs sur le flou de la comptabilité relative aux centres de données. Pour la banque, les géants numériques ont pu recourir à un trou dans la raquette des règles états-uniennes de comptabilité pour cacher des dizaines de milliards de dollars de potentiel passif pour leurs data center.

Comme Meta ou Oracle, un nombre croissant d’entreprises créent en effet des entités principalement détenues par des acteurs extérieurs pour créer leurs fermes de serveurs. Ce sont ces véhicules qui supportent les coûts de construction, tandis que les Big Tech ne prennent auprès d’elle que des baux de location, quelquefois de relativement court terme – elles s’engagent généralement à verser une indemnité si jamais elles ne renouvelaient pas le contrat. Pour Moody’s, cela crée un risque que les investissements dans les murs et l’équipement ne soient comptabilisés nulle part.

La société de notation indique donc qu’elle exercera ses propres évaluations pour évaluer les passifs futurs à prendre en compte avant d’attribuer une notation à une société technologique, rapporte le Financial Times. Et de préciser qu’un « ajustement quantitatif de la dette sera probablement effectué si nous estimions que le passif locatif déclaré sous-estime les sorties probables de trésorerie ».

Alors que les dirigeants du secteur technologique commencent à s’inquiéter du relatif manque d’intérêt, voire de l’opposition croissante à l’explosion de l’intelligence artificielle, une récente enquête menée par le National Bureau of Economic Research des États-Unis auprès de 6 000 cadres dirigeants aux États-Unis, au Royaume-Uni, en Allemagne et en Australie montre que si 70 % des sociétés recourent à l’IA, 80 % d’entre elles ne constatent aucun impact sur l’emploi ou la productivité sur les trois dernières années.

Anthropic et OpenAI accusent des IA chinoises d’utiliser illégalement leur travail

24 février 2026 à 13:58
Misanthropic ?
Anthropic et OpenAI accusent des IA chinoises d’utiliser illégalement leur travail

Alors que l’entraînement de leurs modèles s’appuie notamment sur l’utilisation massive de données dont elles n’ont pas les droits, les startups de l’IA générative américaines se plaignent que leurs rivaux chinois utilisent, via la technique de « distillation », les données générées par leurs modèles.

Anthropic a accusé trois entreprises chinoises, DeepSeek, Moonshot AI et MiniMax d’utiliser les résultats générés par ses modèles pour entrainer les leurs. Quelques jours avant, OpenAI avait aussi accusé Deepseek, devant les élus étatsuniens, d’utiliser la technique de « distillation » (ou extraction) pour mettre au point son prochain modèle. Ces accusations arrivent alors que la startup chinoise doit sortir d’ici quelques jours un nouveau modèle.

Un tir de barrage avant l’arrivée d’un nouveau modèle DeepSeek

Depuis début janvier, les rumeurs d’une sortie d’un nouveau modèle v4 par DeepSeek grandissent. « La société chinoise spécialisée dans l’IA n’a pas encore annoncé de date de sortie, mais celle-ci devrait être imminente après la fin des célébrations du Nouvel An lunaire la semaine dernière », affirmait lundi 23 février CNBC. Et l’industrie américaine de l’IA tremble de revivre l’épisode que lui avait fait subir l’entreprise chinoise il y a un peu plus d’un an quand Wall Street avait remis en cause leurs capacités à lutter.

Dans ce cadre, OpenAI a envoyé le 12 février un mémo [PDF] aux élus de la Chambre des représentants des États-Unis qui participent à la commission sur la « Concurrence stratégique entre les États-Unis et le Parti communiste chinois ». Ce texte accuse DeepSeek de « tenter continuellement de profiter gratuitement des capacités développées par OpenAI et d’autres laboratoires américains de pointe ». L’entreprise de Sam Altman y présentait des indices observés sur sa plateforme qui témoignent, selon elle, « des tentatives continues de DeepSeek pour distiller les modèles de pointe d’OpenAI et d’autres laboratoires américains, notamment par le biais de nouvelles méthodes de brouillage ».

Ce lundi 23 février, Anthropic en remettait donc une couche avec un billet de blog accusant DeepSeek, Moonshot, et MiniMax de lancer des « campagnes à l’échelle industrielle […] pour extraire illicitement les capacités de Claude afin d’améliorer leurs propres modèles ».

« Ces laboratoires ont utilisé une technique appelée « distillation », qui consiste à entraîner un modèle moins performant à partir des résultats d’un modèle plus puissant », explique Anthropic. Pourtant, la startup américaine reconnait que « la distillation est une méthode d’entraînement largement utilisée et légitime. Par exemple, les laboratoires d’IA de pointe distillent régulièrement leurs propres modèles afin de créer des versions plus petites et moins coûteuses pour leurs clients ».

Une utilisation « illicite » de la distillation ?

Mais elle affirme que son utilisation est illicite si des concurrents l’utilisent « pour acquérir les capacités puissantes d’autres laboratoires en une fraction du temps et à un coût bien inférieur à ceux nécessaires pour les développer de manière indépendante », sans pour autant s’appuyer sur un quelconque texte légal. Dans son billet, l’entreprise américaine accuse les trois entreprises chinoises d’avoir utilisé des milliers de comptes qu’elles se seraient créés sur sa plateforme pour récupérer des millions de conversations avec Claude.

Les accusations des deux entreprises semblent plutôt vouloir pointer du doigt que DeepSeek s’appuierait sur leurs travaux et ainsi éviter que Wall Street s’affole de l’arrivée d’un nouveau modèle chinois dépassant les capacités de ses rivaux états-uniens.

Rappelons qu’Anthropic comme OpenAI ont été accusées l’une et l’autre d’avoir entrainé leurs modèles sur des contenus dont elle n’avaient pas les droits. L’entreprise de Dario Amodei a signé un accord de 1,5 milliard de dollars avec des auteurs en septembre 2025, celui-ci est toujours en cours de relecture chez le juge qui doit le valider.

Enfin, Reuters affirme que DeepSeek entrainerait son modèle sur des puces Blackwell de NVIDIA, normalement soumises à un embargo américain. Depuis peu, seule la génération précédente Hopper est autorisée à l’exportation en Chine.

Hetzner aussi augmente fortement le prix de ses VPS et serveurs dédiés

24 février 2026 à 13:20
Under pressure
Hetzner aussi augmente fortement le prix de ses VPS et serveurs dédiés

30 % d’augmentation sur les VPS et les Load Balancers, 15 % de plus sur les dédiés… Hetzner ajuste ses prix aussi bien pour les nouveaux que pour les anciens clients. En cause, encore une fois : les coûts d’exploitation et d’achat des composants qui ont « tous deux augmenté de façon spectaculaire ».

OVHcloud n’est pas le seul à augmenter les tarifs de ses VPS, Hetzner aussi va appliquer une nouvelle grille à partir du 1ᵉʳ avril. Là encore l’hébergeur n’y va pas avec le dos de la cuillère avec 30 à 39 % (32 % en moyenne) de hausse sur les serveurs en Allemagne ou en Finlande.

30 % de plus en moyenne sur les VPS Hetzner

La gamme de VPS d’entrée de gamme (Cost-Optimized) de Hetzner se compose de deux séries : les CX avec des processeurs Intel ou AMD en x86, ainsi que les CAX avec un processeur Ampere exploitant l’architecture Arm. Sur les autres gammes CPX (Regular Performance) et CCX (General Purpose) c’est de l’AMD aux commandes à chaque fois.

Nous avons déjà comparé le VPS CX23 (2 vCore, 4 Go de mémoire et 40 Go de stockage) de Hetzner aux VPS d’OVHcloud et YorkHost. Nous aurons très prochainement l’occasion de revenir plus en détail sur ce VPS dans un article dédié, pour continuer notre série de tests des VPS après Ionos et son CPU AMD EPYC, LWS avec sa virtualisation LXC et ses bridages, et OVHcloud en mode force tranquille.

Sur les modèles d’entrée de gamme comme le CX23, le tarif mensuel passera de 3,59 à 4,79 euros, soit 33,4 % de hausse (même augmentation sur les prix à l’heure). Sur le CAX11 (CPU Ampere, vous suivez ?) le prix augmentera de 36 % pour arriver à 5,39 euros au lieu des 3,95 euros actuels. On ne parle ici que des tarifs en IPv4 seulement, il faut ajouter 0,60 euro par mois pour avoir une adresse IPv6. Les VPS aux États-Unis et à Singapour sont également concernés par ces hausses.

15 % de plus en moyenne sur les dédiés

Les serveurs dédiés ne sont pas épargnés, avec entre 3 et 20 % environ de hausse, pour une moyenne aux alentours de 15 % environ. Les tarifs des dédiés augmentent donc en moyenne deux fois moins que ceux des VPS.

Tous les nouveaux tarifs sont détaillés sur cette page, avec les anciens et les nouveaux tarifs sur une même ligne (pratique pour comparer).

Toujours sur les dédiés, « tous les serveurs mis aux enchères subissent une augmentation de prix générale de 3 % ». La société propose en effet des enchères sur « des serveurs standardisés comme ceux de son portefeuille de produits, mais aussi sur des machines personnalisées adaptées aux besoins des clients par le passé ».

Il y a plusieurs centaines d’enchères en cours avec des tarifs allant de quelques dizaines à plusieurs centaines d’euros par mois. Attention, sur ces machines « les installateurs automatiques d’images, les images logicielles spéciales, le vKVM ou d’autres systèmes logiciels ne sont pas possibles », seul le rescue system est proposé.

C’est encore la faute de la RAM et des SSD

Dans un communiqué, Hetzner explique que « des hausses drastiques des prix ont récemment été observées dans divers secteurs du secteur informatique. C’est pourquoi, malheureusement, nous devons aussi augmenter les prix de nos produits ». Un argument déjà utilisé par OVHcloud. Les raisons sont connues : une pénurie causée par la forte demande de GPU pour l’intelligence artificielle, qui a toujours besoin de plus de mémoire pour ses grands modèles de langage.

Hetzner ajoute que « les coûts d’exploitation de [son] infrastructure et d’achat de nouveaux équipements ont tous deux augmenté de façon spectaculaire. Par conséquent, nos variations de prix affecteront à la fois les produits existants et les nouvelles commandes et entreront en vigueur à partir du 1ᵉʳ avril 2026 ».

L’hébergeur affirme avoir retardé au maximum ces hausses, mais il ne peut aujourd’hui « plus compenser la pression que cela exerce sur [ses] opérations ».

Déjà des hausses début février

Déjà début février, lors de l’annonce d’une hausse des frais d’installation, l’hébergeur expliquait que « les prix d’achat actuellement exceptionnellement élevés des composants matériels perturbent considérablement » son modèle économique. Il ajoutait que « cette augmentation ne couvrait pas les coûts supplémentaires réels supportés, et de loin ».

Hetzner ne cachait pas son agacement sur la gestion de la crise par les fabricants de mémoire et de périphériques de stockage :

« Le marché de la RAM est actuellement dominé par très peu de fabricants. À notre avis, leur politique tarifaire est difficilement compréhensible et a fait grimper les coûts de façon massive en peu de temps. La situation est similaire pour les SSD NVMe.

De plus, il est évident que même les quotas et engagements de prix promis par les fournisseurs ne sont actuellement fiables que dans une certaine mesure ».

Début février, Hetzner parlait d’une « première étape nécessaire » et ajoutait que ce n’était « probablement pas la seule » car il n’y avait alors « aucun signe que les conditions du marché vont s’apaiser ». Selon le PDG d’OVHcloud, l’augmentation des prix « va encore se poursuivre pour trouver un nouveau point d’équilibre entre l’offre et la demande probablement vers fin 2026 ».

Il faudra certainement encore attendre plusieurs mois avant un retour à la normale : « les prix resteront importants jusqu’à au moins 2028, le temps que de nouvelles capacités de production de mémoire voient le jour ». Selon Hetzner, « la pression sur les prix devrait se poursuivre au cours de l’année en cours ».

☕️ IBEX Q1 d’AQT : Scaleway s’équipe lui aussi d’un ordinateur quantique

24 février 2026 à 11:57

Scaleway, la filiale cloud d’iliad (maison mère de Free) a annoncé la semaine dernière une collaboration avec la société autrichienne Alpine Quantum Technologies (AQT, basée à Innsbruck) afin d’intégrer un ordinateur quantique IBEX Q1 à ions piégés. Pour rappel, nous avons publié un article de présentation de l’informatique quantique.

La machine « sera disponible via la plateforme Quantum as a Service (QaaS) de Scaleway » qui permet à tout un chacun ou presque « d’accéder à des unités de traitement quantique (QPU) via son infrastructure cloud souveraine ». Le côté souverain et européen est mis en avant à plusieurs reprises, avec un acteur français du cloud et autrichien du quantique.

« L’ordinateur quantique d’AQT est accessible et programmable sans réservation […] les mardis et mercredis de 10 h à 17 h CET ». Scaleway prend en charge les SDK open-source standard comme Qiskit d’IBM, Cirq de Google et Pennylane. Selon la fiche produit du IBEX Q1, la machine dispose de 12 qubits.

Scaleway propose une facturation « par shot, à l’heure (émulation), ou via une réservation dédiée ». Sur cette page, l’entreprise présente l’IBEX Q1 d’AQT comme ayant bien 12 ions piégés, avec une fiabilité de 99,97 % sur une porte et de 98,7 % sur deux. Comme nous l’expliquons dans cette actualité, les portes quantiques sont tout aussi importantes que les qubits.

« L’appareil est montable en rack standard, fonctionne à température ambiante et consomme moins de 2 kilowatts, idéal pour les simulations nécessitant une précision critique (par exemple, la dynamique des fluides) », ajoute l’entreprise.

Il y a quasiment deux ans, OVHcloud inaugurait « le premier ordinateur quantique installé au cœur d’un fournisseur de services cloud européen ». Il est installé dans locaux de la société à Croix, dans les Haut de France. Il s’agit d’un MosaiQ de la start-up française Quandela, une machine avec deux qubits photoniques.

☕️ Au Grand collisionneur de hadrons, des tests grandeur nature pour la haute luminosité

24 février 2026 à 11:12

Dans un communiqué, le CERN ne cache pas sa joie et annonce avoir « franchi une étape importante dans la progression du projet Grand collisionneur de hadrons à haute luminosité (HiLumi LHC), avec le début du refroidissement cryogénique à 1,9 K (‑271,3 °C) d’un banc d’essai de 95 m de longueur », une opération qui devrait prendre plusieurs semaines. Il s’agit d’une réplique grandeur nature de l’installation qui se trouve sur le Grand collisionneur de hadrons.

Si tout se passe bien, la mise en place est prévue pour l’été prochain avec « le lancement de quatre années de travaux de grande envergure au cours du troisième long arrêt (LS3) ». Le LS3 était prévu pour 2025 à 2027, avant d’être repoussé et rallongé à partir de mi-2026.

Le retour des opérations est donc prévu pour 2030. L’accélérateur sera de nouveau mis à l’arrêt et amélioré en 2034 et 2035, avant de passer au Run 5.

Dans le cas présent, la luminosité correspond au nombre de collisions de particules. Avec la haute luminosité, elle « sera multiplié par dix, ce qui augmentera très fortement le volume de données de physique disponibles pour la recherche ». « Ce bond en avant permettra d’étudier avec une précision inédite le comportement du boson de Higgs et d’autres particules élémentaires, voire éventuellement de découvrir de nouveaux phénomènes rares », explique le CERN.

Mark Thomson, directeur général du CERN, tient à mettre les points sur les i : « On ne soulignera jamais assez l’importance et l’intérêt du LHC à haute luminosité. C’est le plus grand projet entrepris par le CERN depuis 20 ans […] Il permettra d’étudier pour la première fois comment le boson de Higgs interagit avec lui-même : cette mesure clé pourrait nous aider à faire la lumière sur les premiers instants de l’Univers et son évolution ».

Il ajoute que « le LHC à haute luminosité servira également à explorer de nouveaux horizons, et pourrait conduire à des découvertes inattendues. C’est tout l’intérêt de sonder l’inconnu : on ne sait pas ce qui s’y trouve ». Il faudra être patient. Les mesures ne débuteront pas avant 2030, et il faudra ensuite les analyser.

❌