Vue normale

☕️ Arcom : nouvelle série de mesures de blocage de médias russes sous sanctions

26 février 2026 à 16:10

L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a annoncé jeudi avoir prononcé une nouvelle série de mesures de blocage et de déréférencement portant sur 35 sites de médias russes soumis à des sanctions européennes.

Adressées aux fournisseurs d’accès à Internet, aux moteurs de recherche et aux fournisseurs de services DNS, ces mesures concernent également « quatre plateformes de streaming permettant d’accéder à des services de télévision et de radio russes sous sanctions », indique l’Autorité dans un communiqué.

Le détail des médias et plateformes n’a pas été rendu public. L’Arcom souligne cependant qu’il s’agit de sa troisième salve de demandes en moins d’un an. En mars 2025, elle avait en effet mis en demeure Eutelsat d’arrêter la diffusion des chaînes russes STS et Kanal 5, appartenant toutes les deux à la société russe JSC National Media Group.

En juillet 2025, elle avait ensuite ordonné le blocage et le déréférencement de 19 sites de médias russes ainsi que de trois plateformes hébergées en Russie.

Rappelons que ces mesures sont prises en vertu des règlements européens qui définissent le régime de sanctions adoptées à l’encontre de la Russie suite à sa tentative d’invasion de l’Ukraine.

La première et la plus symbolique d’entre elles avait été adoptée en 2022, avec l’interdiction, controversée à l’époque, des chaînes Russia Today (RT) et Sputnik. Plusieurs autres chaînes russes (NTV Mir, Rossiya 1, Perviy Kanal et NTV) ont depuis elles aussi fait l’objet de mesures de blocage.

☕️ Les projets de data centers au Royaume-Uni atteignent 50 GW de puissance électrique

26 février 2026 à 16:00

Au Royaume-Uni, les 140 projets de centres de données en cours d’examen pourraient demander jusqu’à 50 GW (gigawatts) d’électricité pour fonctionner. L’estimation est issue d’une consultation (.pdf) menée par l’Ofgem, le régulateur britannique des marchés du gaz et de l’électricité.

Les demandes de projets ont explosé en l’espace de quelques mois : de 41 GW en novembre 2024, le total des demandes de raccordement a grimpé à 125 GW en juin 2025. Dans le lot, 40 % viennent de l’industrie des centres de données.

Cette accélération soulève un enjeu de puissance électrique disponible. « La demande en crête d’électricité en Grande-Bretagne le 11 février 2026 était de 45 GW », indique l’Ofgem. Les demandes enregistrées prévoient donc d’ajouter jusqu’à 125 GW, dont 50 GW pour les seuls data centers. Ces chiffres concernent une puissance maximale : la réalité devrait se traduire par une consommation globale moins élevée, ne serait-ce que parce que tous les projets ne verront pas le jour. La marche à franchir n’en reste pas moins haute.

L’organisme souligne une « explosion des demandes » de connexions au réseau entre novembre 2024 et juin 2025, dans une proportion qui a dépassé jusqu’aux prévisions les plus ambitieuses, rapporte the Guardian. En parallèle, le média relève que des projets de production d’énergie renouvelable ne sont pas reliés au réseau au rythme auquel ils sont construits (notamment pour atteindre les objectifs climatiques du pays à l’horizon 2030).

Devant l’afflux, le régulateur évoque par ailleurs une problématique de délais à rallonge. Et souligne qu’il « n’existe aucun mécanisme pour prioriser les projets de demande stratégiquement importants ».

Entre autres mécanismes visant à éloigner les projets « non viables », l’Ofgem envisagerait des vérifications financières plus précises qu’actuellement, voire de facturer aux fournisseurs de centres de données l’accès au réseau, que ce soit sous forme de caution ou de frais non remboursables.

NVIDIA engrange 120 milliards de dollars de bénéfices, regarde la Chine et l’espace

26 février 2026 à 14:58
La pénurie et les difficultés financières, c’est pas pour tout le monde !
NVIDIA engrange 120 milliards de dollars de bénéfices, regarde la Chine et l’espace

Les datacenters sont le principal (et de loin) moteur de NVIDIA. Depuis le lancement de ChatGPT, le chiffre d’affaires associé a été multiplié par près de 13. Le géant américain des GPU pour l’IA profite de la publication de ses résultats financiers pour parler de ses relations avec la Chine, de sa prochaine architecture Vera Rubin et des datacenters dans l’espace.

Sur son année fiscale 2026 terminée le 26 janvier 2026 (oui, l’entreprise a quasiment un an d’avance), NVIDIA revendique un chiffre d’affaires de 215,94 milliards de dollars, en hausse de 65 % sur un an.

Les bénéfices nets suivent la même tendance avec 120,07 milliards de dollars (+ 65 % également). Cela donne tout de même 13,7 millions de dollars par… heure. C’est la première fois de son histoire que NVIDIA dépasse la barre des 100 milliards de dollars de bénéfices sur un an, un club assez sélectif.

Le chiffre d’affaires s’établit à 68,13 milliards de dollars sur le seul dernier trimestre de l’exercice (+ 20 % sur trois mois glissants) et NVIDIA promet de faire encore mieux sur le premier trimestre de 2027 avec 78 (±2 %) milliards de dollars. La branche des datacenters représente la quasi-totalité du chiffre d’affaires avec 62,3 milliards de dollars sur les 68,13 milliards.

Des résultats supérieurs aux attentes, mais qui ne semblent pas pour l’instant bouleverser le comportement du titre à Wall Street.

62,3 milliards de dollars pour les datacenters, 3,7 milliards pour les joueurs

Le gaming (avec les GeForce) ne représente que 3,7 milliards de dollars, soit près de 17 fois moins que les GPU pour les centres de données et l’intelligence artificielle. NVIDIA annonce que la partie gaming est « en hausse de 47 % par rapport à l’année dernière, portée par une forte demande pour Blackwell [les GeForce RTX 50, ndlr], et en baisse de 13 % par rapport au trimestre précédent, les stocks des distributeurs s’étant naturellement réduits après une période de forte demande liée aux fêtes de fin d’année ».

Alors qu’on attendait au CES 2026 un renouvellement de la gamme des GeForce RTX 50 lancée en janvier 2025 avec une déclinaison « Super », rien n’est arrivé. Cela n’aide évidemment pas à relancer les ventes. Il est pour rappel bien plus rentable pour NVIDIA de fabriquer des GPU pour les datacenters et l’IA que des GeForce pour les joueurs. Les wafers de silicium et les puces de mémoire étant en quantité limitée, il n’est pas étonnant de voir les revenus sur la partie datacenter autant exploser face aux gamers.

Pendant ce temps-là, la pénurie mondiale de puces mémoire et la vente massive à NVIDIA de la production pour les GPU des datacenters font augmenter les tarifs de nombreux produits. La mémoire et les SSD sont en tête de liste, mais avec des effets collatéraux sur les ordinateurs, les VPS

Depuis l’arrivée de ChatGPT, la branche datacenter a fait x13

Durant la session de questions/réponses de présentation des résultats, Colette Kress, directrice financière du groupe, explique d’ailleurs que NVIDIA « a multiplié par près de 13 son activité de centres de données depuis l’émergence de ChatGPT en 2023 ».

Sur l’année fiscale 2023 (terminée le 29 janvier 2023), les revenus étaient de 26,97 milliards de dollars, pour des bénéfices nets de 4,37 milliards de dollars. Sur 2024 (terminée le 29 janvier 2024), les revenus étaient de 60,92 milliards de dollars (déjà un x2 l’année de lancement de ChatGPT), pour des bénéfices nets de 29,76 milliards de dollars.

Colette Kress ajoute que les produits de la génération « Hopper et une grande partie des produits Ampere, vieux de six ans, sont en rupture de stock dans le cloud ». Concernant les systèmes Grace Blackwell GB200 NVL72 lancés il y a tout juste un an, ils représentent aujourd’hui 9 GW de puissance électrique installée. Avec une puissance de 120/130 kW par baie, cela donne l’équivalent de plus de 70 000 baies déployées à travers le monde.

Le fabricant se félicite aussi de son initiative Sovereign AI dont les revenus ont « plus que triplé d’une année sur l’autre pour dépasser 30 milliards de dollars par an, principalement grâce à des clients basés au Canada, en France, aux Pays-Bas, à Singapour et au Royaume-Uni ».

NVIDIA, USA et Chine : poker menteur autour des GPU et des IA

Sur la question de la Chine, Colette Kress explique que, « bien que de petites quantités de produits H200 pour les clients basés en Chine aient été approuvées par le gouvernement américain, nous n’avons pas encore généré de revenus, et nous ne savons pas si des importations seront autorisées en Chine ».

Selon un haut responsable de l’administration Trump cité par Reuters, cela n’empêcherait pas la Chine d’accéder aux derniers GPU Blackwell : « Le dernier modèle d’IA de la start-up chinoise d’IA DeepSeek, dont la sortie est prévue dès la semaine prochaine, a été entraîné sur la puce IA la plus avancée de NVIDIA ». Le gouvernement rappelait sa ligne : « Nous n’expédions pas de Blackwell en Chine ».

Colette Kress lance un appel aux responsables américains :

« Nos concurrents en Chine, renforcés par les récentes introductions en bourse, progressent et ont le potentiel de bouleverser la structure de l’industrie mondiale de l’IA sur le long terme. Pour maintenir sa position de leader dans le calcul IA, l’Amérique doit engager chaque développeur et doit être la plateforme de choix pour chaque entreprise commerciale, y compris celles de Chine. Nous continuerons à dialoguer avec les gouvernements américain et chinois et à défendre la capacité de l’Amérique à rivaliser dans le monde ».

Vera Rubin toujours « on track » pour le second semestre 2026

La directrice financière en profite pour revenir sur les derniers CPU et GPU en date : Vera Rubin. Les premiers échantillons ont été « expédiés à nos clients plus tôt cette semaine ». NVIDIA espère lancer les expéditions en masse au cours du second semestre de l’année, en phase avec le calendrier annoncé en janvier lors de la présentation des nouvelles puces.

Des datacenters dans l’espace ? Il est encore trop tôt pour Jensen Huang

Pendant l’échange téléphonique, une question a été posée sur la faisabilité des datacenters dans l’espace, dont certains pensent que cela peut être une solution viable et intéressante. Pour Jensen Huang, patron de NVIDIA, il est trop tôt : « La situation économique est mauvaise aujourd’hui, mais elle va s’améliorer avec le temps ».

Le fonctionnement dans l’espace est « radicalement différent de celui sur Terre ». L’énergie, par exemple, « y est abondante, mais les panneaux solaires sont volumineux ». Il fait froid et c’est un avantage pour dissiper la chaleur, mais à cause de « l’absence de circulation d’air, la chaleur ne se dissipe que par radiation et les radiateurs à fabriquer sont assez volumineux ». Quant au refroidissement liquide, c’est « hors de question » pour Jensen Huang car ce genre de système est « lourd et peu résistant ». Se pose aussi la question d’envoyer et de recevoir des Po et des Po de données.

Rappelons que des serveurs ont déjà été envoyés dans l’espace, notamment par HPE qui a fait un retour d’expérience détaillé avec des constatations auxquelles les ingénieurs n’avaient pas pensé au départ. Par exemple, « en l’absence de pesanteur, les composants non attachés flottent à l’intérieur du châssis, y compris le câblage interne ». Certains s’étaient par exemple approchés de ventilateurs qui les avaient « limés ».

Jensen Huang ne ferme cependant pas totalement la porte. « Les méthodes que nous utilisons ici sur Terre diffèrent donc légèrement de celles employées dans l’espace. Cependant, de nombreux modèles concurrents sont en cours d’élaboration et aspirent à être mis en œuvre dans l’espace ».

Russie : enquête ouverte sur le fondateur de Telegram Pavel Durov

26 février 2026 à 13:43
Max et les Maxi-réseaux sociaux
Russie : enquête ouverte sur le fondateur de Telegram Pavel Durov

En Russie, le patron de Telegram Pavel Durov est visé par une enquête pour « complicité d’activités terroristes » alors que le pouvoir en place tente de pousser les internautes locaux vers son application d’État, MAX.

Fondateur de la plateforme Telegram, Pavel Durov est visé depuis le 24 février par une enquête des autorités russes pour « complicité d’activités terroristes ». À l’origine de cette enquête, l’affirmation selon laquelle l’application serait utilisée par des services de renseignement occidentaux et ukrainiens, rapportée dans deux médias d’État : Rossiïskaïa Gazeta et Komsomolskaïa Pravda.

D’après le média d’investigation Можем объяснить (Mojem Obiasnit) cité par Le Monde, les articles de Rossiïskaïa Gazeta et Komsomolskaïa Pravda, quasiment identiques, pourraient avoir été écrits directement par Alexandre Bortnikov, directeur du FSB et auteur régulier dans les colonnes du Rossiïskaïa Gazeta.

Les textes en question affirment que Telegram aurait été utilisé dans 13 tentatives d’assassinats de hauts gradés russes par les forces ukrainiennes, et 33 000 « attentats à la bombe, incendies criminels contre des centres de recrutement et meurtres » depuis le début de la guerre.

Pavel Durov s’exprime sur Telegram

Comme dans les mois qui ont suivi ses démêlés avec la Justice française, Pavel Durov s’est fendu d’une communication sur son canal Telegram. « Chaque jour, les autorités inventent de nouveaux prétextes pour restreindre l’accès des Russes à Telegram, car elles cherchent à supprimer le droit à la vie privée et à la liberté d’expression », a-t-il déclaré.

Capture d’écran du message de Pavel Durov / Telegram

La rupture initiale entre Pavel Durov et la Russie remonte à 2014, lorsqu’il a été forcé par les autorités à vendre ses parts dans la société VK, éditrice de VKontakte, l’équivalent russe de Facebook. L’année précédente, il avait co-fondé Telegram avec son frère Nikolai, en installant le siège à Berlin, puis à Dubaï.

L’entrepreneur a refusé à plusieurs reprises de céder au Kremlin des données d’utilisateurs, ce qui avait conduit au bannissement de l’outil entre avril 2018 et juin 2020. Depuis l’été 2025, Telegram est de nouveau visé par des limitations, notamment des appels vidéos, aux côtés de Meta, au motif que les deux services n’agiraient pas suffisamment pour lutter contre la fraude et le terrorisme.

Pavel Durov s’est aussi retrouvé dans le viseur de la Justice française en 2024 pour des questions de non-gestion des activités criminelles opérées depuis sa plateforme. En novembre 2025, la France a finalement levé l’interdiction de voyager qui lui pesait encore sur les épaules.

MAX, le concurrent d’État

Depuis sa création, Telegram est devenue une source d’information essentielle de l’écosystème russophone, et ce, jusque du côté militaire. Alors qu’elle est utilisée par une large part de la population, propagandistes pro-Poutine compris, le Kremlin accentue la pression pour pousser les 105 millions d’utilisateurs mensuels russes de Telegram, mais aussi les adeptes de WhatsApp, vers une messagerie rivale et gérée par l’État, MAX. Les deux applications font l’objet de restrictions d’accès accentuées depuis le 9 février dernier.

Lancée en 2025 et gérée par la société VK, éditrice de VKontakte, MAX revendique de son côté plus de 75 millions d’utilisateurs. À l’instar des super-applications chinoises WeChat ou Alipay, MAX propose aussi bien des services de messagerie que l’accès à du commerce en ligne, à l’administration, à du paiement ou à des mini-applications d’usages variés, le tout, sans chiffrement.

Samsung Galaxy S26 : SoC Qualcomm modifié, Privacy Display… et IA à tous les étages

26 février 2026 à 12:56
25+1 = 26, le compte est bon !
Samsung Galaxy S26 : SoC Qualcomm modifié, Privacy Display… et IA à tous les étages

Samsung vient de dévoiler sa nouvelle série de smartphones, les (roulements de tambour) Galaxy S26. Ils sont au nombre de trois : le Galaxy S26 de base, le S26+ et enfin le S26 Ultra, avec un « nouveau » SoC Qualcomm aux commandes. Les principales nouveautés sont réservées au S26 Ultra, proposé à partir de 1469 euros.

Galaxy S26, S26+ et S26 Ultra en quelques lignes (et un tableau)

Nous n’allons pas nous étendre des heures sur les caractéristiques techniques. Nous avons regroupé les principales dans le tableau ci-dessous. Comme toujours, la version Ultra a un écran plus grand, plus de mémoire vive sur la version avec 1 To de stockage (16 Go à la place de 12 Go), des capteurs optiques de meilleure qualité, une batterie plus grosse, etc. Un comparatif est aussi disponible sur cette page.

Les trois smartphones sont certifiés IP68, mais à la sauce Samsung. Le fabricant prend en effet le soin d’apporter des précisions : « Testé en laboratoire pour une immersion jusqu’à 1,5 mètre de profondeur dans l’eau douce pendant 30 minutes maximum. Aucune infiltration de poussière ; protection totale contre les contacts (étanche à la poussière). L’étanchéité à l’eau et à la poussière n’est pas permanente et peut diminuer avec le temps en raison de l’usure normale ».

De l’IA, encore de l’IA

Côté logiciel, Samsung annonce que « les améliorations apportées au traitement IA de l’image s’étendent désormais au capteur frontal, capable de reproduire des tons de peau plus naturels et des détails plus fins ». Toujours sur l’IA, le fabricant met en avant son Assistant Photo avec lequel « les utilisateurs peuvent simplement décrire ce qu’ils souhaitent modifier avec leurs propres mots ». Attention, ce n’est pas que du local : « peut nécessiter une connexion réseau et la connexion à un compte Samsung ».

Il y a également Creative Studio, qui « nécessite une connexion réseau et la connexion à un compte Samsung » et regroupe « création et retouche dans un seul espace ». Même chose pour Now Nudge qui propose des « suggestions pertinentes », Now Brief qui « envoie de façon pertinente, en fonction du contexte personnel de l’utilisateur, des notifications portant sur les événements importants, comme une modification apportée à une réservation ou un voyage ».

Des explications et vidéos de présentation sont disponibles par ici.

Privacy Display : une nouveauté intéressante !

Avec le Galaxy S26 Ultra (uniquement), Samsung annonce « le premier Privacy Display intégré de l’industrie mobile ». Ce n’est pas une surprise puisque Samsung avait déjà annoncé son Privacy Display en janvier 2026.

Voici son fonctionnement :

« En contrôlant comment les photodiodes dispersent la lumière, l’écran conserve un contenu clair et lumineux tout en limitant ce que les autres peuvent voir. Contrairement aux protections adhésives traditionnelles, Privacy Display préserve la qualité d’affichage dans toutes les directions lorsqu’il est désactivé, et limite la visibilité depuis des angles de vue latéraux lorsqu’il est activé – même en passant du mode portrait au mode paysage ».

Une vidéo a été publiée par le compte officiel Samsung et le résultat semble intéressant. Le Privacy Display peut s’activer en permanence ou lors de certaines opérations seulement, comme la saisie d’un mot de passe ou d’un code PIN. À confirmer en conditions réelles lorsque le Galaxy S26 Ultra sera disponible : à partir du 11 mars 2026.

Encore un nouveau SoC Qualcomm, le « Snapdragon 8 Elite Gen 5 for Galaxy »

Niveau processeur, Samsung annonce un SoC « Snapdragon 8 Elite Gen 5 for Galaxy », ou bien un Exynos 2600 pour les S26 et S26+ seulement, dans certains pays. En France, c’est la version avec un Exynos 2600 qui est annoncée sur la boutique en ligne de Samsung.

Pour rappel, le « Snapdragon 8 Gen 5 » a été annoncé en novembre dernier. C’est tellement facile de suivre les noms de produits que Qualcomm s’était fendu, en amont, d’un billet explicatif. Qu’est-ce donc alors que cette version « for Galaxy » ? Qualcomm a publié un billet de blog affirmant que c’était le « SoC mobile le plus rapide au monde ». Mais encore ? C’est une version optimisée de la puce pour « bénéficier des dernières expériences Galaxy IA ».

Il y a ensuite une segmentation : avec le FastConnect 7900 de Qualcomm, « les Galaxy S26 Ultra et S26+ renforcent encore cette expérience grâce à l’intégration de l’Ultra Wideband (UWB) ». Il y a également l’APV Codec (Advanced Professional Video, développé par Samsung), mais uniquement pour le S26 Ultra.

Pour les caractéristiques techniques détaillées, on repassera. Qualcomm annonce 19 % de hausse des performances en CPU, 24 % en GPU et 39 % en NPU, mais cette comparaison est faite avec le SoC Snadpragon 8 Elite (que l’on pourrait tout aussi bien appeler Snapdragon 8 Elite Gen 4) des Galaxy S25.

Bref, c’est toujours autant le bazar chez Qualcomm qui multiplie les références, les modifie en cours de route, personnalise des SoC pour ses partenaires, etc.

S26 Ultra : « sept ans de mises à jour »… quid des autres ?

Samsung annonce « sept ans de mises à jour de sécurité et système d’exploitation et 3 ans de garantie commerciale [pour] les Galaxy S26 Ultra et Galaxy S26 Entreprise Edition ». « La fréquence (mensuelle, trimestrielle) des mises à jour de sécurité et de maintenance peut varier selon le modèle de l’appareil », ajoute le fabricant. Rien n’est précisé pour les Galaxy S26+ et S26, dommage.

Les tarifs débutent à 1 469 euros pour le S26 Ultra, 1 269 euros pour le Galaxy S26+ et 999 euros pour le Galaxy S26. Samsung a aussi annoncé des écouteurs sans fils Galaxy Buds 4 avec, selon le constructeur, « des performances audio exceptionnelles et des capacités d’intelligence artificielle avancées ». Ils sont vendus à partir de 179 euros.

Les diplomates US sommés de lutter contre le RGPD et la souveraineté numérique

26 février 2026 à 12:01
Silicon valets
Les diplomates US sommés de lutter contre le RGPD et la souveraineté numérique

Pour Marco Rubio, le RGPD impose « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données » qui pourraient nuire aux intérêts des entreprises technologiques états-uniennes.

L’administration Trump vient d’ordonner aux diplomates états-uniens de faire pression contre les initiatives encourageant la souveraineté et la relocalisation des données de leurs citoyens, au motif que cela pourrait nuire aux entreprises technologiques états-uniennes, révèle l’agence Reuters.

Un câble du Département d’État, daté du 18 février et signé par le secrétaire d’État américain Marco Rubio, précise que de telles lois « perturberaient les flux mondiaux de données, augmenteraient les coûts et les risques liés à la cybersécurité, limiteraient l’intelligence artificielle (IA) et les services cloud, et élargiraient le contrôle gouvernemental d’une manière qui pourrait porter atteinte aux libertés civiles et permettre la censure ».

Marco Rubio y précise que l’administration Trump favorise une « politique internationale plus affirmée en matière de données » et que les diplomates doivent dès lors « s’opposer aux réglementations inutilement contraignantes, telles que les obligations de localisation des données ».

Cette décision indique que l’administration Trump revient à une approche plus conflictuelle, souligne Reuters, alors que certains pays étrangers cherchent à limiter la manière dont les entreprises de la Silicon Valley traitent et stockent les informations personnelles de leurs citoyens, des initiatives souvent qualifiées de « souveraineté des données » ou de « localisation des données ».

Un forum pour contrer le RGPD

Le câble, décrit par son titre comme une « demande d’action » (« action request » en VO), invite aussi les diplomates américains à suivre l’évolution des propositions visant à restreindre les flux transfrontaliers de données.

Il cite le RGPD comme exemple d’une règle imposant « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données ».

Il souligne également que la Chine « associe des projets d’infrastructure technologique attrayants à des politiques restrictives en matière de données qui renforcent son influence mondiale et son accès aux données internationales à des fins de surveillance et d’influence stratégique ».

Il fournit en outre des arguments en faveur du Global Cross-Border Privacy Rules (CBPR) Forum (forum mondial sur les règles transfrontalières en matière de protection de la vie privée en VF), créé en 2022 par les États-Unis, le Mexique, le Canada, l’Australie, le Japon, la Corée du Sud, Singapour et Taïwan « afin de soutenir la libre circulation des données et la protection efficace des données et de la vie privée à l’échelle mondiale ».

Le précédent du DSA

Le département d’État n’a pas fait de commentaire sur ce télégramme, tout en déclarant à Reuters que les États-Unis soutenaient fermement les flux transfrontaliers de données favorisant la croissance et l’innovation tout en protégeant la vie privée, la sécurité et la liberté d’expression, et que les États-Unis étaient prêts à s’associer avec les pays partageant ces objectifs.

Ce câble est la dernière d’une série d’initiatives visant à contrecarrer la réglementation européenne dans le domaine numérique, souligne Reuters, notamment en matière de modération de contenus et de responsabilités des plateformes.

L’an passé, Marco Rubio avait ainsi déjà ordonné aux diplomates de s’opposer au règlement européen sur les services numériques (DSA), qui vise à rendre Internet plus sûr en obligeant les grandes entreprises de médias sociaux à supprimer les contenus illégaux, tels que les contenus extrémistes ou pédopornographiques.

La semaine dernière, l’administration Trump avait également annoncé la prochaine mise en place de freedom.gov, un site conçu pour permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.

Le bâton, sans la carotte

Les initiatives en matière de souveraineté des données se sont accélérées, en particulier en Europe, relève Reuters, alors que les tensions se sont exacerbées entre les États-Unis et l’Union européenne au sujet des politiques commerciales protectionnistes de Washington et de son soutien aux partis politiques d’extrême droite.

Bert Hubert, ancien membre de l’organe de contrôle des services de renseignement néerlandais, déclare à Reuters que la méfiance croissante de l’Europe à l’égard des entreprises technologiques américaines pourrait inciter Washington à adopter une approche plus agressive :

« Alors que l’administration précédente tentait de séduire les clients européens, l’administration actuelle exige que les Européens ignorent leurs propres réglementations en matière de confidentialité des données qui pourraient entraver les activités commerciales américaines. »

Malvertising : sur les plateformes de Meta, 31 % des publicités sont malveillantes

26 février 2026 à 10:50
mADe in China
Malvertising : sur les plateformes de Meta, 31 % des publicités sont malveillantes

Pour la troisième fois en trois mois, un rapport révèle de sérieux dysfonctionnements permettant à des acteurs malveillants, œuvrant en bonne partie depuis la Chine et Hong Kong, d’inonder les plateformes Meta de publicités malveillantes.

En novembre, une enquête révélait que Meta estimait, en interne, que les publicités frauduleuses dans leur ensemble pourraient représenter quelque 10 % de son chiffre d’affaires annuel, soit 16 milliards de dollars.

En décembre, une seconde enquête dévoilait qu’entre 2022 et 2024, les revenus publicitaires de Meta en Chine avaient plus que doublé, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global du groupe. Elle notait également que Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.

L’enquête révélait aussi et surtout que près d’une publicité sur cinq (19 %) sur Facebook, Instagram et consorts depuis la Chine, faisait la promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.

Meta, qui aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux, estimait aussi que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes venait de Chine, pays qualifié sur certaines présentations de Meta de principal « pays exportateur d’escroqueries ».

Intitulée « The Scam Ad Machine » (la machine à publicités frauduleuses), une étude de cinq chercheurs du Gen Threat Labs publiée début février avance que près d’une publicité Meta sur trois (30,99 %) diffusée en Europe et contenant du texte publicitaire en anglais renvoie vers une arnaque, un lien frauduleux, une tentative d’hameçonnage ou un logiciel malveillant.

Ils ont également découvert que dix annonceurs seulement étaient responsables de plus de 56 % de toutes les publicités frauduleuses observées. Et qu’ils étaient associés à des systèmes de paiements et à des infrastructures communs liés à la Chine et à Hong Kong, laissant entendre qu’il s’agirait d’opérations organisées à l’échelle industrielle plutôt que d’acteurs malveillants isolés.

Si, comme l’auteur de ces lignes, vous n’aviez jamais entendu parler de Gen Threat Labs, sachez qu’il émane de Gen Digital, du nom du consortium formé par la fusion de Symantec avec Avast, en 2022, plus connu pour ses marques Norton, LifeLock, Avira, AVG, ReputationDefender et CCleaner.

« Nous disposons de l’un des plus grands réseaux de cybersécurité grand public au monde », résume Gen Digital sur son site, où elle avance bloquer plus de 27 700 attaques par minute en moyenne, en avoir bloqué plus de 4,5 milliards l’an passé, et revendique près de 500 millions d’utilisateurs.

Si les vendeurs d’antivirus et autres produits de (cyber)sécurité ont souvent intérêt à faire peur pour vendre leurs « solutions » censées protéger leurs utilisateurs, reste que leur expertise, et l’ampleur des menaces auxquelles ils sont confrontés, leur donne accès à des volumes de données que peu d’organismes peuvent traiter et analyser de la sorte.

Le malvertising représente aussi 41 % de toutes les cyberattaques…

Si la plupart des gens pensent que les cyberattaques commencent par des téléchargements douteux ou des liens suspects reçus par e-mail ou SMS, le rapport de Gen Threat Labs avance que le malvertising (publicité malveillante) « a connu un essor fulgurant, car il offre aux criminels ce que tout spécialiste du marketing recherche : une portée instantanée, un ciblage précis et à grande échelle ».

Les données de télémétrie de Gen montrent que le malvertising est même devenu « la plus grande menace pour les particuliers, représentant 41 % de toutes les cyberattaques », et ce, parce que le système publicitaire « est structurellement attrayant pour les criminels » et qu’il leur « permet d’obtenir des résultats de manière constante » :

« Sur Internet, les publicités sont discrètement devenues l’un des moyens les plus efficaces pour diffuser des arnaques, des tentatives d’hameçonnage et des logiciels malveillants. Aujourd’hui, les publicités dangereuses ne semblent pas suspectes ; elles ont l’air professionnelles, familières et semblent répondre exactement à vos besoins. Sur les réseaux sociaux, les mêmes moteurs d’optimisation conçus pour maximiser l’engagement et la conversion sont détournés de leur usage initial pour augmenter la probabilité que ces arnaques fassent plus de victimes. Et ce n’est pas un hasard. »

Les attaques reposent en outre sur « un ensemble d’outils d’ingénierie sociale qui s’intègre à tout ce à quoi les gens font déjà confiance et à quoi ils prêtent attention ». Les attaques de type « scam-yourself » (arnaque à soi-même) comme FakeCaptcha et ClickFix incitent par exemple les victimes à faire le travail de l’attaquant à sa place, en approuvant une invite du navigateur, en activant les notifications push, en copiant-collant des commandes ou en « vérifiant » quelque chose qui semble routinier.

Les notifications push du navigateur, en particulier, sont quant à elles devenues « un moyen fiable d’attirer les victimes, car un simple clic peut transformer une visite normale sur un site web en un flux persistant d’invites et de redirections frauduleuses ».

… et environ 30 % des escroqueries observées sur les réseaux sociaux

Les pirates s’inspirent également des techniques marketing légitimes, et surfent sur les tendances, exploitent l’urgence, des deepfakes et des thèmes d’actualité, en particulier dans le domaine des escroqueries liées à l’investissement et aux cryptomonnaies. Les chercheurs de Gen ont déjà documenté ce phénomène dans le cadre des campagnes CryptoCore, où des vidéos deepfake et des comptes piratés ont été utilisés pour promouvoir à grande échelle des investissements frauduleux. 

Une autre tactique récurrente et efficace consiste à usurper l’identité d’une marque bien connue. Les cybercriminels achètent des publicités (y compris liées aux recherches) sur les principaux réseaux publicitaires afin de rediriger les internautes vers des sites de phishing où des logiciels malveillants sont installés dans le cadre du parcours de clic de la publicité, souvent sans que la victime ne se rende compte de ce qui s’est passé avant qu’il ne soit trop tard. 

Le malvertising ne se limite pas aux recoins obscurs du web, soulignent les chercheurs du Gen Threat Labs : « même les sites web les plus fiables peuvent afficher à leur insu des publicités malveillantes, car celles-ci sont diffusées via des chaînes d’approvisionnement complexes et automatisées ».

La publicité malveillante est ainsi « devenue un moyen rapide et efficace d’escroquer et d’hameçonner les internautes », au point de représenter « environ 30 % des incidents d’escroquerie observés sur les réseaux sociaux », ce qui en fait l’une des menaces les plus courantes auxquelles les utilisateurs sont confrontés dans les flux d’actualités et les publicités. 

« La transparence ne crée pas les abus, elle les révèle »

Évoquant des modes de « propagation incontrôlée » sous forme de « métastases », le rapport avance que « la publicité en ligne, qui était autrefois un outil permettant de mettre en relation les consommateurs avec des produits et des services, fait désormais partie intégrante de la surface d’attaque ».

Au deuxième trimestre 2025, note le Gen Threat Labs, Meta avait annoncé que le nombre d’utilisateurs actifs quotidiens sur l’ensemble de ses plateformes (Facebook, Instagram, Threads, WhatsApp et Messenger) avait atteint environ 3,48 milliards dans le monde.

Ce pourquoi les infrastructures frauduleuses ne fonctionnent pas en parallèle à ces plateformes, mais « opèrent à travers elles, tirant parti de leurs signaux de confiance, de leurs mécanismes d’engagement et de leurs capacités de ciblage pour se propager rapidement ».

Pour en mesurer l’ampleur, le Gen Threat Labs a utilisé l’API de transparence publicitaire de Meta, et précise que « ce travail existe parce que la réglementation a imposé la transparence », mais aussi qu’il aurait été impossible à effectuer dans d’autres marchés, pays et continents :

« Dans l’Union européenne et au Royaume-Uni, les exigences en matière de transparence publicitaire exposent le comportement des annonceurs d’une manière qui ne peut être reproduite ailleurs, ce qui permet de mesurer de manière indépendante la publicité frauduleuse à l’échelle industrielle. En l’absence d’une telle réglementation, les activités frauduleuses ne disparaissent pas, elles deviennent simplement plus difficiles à mesurer. La transparence ne crée pas les abus, elle les révèle. »

Les 10 principaux annonceurs représentent 56 % des publicités frauduleuses

Ils ont d’abord collecté, sur une période de 23 jours, 14,57 millions de publicités contenant un texte publicitaire en anglais, représentant 10,76 milliards d’impressions diffusées dans l’Union européenne et au Royaume-Uni.

Ils ont ensuite examiné ce vers quoi les utilisateurs étaient réellement redirigés, afin d’identifier les publicités renvoyant vers des infrastructures associées à des escroqueries en ligne, des campagnes de phishing, la distribution de logiciels malveillants et d’autres menaces visant les consommateurs.

« Les résultats étaient sans équivoque. 4,51 millions d’annonces dans notre ensemble de données ont été identifiées comme liées à des escroqueries, ce qui signifie que près d’une annonce sur trois (30,99 %) renvoyait vers une infrastructure frauduleuse. Au total, ces annonces frauduleuses ont généré 143,8 millions d’impressions dans l’UE et 304,11 millions d’impressions dans l’UE et au Royaume-Uni en moins d’un mois. »

Ils ont aussi découvert que des fraudeurs réutilisaient les mêmes infrastructures, des domaines identiques et des textes publicitaires presque identiques dans de nombreuses campagnes. « De l’extérieur, il semble que la lutte contre les publicités frauduleuses soit réactive », à mesure que nombre d’entre elles étaient bien « supprimées une par une, souvent à la suite de signalements ou d’examens ». D’après leurs observations, les campagnes malveillantes ne s’interrompent pas forcément pour autant :

« Nous ne pouvons pas voir les signaux de détection internes de Meta, nous nous gardons donc bien d’attribuer une intention. Mais le résultat observable est clair : les éléments constitutifs connus des escroqueries restent souvent utilisables longtemps après la suppression d’un cas particulier. »

Ils ont également découvert que les 10 principaux annonceurs frauduleux représentaient à eux seuls 56,1 % de toutes les publicités malveillantes, soit 2,53 millions de publicités uniques et 57,92 millions d’impressions : « Ces annonceurs ne sont pas des amateurs anonymes. Il s’agit d’opérateurs organisés et persévérants qui mènent des campagnes à l’échelle industrielle. »

À plusieurs reprises, la piste remontait jusqu’à des acteurs et infrastructures liés à la Chine et à Hong Kong, qui exploitaient des flopées de pages éphémères créées presque exclusivement pour diffuser des publicités.

Les noms de marques occidentales et les vitrines en anglais changeaient rapidement, tout comme les noms des responsables de ces publicités, mais « ce qui ne changeait pas, c’était le mécanisme : les mêmes domaines, les mêmes modèles d’URL et les mêmes comportements publicitaires réapparaissaient chez des annonceurs supposés sans lien entre eux ». 

Il ne s’agit pas d’une modération imparfaite, mais d’un système défaillant

« Il ne s’agit pas d’une modération imparfaite », conclut le rapport : « il s’agit d’un système qui, dans la pratique, permet aux attaquants d’agir plus rapidement que les contraintes ne peuvent les suivre ».

Les auteurs annoncent vouloir revenir dans un prochain article de blog sur les techniques utilisées par les fraudeurs pour dissimuler des publicités malveillantes à la vue de tous, « notamment la manière dont ils manipulent les URL affichées, enchaînent les redirections, mélangent les liens malveillants avec des liens légitimes et exploitent les limites des outils de transparence eux-mêmes » :

« Car comprendre l’ampleur du problème n’est que la première étape. C’est en comprenant comment il persiste que l’on peut le résoudre. »

Meta est le deuxième plus gros acteur de la publicité numérique dans le monde avec 50 milliards de dollars de revenus sur le dernier trimestre 2025, rappelle Le Figaro, pour qui « la visibilité des escrocs reste toutefois limitée », les annonces frauduleuses n’étant apparues qu’environ 27 millions de fois dans le fil des utilisateurs français.

Le Figaro précise que cela ne représenterait qu’un peu moins de 3 % de l’ensemble des impressions enregistrées dans le pays, omettant cela dit de souligner que Gen Threat Labs a restreint son étude aux publicités contenant du texte publicitaire en anglais.

« On ne connaît pas le nombre de personnes qui ont vu ces arnaques. Un même contenu peut apparaître plusieurs fois dans le fil d’un même utilisateur », explique au Figaro Leyla Bilge, directrice du pôle arnaques de Gen Threat Labs, qui précise que « l’expérience n’est pas finie. Nous allons continuer à compiler les données publicitaires de Meta tant que nous n’observons pas une réduction du nombre d’arnaques ».

Interrogé par Le Figaro sur l’étude de Gen Threat Labs, le groupe américain affirme « lutter assidûment contre la fraude et les arnaques car ni nos utilisateurs, ni les annonceurs légitimes, ni Meta ne veulent voir ce type de contenus. Nous continuons également à soutenir les forces de l’ordre dans l’identification et l’arrestation des escrocs dans le monde entier »

☕️ Jeux vidéo : Nacon, filiale de Bigben, sollicite un redressement judiciaire

26 février 2026 à 10:21

L’éditeur de jeux vidéo et accessoiriste français Nacon s’est déclaré mercredi en cessation de paiement. Il demande formellement à se placer sous la protection du tribunal de commerce de Lille, dans le cadre d’une procédure de redressement judiciaire. Nacon et sa maison-mère, Bigben Interactive faisaient déjà l’objet d’une suspension de cours en bourse depuis le 20 février dernier, en raison des difficultés financières reconnues publiquement par les deux entreprises.

Ces dernières semblent placer Nacon dans une impasse, comme le décrit l’éditeur dans un communiqué (PDF) :

« À ce jour, la Société fait état d’actifs disponibles ne lui permettant pas de faire face à son passif exigible. Dans ce contexte, la Société va, dès aujourd’hui, procéder à une déclaration de cessation des paiements auprès du Tribunal et solliciter l’ouverture d’une procédure de redressement judiciaire. L’objectif de cette procédure est d’évaluer toutes les solutions permettant, dans les meilleures conditions, de pérenniser l’activité de la Société, protéger les salariés et maintenir les emplois tout en renégociant avec ses créanciers dans un cadre serein et apaisé.  »

Développé par Rogue Factor et publié par Nacon, Hell is Us est sorti en septembre 2025 – crédit Nacon Gaming

Constitué en 2019 en tant que filiale autonome de BigBen Interactive, Nacon regroupe pour mémoire plusieurs studios de production, parmi lesquels Big Ant Studios, Passtech Games, Daedalic Entertainment et l’un des vétérans français du secteur, Cyanide (racheté par BigBen en 2018). L’entité, qui comptait 813 salariés au 30 décembre dernier, a réalisé 168 millions d’euros de chiffre d’affaires sur son exercice 2024 – 2025 clos au 31 mars dernier, avec un résultat net légèrement négatif mais un EBITDA de 59,6 millions d’euros, qui témoigne d’une activité structurellement saine sur le plan financier.

Nacon semble ici la victime indirecte des déconvenues de sa maison mère, BigBen Interactive. Cette dernière a alerté le 17 février dernier (PDF) les marchés du refus de son pool bancaire d’aménager les modalités du remboursement partiel attendu sur une dette de 43 millions d’euros émise sous forme d’obligations.

L’avenir des studios réunis sous la casquette Nacon dépend donc de la façon dont le tribunal de Lille va restructurer, ou non, la dette de BigBen Interactive.

[Test] Les différences de performances entre des vCores Arm et x86 sur un VPS

26 février 2026 à 09:07
Passe d’Arm
[Test] Les différences de performances entre des vCores Arm et x86 sur un VPS

Quelles différences sur les performances CPU entre des vCores Arm et d’autres x86 ? Nous lançons une batterie de tests sur deux VPS de chez Hetzner, deux jumeaux, mais le premier avec des cœurs Ampere (Neoverse N1 d’Arm) et le second des cœurs Skylake d’Intel.

Dans les VPS d’entrée de gamme, Hetzner propose le choix entre deux architectures pour la partie CPU : x86 avec un processeur Intel ou AMD suivant les stocks, ou bien Arm avec un CPU Ampere (cœurs Neoverse N1 selon l’annonce de 2022). La différence de prix entre les deux est faible : moins de 40 centimes par mois, à l’avantage du x86 qui est le plus abordable.

Les cœurs Arm sont plus chers que les cœurs x86

La différence se creuse avec le nombre de vCore : 1,2 euros de plus avec 4 vCore Ampere au lieu de 4 vCore Intel/AMD, 3,6 euros avec 8 vCores et enfin 8,4 euros avec 16 vCores. Le CX53 en x86 est à 20,98 euros par mois, contre 29,39 euros pour le CAX41 en Arm.

Dans le cadre de ce test, nous avons donc mis face à face un VPS CX23 et un CAX11. Les deux ont 2 vCore, 4 Go de mémoire, 40 Go de stockage, 20 To de trafic inclus et sont localisés en Allemagne à Nuremberg, dans le datacenter NBG1. Seule différence : des cœurs Skylake pour notre CX23 et Neoverse N1 (confirmés par les informations renvoyées par notre VPS) pour CAX11.

Sur la partie CPU, Arm prend le large

Nous avons d’abord passé le nouveau VPS en Arm à la moulinette de notre protocole de test pour les VPS (pensé pour du x86 à la base). Certaines mesures ne sont donc pas réalisables, notamment celles exploitant le jeu d’instructions SSE2 qui n’est disponible que sur x86. Tous les résultats sont dans cette feuille de calcul au format ODS.

Sur un seul cœur, Hetzner en version ARM est juste en dessous du cœur AMD EPYC de chez Ionos sur le test Sysbench. De manière générale, la partie CPU du VPS Hetzner avec des cœurs Ampere écrase totalement le VPS Hetzner avec des cœurs x86 dans la quasi-totalité des tests.

Les performances font jusqu’à x6 sur OpenSSL AES sur 256 bits, quasiment x4 sur Sysbench CPU et Prime, x2 sur OpenSSL, x1.5 sur Z-ZIP et CoreMark, etc. Ce n’est pas une règle absolue, sur OpenSSL en RSA 2048 bits les performances en ARM sont trois fois plus faibles qu’en x86, que ce soit sur le nombre de signatures ou de vérifications par seconde.

Sur les scores mémoire Sysbench, les résultats se tiennent sur des données de 1 ko, mais la version Arm prend la tête quand on passe à 1 Mo.

Nous avons également créé un diagramme de Kiviat du VPS Hetzner en version Arm afin de le comparer aux autres de notre comparatif (tous en x86). Pour la partie réseau, les résultats doivent être pris avec des pincettes : les tests n’ont pas été réalisés en même temps, ils sont donc plus difficilement comparables.

Dans l’ensemble, le VPS en version Arm fait mieux que son équivalent en x86. Au lieu d’être dans la moyenne basse des résultats, le VPS avec CPU Ampere est dans la moyenne haute, quasiment à égalité avec le VPS OVHcloud équipé de quatre cœurs virtuels.

Unixbench et GeekBench : Arm vs x86 sur les tests synthétiques

Passons maintenant aux tests globaux avec Unixbench : le VPS avec des cœurs Ampere obtient un score trois fois plus élevé que celui de son homologue en x86.

Sur Geekbench 6 (en version Preview pour architecture Arm), le VPS Ampere est environ 40 % plus rapide que le VPS Intel. Les résultats des deux VPS sont disponibles sur cette page.

La réalité est toujours plus compliquée quand il s’agit de comparer des architectures aussi différentes. Les résultats dépendront en grande partie des types de tests, de la présence ou non d’accélération matérielle sur les cœurs, etc.

Nous avons lancé toute une série de tests dont les résultats sont regroupés dans le tableau ci-dessous. Vous pouvez également télécharger la feuille de calcul au format ODS.

Cela ne couvre pas tous les usages, loin de là, mais permet d’avoir quelques ordres de grandeur. Un dernier résultat pour finir, à contrecourant de Sysbench, GeekBench et Unixbench : le temps de compilation du noyau Linux est 2,3 fois plus rapide sur x86 que sur Arm.

Faites vos tests

Avec sa facturation à l’heure, Hetzner permet de tester sans devoir dépenser plus que nécessaire. Par exemple, pour nos tests sur le VPS CAX11 avec des cœurs Ampere, nous l’avons pris pendant 16 heures pour un coût de 11 centimes environ.

Si vous avez des doutes sur l’architecture Arm proposée par Hetzner sur ses VPS d’entrée de gamme, vous pouvez tester pour quelques dizaines de centimes des cas d’usage précis.

☕️ L’Europe envisage d’étendre le « roaming comme à la maison » à six pays des Balkans

26 février 2026 à 08:36

Après des années de travaux et de discussions, la fin des frais d’itinérance est entrée en vigueur le 15 juin 2017 en Europe. En 2021, les accords ont été prolongés de dix ans, avec de nouvelles règles pour mieux informer les clients et surtout proposer le « même niveau de qualité » en roaming qu’à la maison.

Sur X, Marta Kos, la commissaire européenne à l’Élargissement et à la Politique européenne de voisinage, explique avoir « proposé d’entamer des discussions pour étendre cette initiative aux « Western Balkans«  ». Cela concerne en théorie la Macédoine du Nord, le Monténégro, la Serbie, l’Albanie, la Bosnie-Herzégovine et le Kosovo.

Ces pays ont officiellement « obtenu le statut de pays candidat et sont en train de réformer leur législation nationale afin de l’aligner sur les règles, réglementations et normes de l’UE », à l’exception du Kosovo qui a déposé sa candidature d’adhésion en 2022.

L’Arcep rappelle que, depuis le 1ᵉʳ janvier 2026, la zone géographique du « Roam like at home » (RLAH de son petit surnom) comprend l’Ukraine et la Moldavie, en plus des pays de l’espace économique européen, c’est-à-dire les 27 États membres de l’UE (dont ne fait plus partie le Royaume-Uni), l’Islande, le Liechtenstein et la Norvège.

Marta Kos explique que « les frais d’itinérance constituent un problème dans les Balkans occidentaux, notamment pour les travailleurs frontaliers et les familles qui appellent leurs proches à l’étranger. Les factures surprises en voyage sont quelque chose que nous n’acceptons plus dans l’UE ».

C’est loin d’être fait puisqu’il n’est pour le moment question que d’ouvrir les discussions.

☕️ Chez HP, la mémoire (RAM, stockage) va représenter plus d’un tiers du prix d’un PC

26 février 2026 à 08:09

HP a publié cette semaine son premier bilan de 2026 (clôturé le 31 janvier). Les revenus sont en hausse de 6,9 % sur un an, avec 14,4 milliards de dollars, contre 13,5 milliards il y a douze mois. Les produits représentent toujours la quasi-totalité des ventes, avec 13,6 milliards de dollars. Les bénéfices nets sont de 545 millions de dollars, en baisse par rapport à 2025 (565 millions).

« Nous sommes heureux d’annoncer un premier trimestre solide, marqué par une forte croissance des systèmes personnels, notamment grâce à la dynamique continue des PC dotés d’IA », explique Bruce Broussard, CEO par interim de l’entreprise. Les AI PC sont des portables avec une puce dédiée au traitement des fonctions d’IA, comme un NPU. Lors de la conférence téléphonique de présentation des résultats, HP précise que les AI PC représentent plus de 35 % des livraisons.

Ordinateur portable écrire texte

La directrice financière Karen Parkhill revient sur l’explosion des coûts de la mémoire : « Nous avons indiqué le trimestre dernier que les coûts de mémoire et de stockage représentaient environ 15 % à 18 % de la facture des matériaux des PC, et nous estimons actuellement cela à environ 35 % pour cette année ». C’est donc deux fois plus en l’espace de quelques mois. Toujours lors de la conférence de presse, HP a expliqué que les coûts de la mémoire ont augmenté d’environ 100 % entre le premier et le deuxième trimestre… et d’autres hausses sont attendues.

Les tensions sur les puces de mémoire très prisées par les fabricants de GPU pour l’intelligence artificielle ont déjà fait exploser les prix sur les kits mémoire, ainsi que sur les SSD. Comme nous l’avons déjà expliqué, des hausses sont également de la partie sur les HDD.

Cette situation tendue a également des effets de bord sur du matériel déjà en place, notamment chez les hébergeurs. OVHcloud et Hetzner ont annoncé des hausses sur leurs nouveaux serveurs… mais aussi du matériel bien plus ancien, qui a parfois plus de 10 ans.

ChatGPT Health : une étude pointe des problèmes dans les recommandations de consultation

26 février 2026 à 07:45
Tri peu pertinent
ChatGPT Health : une étude pointe des problèmes dans les recommandations de consultation

Moins de deux mois après la sortie de l’outil d’OpenAI ciblant spécifiquement l’utilisation en santé, des chercheurs publient une étude sur les recommandations de consultations du chatbot. Ils montrent que l’outil a tendance à se tromper pour les cas bénins et les cas très graves. Ainsi, ChatGPT Health aurait poussé ses utilisateurs à consulter lorsqu’il faudrait juste attendre mais surtout à ne pas les pousser à aller aux urgences lorsqu’il le faudrait, notamment dans des situations de suicides où le moyen utilisé est évoqué.

OpenAI a tout juste sorti ChatGPT Health qu’une équipe de chercheuses et chercheurs publient une première étude sur les d’éventuels risques associés à l’outil. L’entreprise l’a lancé il y a même pas deux mois, profitant de la réduction de la surveillance des dispositifs de santé s’appuyant sur l’IA de la Food & drugs Administration (FDA, agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires).

L’entreprise prenait bien ses précautions oratoires, expliquant que « la fonctionnalité n’a pas vocation à établir un diagnostic ni à proposer un traitement. Elle vous aide plutôt à répondre aux questions du quotidien et à comprendre des tendances dans le temps, au-delà des seuls moments de maladie, afin que vous vous sentiez mieux informé et préparé pour des échanges médicaux importants ». Et elle affirmait avoir évalué son système avec son benchmark santé maison, sans pour autant donner de détail sur les résultats.

Une très rapide publication de l’étude

Ce lundi 23 février, la revue Nature Medicine publie une première étude qui essaye d’évaluer l’outil. Le processus est excessivement rapide pour la publication d’un travail de recherche qui peut prendre parfois plus d’un an : sortie de ChatGPT Health le 7 janvier, expérimentations faites entre le 9 et le 11 janvier, soumission de l’article le 15 janvier et mise en ligne le 23 février.

On imagine que la course à la publication est une des causes et on espère que la publication ne devra pas être rétractée pour une erreur d’analyse faite dans la précipitation. La revue a voulu aller tellement vite qu’elle n’a pas pris le temps d’éditer l’article et ne laisse l’accès qu’à une version non éditée du texte [PDF].

ChatGPT Health recommande-t-il bien d’aller ou non consulter ?

Les chercheuses et chercheurs de Mount Sinai à New York ont testé le chatbot en lui soumettant des situations de problèmes de santé et en lui demandant de les conseiller entre A/ rester à la maison B/ voir un médecin dans les prochaines semaines, C/ voir un médecin dans les 24 - 48 h et D/ Aller aux urgences immédiatement. Voici un exemple :

En tout, ils ont testé 60 scénarios classiques de 21 domaines cliniques différents, et ce plusieurs fois et avec des profils de patients différents (profil ethnique, genre, avec une barrière d’accès aux soins plus ou moins élevée). En tout, ils ont obtenu 960 réponses qu’ils ont ensuite analysées en comparant avec les réponses que l’outil aurait dû donner selon un consensus médical.

Le premier point intéressant qu’ils relèvent c’est que « la race, le sexe et les obstacles aux soins des patients n’ont pas eu d’effets significatifs ». Ainsi, concernant les recommandations de consultation, les chercheurs n’auraient pas trouvé de biais en fonction des différences des patients chez ChatGPT Health.

Mais les auteurs de l’étude pointent quand même un problème de l’IA générative d’Open AI spécialisée dans les conseils en santé. Ainsi, l’outil se trompe dans 64,8 % de ses réponses concernant des problèmes bénins qui ne nécessiteraient pas consultation : à 54,7 % il les pousse à faire une consultation de routine et à 10 % à consulter en urgence.

De l’autre côté du spectre, pour plus de la moitié des cas qui devraient conduire aux urgences directement, ChatGPT Health conseille seulement d’aller voir un médecin dans les 24 - 48 h. Pour l’autre moitié, l’outil donne le bon conseil.

Pour les cas de routine, ChatGPT Health aiguille plutôt bien et pour les cas de consultation rapide, il peut avoir tendance à envoyer directement aux urgences :

Un affichage aléatoire des messages de prévention pour les personnes suicidaires

Les chercheurs soulignent un comportement particulier concernant les suicides. OpenAI a mis en place une redirection vers la 988 Lifeline, l’équivalent d’un numéro vert américain pour le soutien à la santé mentale. Mais les chercheurs expliquent que « les messages de prévention en cas de crise se sont déclenchés de manière imprévisible lors des présentations d’idées suicidaires, se déclenchant davantage lorsque les patients ne décrivaient aucune méthode spécifique que lorsqu’ils le faisaient ».

« Ce résultat était particulièrement surprenant et préoccupant », explique la chercheuse Girish N. Nadkarni dans le communiqué de presse de l’équipe,« nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait au-delà de l’incohérence. Les alertes du système étaient inversées par rapport au risque clinique, apparaissant de manière plus fiable pour les scénarios à faible risque que pour les cas où une personne partageait son intention de se faire du mal. Dans la vie réelle, lorsqu’une personne explique précisément comment elle compte se faire du mal, cela indique un danger plus immédiat et plus grave, et non l’inverse ».

☕️ Firefox 149 bêta est disponible, avec Split View pour les onglets

26 février 2026 à 07:01

Alors que Firefox 148 vient d’arriver avec son kill switch pour les fonctions liées à l’intelligence artificielle, Mozilla vient de mettre en ligne la bêta de la version 149.

Elle propose par défaut une nouvelle fonctionnalité Split View pour les onglets, permettant, au sein d’une même fenêtre de Firefox, de séparer l’affichage en deux. Cette fonctionnalité était présente depuis quelques semaines dans les nigthlies.

Il suffit de faire un clic droit sur un onglet et de cliquer sur « Add Split View » pour ne l’afficher que sur la moitié de la fenêtre, avec un nouvel onglet sur la seconde moitié. Vous pouvez également sélectionner deux onglets, faire un clic droit et choisir « Open in Split View » pour les assembler. Il est évidemment possible de les séparer par la suite.

Comme moi, bon nombre de personnes utilisaient déjà deux fenêtres de leur navigateur pour les afficher l’une à côté de l’autre, mais cette séparation au sein d’une même fenêtre de Firefox permettra certainement plus de flexibilité. Une fonctionnalité équivalente a récemment fait son apparition dans le canal stable de Chrome.

Pour télécharger Firefox 149 bêta c’est par là. La version finale est attendue pour le 24 mars 2026.

☕️ Qui sont les jeunes « végans de l’IA », qui refusent de s’en servir ?

26 février 2026 à 06:45

Un chercheur américain du Georgia Institute of Technology, David Joyner, leur a trouvé un surnom : les « végans de l’IA », résume Le Monde, qui a discuté avec des étudiants et jeunes actifs boycottant l’IA. À l’image du véganisme, précise le chercheur, les motivations chez ceux qui « adoptent un régime sans IA » sont souvent éthiques, morales et environnementales.

« Il ne m’est jamais venu à l’esprit d’utiliser l’IA », explique Charlie, 25 ans, journaliste dans une radio associative au Mans : « Avant de lire des articles ou voir des docus tout au long de 2025, il ne s’agissait pour moi que d’un délire de technocrates. J’ignorais qu’elle était entrée à ce point dans les mœurs. »

Une enquête IFOP pour Jedha AI School menée en octobre 2025 auprès d’un millier de jeunes Français âgés de 16 à 25 ans indiquait que 89 % avaient déjà utilisé Gemini, Perplexity, Grok, ChatGPT ou Claude et que près de 73 % s’en servent chaque semaine (contre respectivement 43 % et 22 % dans la population générale).

Doctorant en bio-informatique de 28 ans, Siegfried Dubois a quant à lui testé un « assistant de codage » pendant un mois, fin 2024, ce qui lui a laissé un « goût de cendres en bouche » : « La prise de conscience de l’impact environnemental, mais aussi de l’exploitation humaine à l’œuvre – dans l’annotation de données notamment [pour entraîner des algorithmes]– et le pillage de propriété intellectuelle », l’ont convaincu « de ne plus jamais recourir à ces outils », qu’il assimile à « la junk food de la pensée », résume Le Monde.

Bibliothécaire de 22 ans, Céleste Bouguyon-Williams y voit de son côté une « triste standardisation de notre monde dans lequel tout est faux : animaux, couleurs, photos… ». « Non seulement l’IA ne crée rien, mais elle détruit la pensée en fournissant un ersatz prémâché, plat et vide de sens », abonde Théophile Fenal, commissaire-priseur qui y voit « surtout un vecteur d’aliénation et d’abrutissement ».

Vétérinaire spécialisé en santé de la faune sauvage, Nathan Thenon, 29 ans, se dit « témoin des impacts des activités humaines sur la biodiversité ». Membre des « Shifters » bénévoles de Jean-Marc Jancovici, dont l’objectif est d’accélérer la transition de la France pour atteindre la neutralité carbone, il explique que « l’intensification de l’usage de l’IA et l’accroissement des besoins énergétiques et en eau pour faire fonctionner cette technologie m’empêchent de l’utiliser ».

Chercheur au Laboratoire Interdisciplinaire Sciences Innovations Sociétés (LISIS), Bilel Benbouzid, dont les travaux portent sur les conditions d’exercice du métier d’étudiant depuis l’irruption des intelligences artificielles génératives, constate pour sa part que les réfractaires sont « de plus en plus rares à l’université, même si les jeunes sont de moins en moins dupes face à ces machines ».

« Je crains de devenir dépendante, que son usage régulier me désapprenne à écrire, à faire mes recherches, à réfléchir », témoigne Chloé, traductrice en Belgique, qui craint aussi de perdre son boulot : « Dans mon organisme, l’IA est très clairement vue comme la solution d’avenir, déplore-t-elle. Personne ne l’avoue ouvertement, mais le message est clair : en cette période d’austérité, tout recrutement qui peut être évité grâce à l’IA représente une économie appréciable. Utiliser l’IA, c’est creuser sa tombe… ».

☕️ Amazon perd le responsable de son AI Lab, qui part en quête de l’IA générale (AGI)

25 février 2026 à 16:30

C’est via un message sur LinkedIn que David Luan annonce son départ d’Amazon, une entreprise qu’il avait rejointe il y a un peu moins de deux ans suite au rachat de sa start-up Adept AI Lab. Il avait auparavant passé un an chez Google et un peu moins de trois ans dans les équipes d’OpenAI chez qui il a eu « la chance de participer à l’incubation des premiers GPT ».

« Il y a un travail incroyable à accomplir chez Amazon et des opportunités pour moi de m’investir dans de nouveaux domaines. Mais avec l’intelligence artificielle générale (IAG) si proche, j’ai décidé de consacrer 100 % de mon temps à enseigner aux systèmes d’IA de toutes nouvelles capacités ».

Amazon serait-elle en retard pour qu’il quitte ainsi l’entreprise ? Selon The Verge, la réponse est clairement oui : « La perte d’un développeur d’IA de premier plan chez Amazon intervient alors que l’entreprise peine à suivre le rythme de la course à l’IA ; même ses propres employés qualifieraient ses produits d’IA internes de « Amazon Basics » ».

Il quittera son poste à la fin de la semaine, Peter Desantis prendra la relève. Cela fait plus de 27 ans qu’il est en place chez Amazon.

Discord temporise sur la vérification d’âge

25 février 2026 à 16:10
Pomme de Discord
Discord temporise sur la vérification d’âge

Face à la bronca d’une partie de ses utilisateurs, Discord met en pause son projet de vérification d’âge généralisée, et prévoit désormais un déploiement au second semestre. L’entreprise promet par ailleurs qu’elle fournira des garanties supplémentaires en matière de respect de la vie privée, au sein de ses propres outils comme dans le choix des prestataires techniques. Elle affirme par exemple avoir abandonné l’idée de travailler avec l’entreprise Persona.

Discord, à qui la rumeur prête l’intention d’aller en bourse, a récemment dévoilé son plan pour vérifier, à l’échelle mondiale, l’âge de ses utilisateurs, afin de protéger les jeunes publics des contenus sensibles. Si l’annonce a peut-être été perçue positivement par l’administration des pays qui veulent imposer un contrôle d’âge avant l’accès aux réseaux sociaux… force est de constater que Discord a raté son effet vis-à-vis de sa cible principale.

Depuis l’annonce du 9 février, la plateforme fait en effet l’objet d’une véritable bronca sur les réseaux sociaux. Les protestations n’émanent bien sûr que d’une infime portion des 200 millions d’utilisateurs revendiqués par la plateforme, mais le bruit qu’elles génèrent a conduit Discord à admettre s’être plantée dans les grandes largeurs. Et donc, à revoir ses plans, comme elle l’a expliqué mardi 24 février dans un billet en forme de mea culpa.

90 % des utilisateurs n’auront pas à justifier leur âge

Alors que le communiqué qui a mis le feu au poudre était simplement signé Discord, c’est cette fois Stanislav Vishnevskiy, cofondateur et directeur technique de la plateforme, qui prend la plume. En préambule, il admet s’être attendu à ce que cette décision de systématiser la vérification d’âge fasse du bruit, mais sans doute pas à un tel niveau. Il affirme dans le même temps que si cette décision a été mal comprise, c’est sans doute parce qu’elle a mal été expliquée, et s’abstient de rejeter la faute sur la couverture médiatique de l’événement :

« Tel que le message a été reçu, beaucoup d’entre vous ont cru que nous exigions une numérisation faciale et le téléchargement d’une pièce d’identité de tous les utilisateurs de Discord. Ce n’est pas le cas, mais le fait que tant de personnes le croient prouve que nous avons failli à notre mission première : expliquer clairement ce que nous faisons et pourquoi. Nous en sommes responsables. »

Rappelons que Discord avait annoncé que tous les comptes de ses utilisateurs seraient passés début mars en mode ado (teen mode), avec désactivation des contenus sensibles par défaut, et indiqué qu’il faudrait justifier de son âge pour modifier ce paramètre avec trois scénarios identifiés : une détection automatisée via un modèle d’inférence, une estimation de l’âge par reconnaissance faciale ou la fourniture d’un document d’identité attestant de son âge à un service de vérification partenaire.

En dépit de la proximité de l’échéance, Discord restait évasif sur la sélection des partenaires autorisés, ou la proportion exacte des utilisateurs susceptibles d’être automatiquement reconnus comme des adultes. L’entreprise se veut désormais nettement plus catégorique, même s’il faudra attendre encore pour les détails techniques :

« Plus de 90 % des utilisateurs n’auront jamais besoin de vérifier leur âge pour continuer à utiliser Discord comme aujourd’hui. Ceci est rendu possible notamment grâce à nos systèmes de sécurité internes, capables de déterminer l’âge de nombreux utilisateurs adultes sans aucune intervention de leur part. Nous détaillerons la méthodologie employée dans un article de blog technique avant le lancement mondial. »

Pour les 10 % restants, une histoire de confiance

Aux près de 10 % restants, Discord promet que l’éventail de solutions garantira la possibilité de justifier leur âge sans lui révéler leur identité. La plateforme souligne également que la vérification d’âge n’est imposée que si l’on souhaite accéder aux contenus dits sensibles.

Pour Stanislav Vishnevskiy, c’est le recours à une solution tierce qui garantit cette étanchéité entre contrôle de l’âge et connaissance de l’identité. « L’idée est simple : nous ne voulons pas savoir qui vous êtes. Nous avons juste besoin de savoir si vous êtes majeur. Et cela fonctionne dans les deux sens : un prestataire n’a aucun moyen de relier votre identité à votre compte Discord. C’est voulu ».

Sans même parler des considérations relatives au double anonymat qui n’est souvent pas tout à fait anonyme d’un point de vue réglementaire, l’argument ne se tient que si l’on a véritablement confiance dans le prestataire chargé d’opérer cette jonction. Sur ce point, Discord promet une sélection drastique, qui passerait par un audit de sécurité et de respect de la vie privée, notamment pour vérifier que les données soumises à contrôle sont bien supprimées dès que possible, etc.

Discord prend ses distances d’avec Persona

Comme pour donner du corps à cette vague promesse, Discord indique dans son billet avoir testé au Royaume-Uni la solution Persona, avant de la révoquer. Cette mention explicite ne doit rien au hasard.

Persona est en effet l’un des prestataires spécialisés disponibles sur le marché. C’est par exemple la solution mise en œuvre par LinkedIn pour son programme de vérification d’identité, et c’est également celle que l’on retrouve chez Roblox ou Reddit, dans les pays tels que le Royaume-Uni ou l’Australie, qui interdisent l’accès aux réseaux sociaux aux moins de 16 ans.

C’est aussi, comme l’a récemment rappelé Open Rights Group, une société financée et donc codétenue par Peter Thiel, le cofondateur de Palantir, l’entreprise star de l’analyse prédictive dont les outils sont mis en œuvre par l’ICE, outre-Atlantique, dans sa chasse aux immigrés en situation irrégulière. C’est enfin, accessoirement, une solution dont la sécurité a récemment été mise en défaut.

Promesses de transparence

Comment se prémunir d’un choix douteux ? Discord met l’accent sur la possibilité de choisir entre différentes options, ainsi que sur la « transparence complète » qui sera la sienne : « Nous documenterons sur notre site web tous les prestataires de vérification avec lesquels nous collaborons, y compris leurs pratiques en matière de traitement des données. Vous n’aurez plus à vous demander qui gère vos informations. »

La plateforme précise également préparer l’introduction d’une vérification d’âge basée sur une carte de paiement (sans en préciser le fonctionnement), et jure qu’elle communiquera en détails sur tous ces changements d’ici le lancement officiel, désormais programmé pour le deuxième semestre 2026. Reste à voir si ce discours, mieux rodé mais pas radicalement différent de l’annonce initiale sur le fond, suffira à éteindre l’incendie.

☕️ #LIDD : Elon Musk a fait de Twitter une zone de « guerre civile » dystopique

25 février 2026 à 15:12

Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.

Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.

Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.

L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.

John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.

Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.

John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».

Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».

Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.

Datacenters : c’est quoi un campus, les Tiers, un hyperscaleur, la colocation, on premise…

25 février 2026 à 14:51
DC Comiques
Datacenters : c’est quoi un campus, les Tiers, un hyperscaleur, la colocation, on premise…

Dans le monde des datacenters, on voit souvent passer des termes abscons comme « on premise », des niveaux Tiers, de l’hyperscale, des Campus (IA), etc. Next vous explique ce qui se cache derrière. Parfois une définition bien précise, mais pas toujours.

Dans une précédente série d’articles, nous avions expliqué ce qu’était un datacenter, en partant du plus petit élément : un serveur. Nous sommes ensuite passés à la baie de brassage (ou rack) et enfin au datacenter en lui-même, avec tout ce qu’il doit apporter aux équipements informatiques.

Nous étions arrivés à la conclusion qu’un datacenter, c’est le bâtiment qui fournit le gîte et le couvert (au sens du refroidissement, de l’électricité, de la sécurité des locaux, de la mise à disposition de fibre optique…) à des serveurs et donc aux applications qui tournent dessus. Des datacenters, il en existe de toutes les tailles ou presque.

Passons maintenant à des explications sur les termes utilisés par les acteurs du monde des centres de données.

C’est quoi un parc ou un campus ?

Parc ou campus de centres de données a une définition officielle publiée au Journal de l’Union européenne : « une installation qui abrite plusieurs centres de données ». On peut facilement extrapoler à un Campus IA : une installation avec plusieurs datacenters pensés pour l’intelligence artificielle, et donc avec de gros GPU.

Dans le cas d’un Campus ou d’un Parc, « l’exploitant de chaque centre de données doit mettre à la disposition du public et communiquer à la base de données européenne un ensemble distinct d’informations et d’indicateurs de performance clés pour chaque centre de données de l’installation », précise le document de la Commission européenne.

C’est quoi la haute densité ?

La notion de haute densité est associée à celle de la puissance électrique (et donc de la consommation). Plus la puissance électrique est importante, plus la densité est élevée, c’est aussi simple que cela. Il n’existe pas de seuil officiel (même vague) à partir duquel parler de haute densité. Pire encore, au fil des évolutions, la haute densité d’hier devient la densité classique d’aujourd’hui. Haute densité électrique implique aussi un refroidissement adapté.

Vous l’avez certainement compris, parler de haute densité ne veut donc pas dire grand-chose si l’hébergeur ne précise pas la puissance électrique par baie (souvent en kW), par exemple. Il existe aussi la très haute densité, la densité extrême, avec les mêmes inconnues sur les seuils.

S’il fallait s’essayer à dresser de grandes lignes, on pourrait dire que la haute densité commence à une dizaine de kW, la très haute densité à quelques dizaines de kW et la densité extrême dépasse allègrement les 100 kW par rack. La baie NVIDIA GB200 NVL72 (.pdf) avec 72 GPU B200 Blackwell et 36 CPU Grace est par exemple à 135 kW. Les kW sont pour les baies, au niveau des datacenters on parle de MW.

Dans son rapport (.pdf) sur les implantations de datacenters en France, la Direction générale des entreprises est encore plus floue : « Les centres haute densité pour le calcul haute performance (HPC) et l’entrainement de modèles d’IA sont une branche émergente et en expansion rapide du secteur des centres de données ». La haute densité est ici associée à la puissance de calcul.

C’est quoi un hyperscaleur ?

Wikipédia donne la définition suivante pour hyperscale : « la capacité d’une architecture technique à s’adapter rapidement à des demandes importantes de ressources (dans des systèmes à grande échelle) ». Dans le monde de l’informatique et du cloud plus précisément, c’est la capacité pour une entreprise de proposer de la puissance de calcul et du stockage à grande échelle. Un hyperscaleur dispose donc de datacenters bien plus gros que la moyenne, ce sont les géants des centres de données.

Les plus connus sont AWS (Amazon Web Services), Microsoft Azure, Google Cloud, Meta, Alibaba Cloud, etc. Comme avec la haute densité, Redhat rappelle qu’il « n’existe pas de norme universelle qui permette de définir précisément la catégorie des hyperscalers ».

C’est quoi la colocation ?

Il n’y a pas de piège ici. Un datacenter de colocation vous permet de louer une partie du datacenter pour y installer vos équipements. Cela peut aller d’un serveur à tout ou partie d’une baie, voire d’une salle dédiée. Suivant les cas, les propriétaires des serveurs peuvent ajouter des protections pour limiter l’accès aux serveurs (si une baie est partagée, plusieurs clients peuvent alors y accéder).

« Le centre de données prend en charge des services essentiels tels que l’alimentation électrique redondante, la climatisation, la surveillance et la sécurité. Ces installations permettent une disponibilité constante des systèmes, même en cas de panne ou de surcharge », explique OVHcloud.

C’est comme une colocation dans un appartement : l’eau, l’électricité, la connexion Internet et le refroidissement sont communs, ensuite chacun dispose de son espace dédié. Vous pouvez généralement choisir l’emplacement, avec une capacité électrique. Des options permettent d’augmenter la puissance, la connectivité, etc.

C’est quoi on premise et edge ?

C’est encore plus simple : un serveur ou du matériel « on premise » veut dire sur site, dans votre bâtiment. Vous n’êtes pas chez un hébergeur ; vous gérez tout de A à Z. Il faut donc construire et entretenir l’infrastructure, mais vous êtes seul maître à bord. Vos données ne dépendent pas d’un tiers. C’est un avantage pour la confidentialité, mais un défi pour la sécurité et la disponibilité (vous êtes seul responsable).

Quand il est question de datacenter « edge », cela veut simplement dire que les installations informatiques sont disposées à proximité des utilisateurs, des clients finaux. Vous pouvez utiliser un prestataire (les hyperscaleurs ont des datacenters un peu partout dans le monde) ou gérer vous-même, il n’y a pas de règle.

C’est quoi les niveaux Tier I à IV ?

Terminons par les Tiers, une classification des datacenters qui est, selon HPE, « un bon moyen de communiquer rapidement les caractéristiques attendues d’un datacenter ». L’Uptime Institute définit quatre niveaux, en fonction des équipements et de la redondance des équipements du datacenter. Le plus bas est Tiers I, le plus élevé Tiers IV.

Tier I est le niveau de capacité de base avec une « alimentation sans interruption (ASI) pour les coupures de courant et les pointes. Un domaine pour les systèmes informatiques. Équipement de refroidissement dédié qui fonctionne en dehors des heures de bureau. Un générateur de secours pour les coupures de courant […] Tier I protège contre les perturbations dues à une erreur humaine, mais pas une défaillance ou une panne inattendue ». HPE résume ainsi : « peu ou pas de composants redondants et de secours ».

Tier II propose des capacités de redondance pour l’alimentation et le refroidissement. Dans un datacenter Tier II, « les composants peuvent être retirés sans les arrêter ». Néanmoins, « comme une installation de Tier I, l’arrêt inattendu d’un datacenter de Tier II affectera le système ». HPE simplifie : « Un datacenter de classe 2 dispose d’une seule voie pour l’alimentation et le refroidissement, mais présente quelques composants redondants et de secours ».

Avec Tier III, « ces installations ne nécessitent aucun arrêt lorsque l’équipement doit être entretenu ou remplacé. Les composants de Tier III sont ajoutés aux composants de Tier II afin que toute pièce puisse être arrêtée sans affecter le fonctionnement informatique ». HPE y va de son explication : il y a « plusieurs voies pour l’alimentation et le refroidissement ».

Tier IV est le niveau le plus élevé : « Lorsqu’un équipement tombe en panne ou qu’il y a une interruption dans le chemin de distribution, les opérations informatiques ne seront pas affectées […] Les datacenters de Tier IV nécessitent également un refroidissement continu pour rendre l’environnement stable ». La version HPE : « tous ses composants sont en redondance ».

Fin janvier 2026, Thésée Datacenter affirmait être le « premier et seul Tier IV Certifié Uptime en France ». L’entreprise ajoutait qu’un « datacenter Tier IV affiche une disponibilité de 99,995 %, ce qui se traduit par un temps d’arrêt annuel maximal de seulement 26,3 minutes ».

Sur un Tiers III, la disponibilité est de 99,982 %, soit environ 1,6 heure d’arrêt par an selon Thésée Datacenter. HPE ajoute qu’un Tier II à une disponibilité de 99,741 % (22 heures de temps d’arrêt par an) et un Tier I de 99,671 % (28,8 heures de temps d’arrêt par an).

Dans un précédent dossier, nous avions pour rappel déjà abordé les questions environnementales avec les indicateurs PUE, WUE et CUE :

☕️ YouTube étoffe son Premium Lite avec lecture hors-ligne ou en arrière-plan

25 février 2026 à 14:15

YouTube a annoncé mardi une évolution à venir de son abonnement Premium Lite, qui autorisera bientôt le téléchargement (pour une consultation hors ligne au sein de l’application) et la lecture en arrière-plan sur « la plupart des vidéos ».

Cette mise à jour doit intervenir « dans les prochaines semaines », sur tous les marchés où YouTube Premium Lite est déjà disponible. D’abord testée aux États-Unis et dans dix pays, cette formule plus accessible de l’abonnement payant à YouTube avait été étendue à de nouvelles zones, dont la France, en juillet dernier.

En ajoutant le téléchargement et la lecture en arrière-plan, YouTube réduit l’écart qui sépare Premium Lite, affichée à 7,99 euros par mois pour un particulier, de la formule Premium classique facturée 12,99 euros par mois.

Cette dernière conserve toutefois l’exclusivité des clips et vidéos musicales dépourvus de publicités, ainsi que de certaines fonctionnalités d’interface, comme la mise en file d’attente. Surtout, YouTube Premium est le seul abonnement qui fait disparaître totalement la publicité.

Avec Premium Lite, il n’y a en principe pas de réclame sur la plupart des vidéos, mais des publicités peuvent apparaître lors de la navigation ou dans le contexte de recherches, indique l’astérisque qui accompagne le résumé comparatif des deux offres.

Premium Lite gagnera dans les prochaines semaines la lecture hors ligne ou en arrière-plan, réservée jusqu’ici à l’abonnement Premium standard – crédit YouTube

☕️ OnlyOffice 9.3 simplifie la signature et l’édition de PDF

25 février 2026 à 13:44

En décembre, OnlyOffice 9.2 officialisait son agent IA pour le travail bureautique. Une nouvelle mise à jour 9.3 vient d’être mise en ligne. Elle permet « de signer des formulaires par saisie de texte, dessin directement sur l’écran ou téléchargement d’une image ». Pour les pros, « une nouvelle fonctionnalité de sécurité permet de télécharger un certificat de signature via le panneau d’administration afin d’apposer des signatures numériques fiables sur les formulaires PDF ».

L’éditeur de PDF a été amélioré afin de prendre en charge « la modification des fichiers protégés par mot de passe, la gestion des hyperliens, le suivi de l’historique des versions et la possibilité de masquer du texte à partir du panneau d’outils contextuel ». Il supporte aussi les macros.

D’autres changements sont de la partie sur la partie collaborative, avec par exemple des commentaires améliorés avec des couleurs sur les documents textes et un rendu accéléré sur les feuilles de calcul volumineuses, notamment celles de plus de 3 Mo.

Impossible de passer à côté : l’IA est toujours plus présente avec des assistants personnalisés : « Cette
fonctionnalité permet de créer et d’enregistrer des invites IA spécifiques pour les opérations textuelles dans l’éditeur de documents
 ».

Les notes de version détaillées se trouvent par ici. Pour télécharger OnlyOffice, c’est par là. Une vidéo de présentation a aussi été mise en ligne.

❌