Vue normale

Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

27 mars 2026 à 16:17
Le plus important, ça n'est pas la chute
Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.

Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.

Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).

Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.

Différences de points de vue

Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.

Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.

Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.

L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.

« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.

Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.

Trilogues à venir

Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :

« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »

Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :

« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »


OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

27 mars 2026 à 15:50
Le business contre la « règle 34 »
OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

Faisant face à une opposition interne depuis des mois et à un besoin de montrer que son entreprise peut proposer des outils utiles dans l’environnement professionnel, Sam Altman semble (non sans mal) accepter d’abandonner l’idée de mettre en place une version pornographique de ChatGPT.

Suivant les velléités d’Elon Musk avec son IA Grok de permettre aux utilisateurs de générer des images et des textes pornographiques, en octobre dernier, Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié.

Mais le monde des adultes ramènerait le CEO d’OpenAI vers le « serious business ». Comme l’explique le Financial Times quelques jours après que l’entreprise a annoncé l’abandon de Sora 2, OpenAI a suspendu « pour une durée indéterminée » son projet de lancement de la version pornographique de son chatbot pour se concentrer sur ses autres projets. La version « adulte » de ChatGPT avait déjà été reportée au début du mois. L’entreprise affirmait toujours croire au projet mais « il faudra plus de temps pour acquérir l’expérience nécessaire », ajoutait-elle à l’époque.

Des investisseurs peu motivés par le projet

Les voix de certains investisseurs se seraient jointes aux critiques émises en interne sur le projet. En effet, celui-ci était déjà critiqué par des salariés mais aussi par un comité d’experts furieux et unanimement opposé, créé le jour même où Sam Altman avait exprimé sa volonté de créer ce mode « adulte ».

L’entreprise a affirmé au journal économique britannique qu’elle voulait finalement d’abord mener des recherches à long terme sur les effets des conversations à caractère sexuel explicite et l’attachement affectif avant de prendre une décision sur le lancement de cette version de son chatbot, ajoutant qu’il n’y avait pour l’instant pas de « preuve empirique » sur la question.

Mais, selon des sources du Financial Times, certains investisseurs étaient inquiets à la fois des risques liés à ce genre d’outil et du peu de potentiel de croissance qu’il pouvait apporter à l’entreprise.

Des risques de faux positifs sur l’estimation de l’âge des mineurs

Concernant les risques, ce n’était pas seulement lié à de potentielles polémiques et attaques en justice sur la gestion de tel ou tel contenu problématique, comme ce qu’on a pu voir avec les deepfakes générés par Grok visant à dénuder des femmes, parfois mineures. Mais comme nous l’expliquions, l’entreprise a aussi du mal à proposer un outil de prédiction d’âge maison qui ne laisse aucun enfant passer la barrière. Ainsi, il classait encore récemment à tort 12 % des mineurs comme des adultes.

Ces décisions sont prises une semaine après que le Wall Street Journal affirme qu’OpenAI allait réduire ses projets parallèles pour se concentrer sur son cœur de métier. Le journal économique américain expliquait que l’entreprise de Sam Altman était sous la pression d’Anthropic qui s’est imposée comme la startup rivale qui propose des solutions pratiques et novatrices dans le cadre du travail, comme Claude Code ou Cowork.

« Nous ne pouvons pas laisser passer cette occasion parce que nous sommes distraits par des activités secondaires », affirmait la responsable des applications d’OpenAI, Fidji Simo, à son équipe récemment selon Business Insider, ajoutant que l’entreprise devait absolument améliorer sa productivité dans le secteur professionnel, puis dans le secteur grand public.

La Wikipedia anglophone interdit l’édition assistée par modèles de langage

27 mars 2026 à 14:48
IA pas d'arrangement
La Wikipedia anglophone interdit l’édition assistée par modèles de langage

La version anglophone de l’encyclopédie participative a décidé d’interdire l’utilisation de l’IA générative pour la plupart des modifications de ses pages. Wikipédia en allemand a aussi récemment restreint cette utilisation.

« Les textes générés par des grands modèles de langage (LLM) tels que ChatGPT, Gemini, DeepSeek, etc. enfreignent souvent plusieurs des principes fondamentaux de Wikipédia », explique maintenant une page de la version anglophone de l’encyclopédie consacrée à la rédaction d’articles à l’aide de grands modèles de langage.

Deux petites exceptions pour l’usage de l’IA générative dans la Wikipédia anglophone

Les éditeurs ont donc décidé que, désormais, « l’utilisation des grands modèles de langage (LLM) pour générer ou réécrire le contenu d’articles est interdite » (toujours concernant la version anglophone). Même si peu de personnes ont participé au vote (46), une large majorité (44) a voté en faveur de cette nouvelle règle quand seulement deux personnes s’y sont opposées, comme on peut le lire dans le résumé des discussions.

Le texte ajoute quand même deux exceptions pour lesquelles les utilisateurs de la Wikipédia anglophone peuvent utiliser des outils intégrant des LLM.

Ainsi, la règle permet cette utilisation aux éditeurs pour « obtenir des suggestions de corrections de fond concernant leurs propres textes ». L’intégration de ces suggestions doit néanmoins se faire « après vérification humaine », et « à condition que le LLM n’ajoute pas de contenu de son propre chef ».

La Wikipédia anglophone accepte aussi l’utilisation de ces outils pour traduire des pages d’autres versions linguistiques de l’encyclopédie, à condition de suivre les règles récemment mises en place à ce sujet. En effet, les « hallucinations » venues de traductions par IA avaient déjà fait bouger les lignes à ce sujet.

Une utilisation difficile à objectiver et un déni toujours possible

Un dernier paragraphe concède que certains utilisateurs peuvent avoir un style d’écriture qui se rapproche de celui d’une IA générative. Ainsi, le texte demande à ce que les éventuelles sanctions prises au nom de l’utilisation de modèles de langage s’appuient plus sur l’infraction des principes fondamentaux de Wikipédia que sur l’éventuelle signature stylistique et linguistique d’un texte.

Mais l’une des éditrices ayant voté en faveur de cette règle exprime quand même la crainte que son adoption soit vaine : « Je crains tout de même un peu que l’approche que nous adoptons dans ces directives n’encourage le mensonge (surtout compte tenu de la réserve selon laquelle, si le texte est de bonne qualité, la directive ou la politique ne sera pas appliquée, alors à quoi bon ?) et qu’il soit difficile de les faire respecter correctement ».

Une interdiction d’usages jugée utile par certains

Pour l’une des personnes qui s’y est opposée, la formulation proposée ne fait pas la distinction entre l’utilisation des LLM pour générer du « slop » et « un processus de travail beaucoup plus restreint, dans lequel un éditeur expérimenté identifie les sources, définit le cadre de la tâche, vérifie le résultat par rapport aux sources et assume l’entière responsabilité de ce qui est publié ».

« Mettre tout cela dans le même panier n’aide personne », ajoute celle pour qui « « l’utilisation des LLM pour générer ou réécrire le contenu d’articles est interdite » : c’est tout simplement trop radical ».

Dans les discussions avant vote, un autre utilisateur expliquait en quoi, pour lui, les LLM pouvaient être utiles dans l’édition de Wikipédia : « une utilisation que j’ai trouvée utile consiste à importer le fichier PDF d’une source que je viens de lire dans le LLM en lui donnant la consigne suivante : « génère une référence au format Wikipédia pour ce document. Si des informations bibliographiques manquent, effectue une recherche sur Internet pour les trouver et fournis-moi les liens vers les sources où tu as trouvé ces informations manquantes afin que je puisse vérifier leur exactitude » ».

Mais, comme l’explique une des personnes en faveur de l’interdiction, le besoin de « remédier au déséquilibre flagrant entre l’effort nécessaire pour générer du contenu IA slop et celui requis pour le nettoyer » l’a emporté.

Les Wikipédia germanophone et francophone avancent aussi sur le sujet

L’utilisation des outils s’appuyant sur les LLM n’agite pas que la communauté anglophone. Comme nous l’expliquions l’année dernière, la communauté francophone a déjà adopté, à l’époque, un texte de recommandation sur l’usage de l’IA générative.

Le résumé de ce texte affirme que « l’intelligence artificielle générative (IAg) n’apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu. Son utilisation est donc vivement déconseillée ».

Jules*, l’un des administrateurs de Wikipédia en français, affirme cependant sur Bluesky qu’ « en pratique, les blocages pour mésusage de l’IA générative se multiplient » et il ajoute qu’« il est probable qu’une nouvelle itération [de la recommandation] survienne dans les prochains mois ».

Il pointe aussi qu’en février dernier, la Wikipédia germanophone s’est dotée « d’une recommandation stricte sur l’IA générative », dixit la newsletter francophone du projet.

Elle indique : « Wikipédia est un projet dont le contenu est documenté et rédigé par des humains pour des humains. L’utilisation de l’intelligence artificielle générative dans le cadre de l’élaboration de contenus pour Wikipédia est donc fondamentalement indésirable, à quelques exceptions près, qui sont énumérées ci-dessous ».

Sont ainsi autorisés le recours à la traduction automatique, qui fonctionne avec le support de l’IA, l’utilisation d’outils basés sur l’IA pour la détection des erreurs (mais, contrairement aux robots de Wikipédia, toute modification doit être validée par un humain), ainsi que la recherche avec l’aide de l’IA.

☕️ Sony augmente de 100 euros le prix des différentes versions de la PS5

27 mars 2026 à 14:23


La hausse de prix est aussi significative que globale : Sony a annoncé vendredi 7 mars une révision des tarifs de sa console de salon vedette, la PlayStation 5, dans le monde entier. En Europe, les trois versions de la console voient leur prix public augmenter de 100 euros, à compter du 2 avril 2026.

La PS5 standard passe à 650 euros, tandis que la PS5 édition numérique (sans lecteur optique physique) grimpe à 600 euros. Enfin, la PS5 Pro est désormais affichée à 900 euros. Le PlayStation Portal (lecteur à distance) voit lui aussi son prix public conseillé grimper de 220 à 250 euros.

Les nouveaux prix publics conseillés s’appliquent à partir du 2 avril sur les principaux marchés – capture d’écran

« Nous savons que les changements de prix ont un impact sur notre communauté et, après une évaluation minutieuse, nous avons conclu qu’il s’agissait d’une étape nécessaire pour garantir que nous puissions continuer à offrir des expériences de jeu innovantes et de haute qualité aux joueurs du monde entier. », commente Sony qui invoque, sans surprise, des « pressions continues dans le paysage économique mondial » pour justifier sa décision.

La PS5 avait déjà subi une hausse de prix au printemps 2025 en Europe. À l’époque, la hausse épargnait toutefois la PS5 Pro, lancée quelques mois plus tôt à 800 euros.

Financé par Xavier Niel, le français Ibou lance son alternative à Discover

27 mars 2026 à 13:49
Un projet ibouriffant
Financé par Xavier Niel, le français Ibou lance son alternative à Discover

Élaboré par des ingénieurs venus du monde du référencement naturel, le futur moteur de recherche français Ibou a lancé cette semaine la première brique de son modèle : un « Explorer », présenté comme une alternative aux algorithmes de recommandation des grands acteurs états-uniens. La société annonce dans le même temps avoir recueilli le soutien financier d’un certain Xavier Niel.

Alors que les réseaux sociaux ou les moteurs de recherche sont régulièrement pointés du doigt pour leurs algorithmes de recommandation et toutes les techniques relevant de l’économie de l’attention, peut-on envisager de créer un outil de découverte d’articles d’actualité respectueux de la vie privée ?

Telle est en tout cas l’ambition affichée par le projet français Ibou, qui vient de mettre en ligne la première brique de son futur moteur de recherche conversationnel, dont Next avait présenté en détail les enjeux et les perspectives en septembre dernier.

Une alternative à Google Discover

Tous les navigateurs et les moteurs de recherche disposent aujourd’hui de fonctions de recommandations algorithmiques, à commencer par le plus populaire d’entre eux, Google. Ibou Explorer prend le contrepied de ces outils « en privilégiant la qualité éditoriale et le pluralisme des points de vue plutôt que le seul engagement ».

En pratique ? Le portail mis en ligne prend la forme d’une sélection assez générique d’articles d’actualité issus de grandes marques média, et distribuée selon plusieurs catégories, dont une rubrique « Sciences et Tech ». Ibou invite, ou incite, l’internaute à créer un compte pour personnaliser cette sélection d’articles grâce à un système de j’aime / je n’aime pas. Le portail propose également un système de signets qui permet de centraliser des articles à lire plus tard.

Après quelques jours, la sélection a évolué mais difficile d’affirmer qu’elle colle à mes goûts compte tenu de son caractère éclectique – capture d’écran Next

Les cartes de présentation des articles se limitent à un titre et un visuel, ainsi qu’au logo du média source. Il n’y a, à ce stade, aucun résumé généré par IA, et le projet revendique son engagement en matière de respect des éditeurs et des créateurs de contenus.

« Journalistes, blogueurs, photographes, développeurs : chaque créateur mérite la visibilité et le trafic que son travail a gagné », affirme l’entreprise, qui promet par ailleurs de respecter à la lettre les consignes des éditeurs en matière d’indexation.

« Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux. », nous avait confirmé Sylvain Peyronnet, PDG et cofondateur de Babbar, l’entreprise éditrice d’Ibou.

Un fonctionnement partiellement expliqué

Comment sont classés les contenus et sur quelle base le moteur fait-il évoluer ses recommandations ? Sur la page qui présente sa « vision », Ibou renouvelle sa promesse de favoriser la découverte et la diversité à la performance pure. « Pas de bulles, pas de manipulation émotionnelle. », écrit la startup.

Testé pendant quelques jours, le portail repose à ce stade sur une sélection limitée de médias, et il n’est pas évident d’évaluer de façon empirique l’efficacité de l’algorithme de recommandation. Il semble avoir saisi que les actualités liées à la cybersécurité et aux impacts de l’IA ou de la guerre en Iran nous intéressent tout particulièrement, mais persiste à nous suggérer des publications sur certains thèmes ou émanant de médias pourtant systématiquement « dislikés ».

Version bêta oblige, l’entreprise cherche logiquement à ajuster ses curseurs. Contactée par nos soins, elle confirme d’ailleurs n’avoir pas finalisé la réflexion liée à la personnalisation éventuelle des publicités affichées par le service.

L’entreprise avait présenté quelques éléments du fonctionnement de son Explorer en septembre dernier, dans un billet de blog dédié. « Cette personnalisation que nous effectuons dépend de ce que les utilisateurs expriment, mais aussi des articles vus et appréciés par l’utilisateur. En cas d’arbitrage nécessaire, c’est ensuite les qualités en termes de performances supposées de chaque article qui fera la différence », expliquait-elle alors.

Ibou écrivait également à cette occasion travailler à un filtre pensé pour pénaliser les contenus « mal faits avec de l’IA », mais aussi les articles susceptibles de faire porter un risque sur les lecteurs, parce qu’ils dispensent par exemple « des conseils médicaux ou juridiques qui, mal utilisés, pourraient amener à un préjudice irréversible ».

Un facteur également pris en compte par Google dans son Discover, et qui explique sans doute en partie pourquoi l’algorithme présente une telle proportion d’articles relevant plus du divertissement que de l’information.

Un historique disponible en un clic

En attendant de voir jusqu’où l’entreprise lèvera le capot sur le fonctionnement de son outil, Ibou Explorer affiche de façon claire les éléments liés à la confidentialité et donc à l’utilisation faite des données personnelles de l’utilisateur.

L’entreprise collecte les interactions de l’utilisateur lorsqu’il est connecté à son compte (clics, likes, dislikes, signets) et affirme les utiliser pour personnaliser les suggestions individuelles et « améliorer l’algorithme de recommandation ».

« Aucune donnée n’est vendue ou partagée avec des tiers », promet Ibou Explorer, dont le profil utilisateur permet de récupérer en un clic un fichier .json contenant l’intégralité des interactions enregistrées par le site.

Le profil permet de réinitialiser ses infos ou télécharger son historique en un clic (sous forme de fichier json) – capture d’écran Next

Xavier Niel entre au capital

« Cette première verticale constitue la première étape visible d’un projet plus large : elle sera progressivement complétée par d’autres verticales — recherche web, images, actualités — pour aboutir à un moteur de recherche conversationnel complet », rappelle l’entreprise éditrice d’Ibou.

Elle peut se targuer d’un nouveau soutien pour développer son projet. Elle annonce en effet avoir accueilli Xavier Niel à son capital, pour un montant non communiqué.

Cette nouvelle levée de fonds complète un tour de table de 2,1 millions d’euros réalisé en 2021. « Ce qui m’a convaincu chez Ibou, c’est d’abord Sylvain et son équipe. Ce sont des gens qui savent de quoi ils parlent, qui ont déjà construit quelque chose de solide et qui ont une vision claire de comment réaliser un moteur souverain. Le reste, ça suit », salue Xavier Niel dans un communiqué reçu par email.

Au fait, qu’est-ce qu’un moteur conversationnel ? « Nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse. Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc. », nous expliquait Sylvain Peyronnet en septembre dernier.

TurboQuant veut réduire grandement les besoins en mémoire des IA génératives… et ça marche

27 mars 2026 à 10:39
On en revient toujours à Shannon
TurboQuant veut réduire grandement les besoins en mémoire des IA génératives… et ça marche

Des chercheurs de Google ont publié un ensemble d’algorithmes de quantification, nommé TurboQuant. Ils permettent une compression massive réduisant l’utilisation de la mémoire, notamment pour l’IA générative, alors que le prix de la RAM est dans toutes les têtes.

Le nombre de paramètres et la taille de la fenêtre contextuelle des modèles de langage (LLM) prennent une place de plus en plus importante dans leur utilisation, notamment pour traiter des quantités énormes de documents et leur permettre d’augmenter leur acuité. Mais son utilisation intensive demande une quantité importante de mémoire. L’optimisation de la compression de ces informations devient primordiale.

On vous explique le nerf de la guerre : la quantification

La quantification vectorielle est une technique déjà utilisée pour cette compression. Mais jusqu’ici, celle-ci créait au fur et à mesure un « surcoût de mémoire ». Google a annoncé ce mardi 24 mars que ses chercheurs avaient justement mis en place une série d’algorithmes de quantification qui « répond de manière optimale » à ce problème.

De fait, ils avaient mis en ligne leur article sur la plateforme de prépublication scientifique arXiv dès le 28 avril 2025 et celui-ci était passé assez inaperçu. Dans leurs billets, les chercheurs de Google expliquent que leur article a été accepté pour présentation à la conférence scientifique ICLR qui se déroulera du 23 avril au 27 avril 2026 à Rio.


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Aux USA, des sénateurs veulent connaitre la consommation d’énergie des datacenters

27 mars 2026 à 09:40
De toutes les matières, c’est les watts qu’ils préférent
Aux USA, des sénateurs veulent connaitre la consommation d’énergie des datacenters

Pour avoir des données fiables et globales sur la consommation des datacenters, deux sénateurs font appel à l’U.S. Energy Information Administration (EIA). L’Arcep le fait, mais cela se limite à la France et on manque cruellement de données au niveau mondial.

La consommation des datacenters est un sujet qui revient régulièrement sur le devant de la scène, mais sur lequel il est difficile d’avoir des chiffres précis et fiables. Certains opérateurs de datacenters et géants du numérique détaillent leurs consommations, mais de manière disparate.

Des rapports oui, des données fiables… c’est plus compliqué

On retrouve parfois le détail datacenter par datacenter, parfois par pays, continent ou au global, mais d’autres ne donnent aucune information chiffrée et se contentent de grands discours. C’est le cas d’Amazon dans les GAFAM par exemple. Mais, même quand il y a de nombreuses informations, les rapports sont parfois truffés d’erreurs… à se demander s’ils sont réellement lus.

Il n’y a qu’à voir le numéro d’équilibriste de l’ADEME sur le sujet en janvier, qui voulait prévoir la consommation à l’horizon 2035 et 2060. Comme nous l’expliquions alors, ce rapport a le mérite d’exister et d’essayer de faire avancer les choses, mais il doit s’apprécier avec toutes ses imperfections et ses manques, à cause de la transparence très limitée de certains acteurs. Difficile de se projeter sans avoir de chiffres solides à la base.

Et si c’était l’Energy Information Administration qui récoltait les données ?

Aux États-Unis, deux sénateurs (Josh Hawley et Elizabeth Warren) tentent une approche plus directe pour avoir des données fiables : ils « ont envoyé une lettre à la U.S. Energy Information Administration (EIA) pour lui demander de recueillir des détails sur la consommation d’énergie auprès des centres de données – et sur l’impact de cette utilisation sur le réseau », comme le rapporte Techcrunch.

Ils veulent obtenir des « déclarations annuelles complètes sur la consommation d’énergie », indique Wired, qui était le premier à en parler. Ses informations sont « essentielles pour une planification précise du réseau [électrique] et contribueront à l’élaboration de politiques visant à empêcher les grandes entreprises d’augmenter les coûts de l’électricité pour les familles américaines ». Google, par exemple, a multiplié par deux sa consommation électrique entre 2020 et 2024.

« Ce n’est pas la seule information dont tu as besoin, mais c’est certainement un morceau du puzzle », explique Ari Peskoe (directeur du programme de droit de l’environnement et de l’énergie de la Harvard Law School) à nos confrères. La consommation en eau est aussi une donnée importante à prendre en compte.

En France, l’Arcep collecte des données et publie des bilans

Que ce soit pour l’électricité ou l’eau, il faut des informations détaillées en fonction des emplacements géographiques. Cela n’a pas les mêmes conséquences de consommer de l’eau dans des zones avec un fort stress hydrique et/ou une électricité fortement carbonée.

En France, l’Arcep collecte des données, y compris pour les datacenters avec la consommation électrique, en eau, la surface utilisée… Récemment, elle s’est aussi intéressée à l’IA générative et a élargi son rayon d’action sur la collecte de données.

Dans son dernier rapport pour un numérique soutenable, l’Arcep détaillait la consommation en France, au global pour l’année 2023 (avec 21 opérateurs analysés) : 2,4 TWh d’électricité (en hausse de 8 % sur un an), 681 000 m³ d’eau en consommation directe, mais 6 millions de m³ en consommation indirecte. À titre de comparaison, l’Agence internationale de l’énergie atomique (sous l’égide de l’ONU) expliquait que « les datacenters avaient consommé environ 460 TWh d’électricité en 2022 ».

☕️ Effets délétères de TikTok : l’Éducation nationale relance la machine judiciaire

27 mars 2026 à 09:15


Dans un communiqué, le ministère de l’Éducation nationale explique que, « dans le cadre de la procédure d’enquête en cours depuis le 4 novembre 2025 au sujet des agissements du réseau social TikTok, le ministère de l’Éducation nationale vient de transmettre au parquet de Paris un signalement ».

Le parquet de Paris avait en effet ouvert une enquête préliminaire « sur les effets psychologiques de TikTok sur les mineurs » suite au signalement du député (socialiste) Arthur Delaporte, pour qui « le constat est sans appel : TikTok a délibérément mis en danger la santé, la vie de ses utilisateurs ».

Le ministère explique de son côté que « les réseaux sociaux, considérés de manière générale, sont impliqués dans plusieurs suicides d’élèves de collège et de lycée, ainsi que l’ont montré les enquêtes administratives diligentées à ce propos par l’inspection générale du ministère ».

C’est dans ce contexte que le ministre Édouard Geffray « a décidé d’informer la procureure de la République de Paris de faits susceptibles de caractériser plusieurs infractions pénales, liés aux bulles informationnelles dans lesquelles l’algorithme de TikTok enferme ce public vulnérable ».

Le communiqué revient sur « la capacité addictive de la plateforme et la formation de « spirales » de contenus dangereux, notamment liés aux troubles du comportement alimentaire (TCA), à la dépression, à l’automutilation et au suicide ». Il précise que « le seul visionnage de vidéos suffit à déclencher l’engrenage ».

D’autres griefs sont indiqués : favoriser l’exposition des mineurs à des contenus à caractère pornographique ainsi que le système de recommandation de TikTok avec « l’extraction massive de données personnelles des utilisateurs, en violation probable de la législation en vigueur ».

Le ministre explique à Radio France avoir fait un test avec un nouveau compte où il disait avoir 14 ans : « En moins de 20 minutes, sans avoir liké quoi que ce soit […] on s’est retrouvé avec des vidéos dépressives […], des véritables tutoriels de scarifications […], des vidéos d’incitation au suicide ».

Fake news : les fact-checkeurs amateurs se font avoir plus souvent que les autres

27 mars 2026 à 08:39
Le fact-checking est un process, pas un pari
Fake news : les fact-checkeurs amateurs se font avoir plus souvent que les autres

Une étude de l’ARCOM révèle que 60 % des Français pensent être capables d’identifier les fausses informations, mais également que seuls 23 % des autres Français en seraient eux aussi capables. De fait, seuls 23 % des Français ont identifié les sept fausses informations qui leur ont été présentées, mais également 19 % seulement de ceux qui s’estiment pourtant capables de les fact-checker.

En 2024, une étude de l’ARCOM sur le rapport des Français à l’information, conduite auprès d’un échantillon représentatif de 3 400 Français âgés de 15 ans et plus, révélait que 48 % des Français déclaraient douter toujours ou souvent de la fiabilité des informations diffusées dans les médias.

En 2026, une nouvelle étude sur le rapport des Français aux fausses informations révèle que 60 % pensent savoir identifier une fausse information, mais également que 23 % seulement estiment que la plupart des autres Français seraient eux aussi capables de pouvoir le faire. Or, l’étude révèle que « ceux qui s’estiment aptes à identifier les fausses informations sont en réalité plus nombreux à se tromper ».

2 000 individus ont en effet été interrogés en ligne au travers d’un questionnaire de 25 minutes entre les 14 et 26 novembre 2025, via un protocole d’étude nourri par des échanges avec des experts spécialistes des fausses informations (sept chercheurs universitaires, et trois professionnels du fact-checking), et réalisé en partenariat avec VIGINUM, l’agence française en charge de la lutte contre les ingérences numériques étrangères.

79 % estiment que la désinformation présente un risque pour la démocratie

70 % des sondés disent avoir été confrontés à de fausses informations au moins une fois par semaine, dont 33 % au moins une fois par jour, et 13 % au moins une fois par mois. 79 % estiment qu’elles représentent un risque pour la démocratie, « fort » (48 %) ou « très fort » (31 %, mais 38 % chez les 60 ans et plus, contre 26 % pour les moins de 45 ans, et 25 % chez les CSP-).

92 % estiment que la désinformation dégrade la confiance dans les médias, 89 % dans les institutions, 79 % dans les résultats des élections, que cela incite à avoir des comportements dangereux pour la santé et alimente le racisme et les discriminations, 60 % qu’elle freine la lutte contre le réchauffement climatique.

En conséquence, 80 % des sondés considèrent qu’il est indispensable de lutter contre les fausses informations. Un chiffre qui monte à 89 % chez les plus de 60 ans, mais qui n’est que de 74 % chez les moins de 45 ans et les CSP-. 75 % appellent à sanctionner les auteurs de fausses informations, mais 39 % seulement à renforcer les moyens des journalistes et des médias.

34 % ont déjà partagé une fausse information, dont 1/4 en sachant qu’elle était fausse

34 % des sondés reconnaissent cela dit avoir déjà partagé une fausse information. Un taux qui s’élève à 45 % chez les 18 - 24 ans, et à 41 % pour ceux qui s’informent sur les plateformes et les réseaux sociaux. 76 % précisent qu’ils pensaient qu’elle était vraie, mais 24 % savaient qu’elle était fausse, et même 32 % chez les 18 - 24 ans.


Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Tails 7.6 gère automatiquement les ponts Tor pour lutter contre la censure

27 mars 2026 à 07:42


La distribution Tails, axée sur la sécurité et la confidentialité, passe en version 7.6 avec comme principale nouveauté l’intégration des ponts Tor (Tor bridges en anglais) au niveau de l’assistant de connexion intégré au système.

Cette fonctionnalité a fait son apparition dans Tor en juillet 2022 avec la version 11.5 du navigateur. Elle permet de dissimuler la connexion au réseau décentralisé, en introduisant un pont, c’est-à-dire un point d’entrée intermédiaire qui n’est pas identifié comme un nœud Tor, dans le parcours, de façon à contourner les dispositifs de censure.

Dans Tails 7.6, l’assistant de connexion dispose maintenant d’un écran dédié à la configuration de ces ponts, avec la possibilité d’opter pour un point d’entrée par défaut, sélectionné en fonction géographique ou paramétré à la main. L’utilisateur peut également demander la création d’un pont à à la communauté par mail.

Paramétrage d’un pont Tor dans Tails 7.6

« Tails télécharge, via l’API Moat du projet Tor, des informations sur les ponts les plus susceptibles de fonctionner dans votre région. Afin de contourner la censure, cette connexion est dissimulée sous l’apparence d’une connexion à un autre site web grâce à la technique du domain fronting », explique l’équipe de Tails.

La version 7.6 signe également l’introduction de Secrets comme gestionnaire de mots de passe par défaut (en remplacement de KeePassXC), une décision motivée par son interface plus simple et sa meilleure intégration dans GNOME.

Secrets propose de déverrouiller automatiquement l’ancienne base de données KeePassXC, les deux logiciels utilisant le même format de fichier pour stocker les mots de passe. Il est aussi possible d’installer KeePassXC en tant que logiciel complémentaire.

La 7.6 est également l’occasion de corriger divers petits bugs, et de mettre à jour les principaux composants tels que Tor Browser (15.0.8), Thunderbird (140.8.0) ou Electrum (4.7.0).

Les liens de téléchargement, guides d’installation et notes de version sont accessibles via ce billet.

☕️ Fausses promos, pression, articles ajoutés : des pratiques encore nombreuses en Europe

27 mars 2026 à 07:25


La Commission européenne a visiblement pris son temps, mais les résultats d’un « balayage » sur les promotions pendant le Black Friday et le Cyber Monday vient d’être mis en ligne. C’est la conclusion d’une enquête menée par les autorités de protection des consommateurs de 23 États membres (dont la France), ainsi que d’Islande et de Norvège.

Le bilan est sans appel : « Les autorités de protection des consommateurs ont vérifié 314 commerçants en ligne et ont constaté que 30 % faisaient référence à des remises de manière incorrecte lors de ces ventes ». Cela ne devrait surprendre personne, l’UFC-Que Choisir a déjà tiré la sonnette d’alarme à plusieurs reprises. au sujet de ces fausses promotions.

La Commission rappelle que, pour afficher une réduction (en pourcentage ou en euros), « le prix de référence doit être le prix le plus bas appliqué au cours des 30 derniers jours ». Cette règle a été sacralisée par la Cour de justice de l’Union européenne fin 2024 ; elle avait été saisie par une juridiction allemande.

D’autres griefs sont également indiqués par la Commission européenne, à savoir que « 36 % ont tenté d’ajouter des articles facultatifs aux paniers des consommateurs. Parmi ceux-ci, quatre sur dix l’ont fait sans demander clairement leur consentement ».

18 % des enseignes « ont utilisé des techniques de vente sous pression, telles que l’affirmation qu’un produit est épuisé ou l’utilisation de compte à rebours », or d’après les constatations de la Consumer Protection Cooperation, « plus de la moitié de ces cas étaient trompeurs ». La Commission rappelle qu’une « technique de vente sous pression peut être considérée comme trompeuse, par exemple, lorsque son affirmation de rareté est fausse ».

Dans 10 % des cas, une « tarification progressive » était mise en place, avec des « frais supplémentaires ajoutés tardivement dans le processus d’achat, tels que des frais d’expédition ou de service ».

La Commission rappelle enfin qu’ajouter des articles sans consentement, afficher des prix de manière trompeuse, prétendre qu’un produit est épuisé ou cacher des frais « sont des pratiques illégales en vertu du droit de la consommation de l’UE ». Après ce balayage, « les autorités nationales de protection des consommateurs peuvent prendre des mesures à l’encontre des entreprises concernées ». À voir maintenant s’il se passera quelque chose du côté de la répression des fraudes, ou autres.


☕️ La bêta d’Ubuntu 26.04 LTS (Resolute Raccoon) est disponible

27 mars 2026 à 07:02


Cette version 26.04 est importante car c’est une LTS, c’est-à-dire une Long Term Support avec cinq ans de support classique et cinq ans de plus avec Ubuntu Pro. Les LTS sont mises en ligne tous les deux ans, la précédente était donc la 24.04. C’est particulièrement utile dans le cas de serveurs et VPS, comme expliqué dans notre tuto.

Parmi les nouveautés, il y a le passage au noyau Linux 7.0 avec la version 50 de GNOME (avec uniquement Wayland) disponible depuis une semaine environ. Signalons aussi PHP 8.5.2, Samba 4.23, Docker 29, Mesa 26. Les notes de version se trouvent par ici.

Le fond d’écran « raton-laveur résolu » rejoint le bestiaire Ubuntu

Sans oublier que « le retour de mot de passe est désormais activé par défaut afin d’améliorer l’expérience utilisateur ». Sudo-rs affiche pour rappel des * quand on tape son mot de passe. Un retour à l’ancien fonctionnement est possible : sudo visudo et ajoutez Defaults !pwfeedback au fichier de configuration.

Pour les téléchargements, c’est par ici que ça se passe. Pour récupérer un des dérivés – Kubuntu (KDE Plasma), Xubuntu (Xfce), Lubuntu (LxQt), Ubuntu Budgie, Ubuntu Mate, Ubuntu Cinnamon… – c’est par là.

La version finale d’Ubuntu 26.04 est prévue pour le 23 avril.

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

26 mars 2026 à 16:48


La décision était attendue, le Parlement avait prévenu la semaine dernière. C’est désormais officiel (et sans surprise), les députés ont adopté ce jeudi – à une large majorité avec 569 voix pour, 45 contre et 23 abstentions – une « position sur une proposition de simplification (omnibus) modifiant la législation sur l’intelligence artificielle (AIA) ».

Pour les systèmes d’IA à haut risque, les députés proposent, comme prévu, la date du 2 décembre 2027, au lieu du 2 août 2026, soit près d’un an et demi de retard. Également validée, la proposition de repousser au 2 août 2028 « les systèmes d’IA couverts par la législation sectorielle européenne sur la sécurité et la surveillance du marché ».

Autre délai repoussé, celui sur les « règles relatives au marquage numérique des contenus audio, image, vidéo ou des textes créés par l’IA afin d’indiquer leur origine ». Désormais, les députés visent le 2 novembre 2026 alors que cela devait entrer en vigueur cet été. Cela concernera donc les actualités générées par IA, comme le signale déjà notre extension, qui a dans sa base de données près de 12 000 sites.

Au passage, les députés veulent introduire l’interdiction des systèmes de « nudification », c’est-à-dire les applications qui utilisent l’IA pour « créer ou manipuler des images sexuellement explicites ou intimes et qui ressemblent à une personne réelle identifiable, sans le consentement de cette personne ».

Le Parlement précise que cette « interdiction ne s’appliquera pas aux systèmes d’IA dotés de mesures de sécurité efficaces empêchant les utilisateurs de créer de telles images ». Cette semaine, l’Internet Watch Foundation a d’ailleurs sonné l’alerte face à la multiplication d’images et de vidéos pédocriminelles crédibles générées par IA.

Les députés sont également favorables « à ce que les fournisseurs de services puissent traiter des données à caractère personnel afin de détecter et de corriger les biais dans les systèmes d’IA, mais ils ont introduit des garanties pour s’assurer que cela ne se fasse qu’en cas de stricte nécessité ».

Après ce vote, les négociations avec le Conseil sur la version définitive de la loi peuvent désormais commencer, avec ensuite un trilogue avant le vote définitif. La proposition de simplification adoptée ce jour fait partie du septième paquet omnibus sur la simplification proposé par la Commission européenne depuis novembre 2025.

Protection des mineurs en Europe : quatre sites pornos hors la loi, enquête sur Snapchat

26 mars 2026 à 16:20
Quelles surprises…
Protection des mineurs en Europe : quatre sites pornos hors la loi, enquête sur Snapchat

Ce jeudi, la Commission européenne a publié deux communiqués autour de la protection de l’enfance et des mineurs. Snapchat est sous le coup d’une enquête formelle, tandis que les conclusions préliminaires sont tombées pour PornHub, Stripchat, XNXX et XVideos, qui « enfreignent la loi sur les services numériques ».

Le premier communiqué concerne Snapchat, avec l’ouverture d’une procédure formelle pour déterminer si le réseau social « garantit un niveau élevé de sûreté, de confidentialité et de sécurité pour les enfants en ligne, conformément à la législation sur les services numériques (DSA) ».

De nombreux griefs contre Snapchat, une enquête ouverte

Les griefs de la Commission sont nombreux car elle estime que la plateforme a peut-être enfreint les règles en « exposant des mineurs à des tentatives de manipulation et à des recrutements à des fins criminelles, ainsi qu’à des informations sur la vente de biens illégaux, comme des drogues ou des produits à restriction d’âge, tels que les cigarettes électroniques et l’alcool ».

Plusieurs points seront analysés, à commencer par la vérification d’âge (13 ans minimum) à l’entrée de la plateforme. La Commission européenne soupçonne en effet que « l’autodéclaration en tant que mesure d’assurance de l’âge est insuffisante ». Des inquiétudes également de l’Europe concernant « les paramètres du compte par défaut de Snapchat ne fournissent pas suffisamment de confidentialité, de sureté et de sécurité pour les mineurs ».

La modération est aussi pointée du doigt, avec un manque d’efficacité « pour empêcher la diffusion d’informations orientant les utilisateurs vers la vente de produits illégaux […] De plus, elle ne semble pas empêcher efficacement les utilisateurs, y compris les enfants et les adolescents, d’accéder à ce type de contenu ».

Les mécanismes de signalement sont également scrutés de près car, selon la Commission, ils « ne sont ni faciles d’accès ni faciles à utiliser, et pourraient utiliser ce qu’on appelle des dark patterns dans leur conception ».

La Commission lance donc son enquête approfondie afin de collecter des preuves, et demander des comptes à Snapchat si besoin.

« PornHub, Stripchat, XNXX et XVideo enfreignent la législation »

Une autre enquête, toujours axée sur la protection des mineurs, se termine dans le même temps. Elle concerne quatre sites pornos : « La Commission conclut à titre préliminaire que PornHub, Stripchat, XNXX et XVideos enfreignent la législation sur les services numériques pour avoir permis aux mineurs d’accéder à leurs services ».

Selon la Commission, les plateformes « n’ont pas identifié et évalué avec diligence les risques que leurs plateformes présentent pour les mineurs qui accèdent à leurs services ». De plus, même lorsque des risques étaient identifiés, elles « n’ont pas procédé à une évaluation approfondie ».

La réputation avant les risques sociétaux pour les mineurs

Toujours selon l’Europe, les plateformes avec du contenu pornographique ont mis « l’accent de manière disproportionnée sur leurs préoccupations, notamment les dommages liés à la réputation, plutôt que de se concentrer sur les risques sociétaux pour les mineurs, comme l’exige le DSA ».

La Commission ajoute que « Pornhub, Stripchat, XNXX et XVideos n’avaient pas mis en œuvre de mesures efficaces pour empêcher les mineurs d’accéder à leurs services ». Les conditions d’utilisation précisent qu’il faut être majeur, mais « un simple clic confirmant qu’ils ont plus de 18 ans » suffit aux mineurs pour passer. Même problème que pour Snapchat donc.

Pornhub, Stripchat, XNXX et XVideos « doivent mettre en œuvre des mesures »

La Commission estime donc « que Pornhub, Stripchat, XNXX et XVideos doivent mettre en œuvre des mesures de vérification de l’âge respectueuses de la vie privée afin de protéger les enfants contre les contenus préjudiciables ». Ce sont des conclusions préliminaires, qui « ne préjugent pas du résultat final de l’enquête ».

Les quatre plateformes ont désormais la possibilité d’examiner les documents des dossiers d’enquête et de répondre. Elles peuvent aussi, de manière volontaire, prendre des mesures pour corriger le tir. Si les conclusions de la Commission sont validées, des sanctions pourront être prises.

En France, depuis cet été, l’Arcom a intensifié sa lutte et mis en demeure 17 sites pornos de mettre en place des mesures de vérification de l’âge. Dans la foulée, nous avions testé plusieurs méthodes pour prouver son âge à l’entrée des plateformes.

Problème, quelques clics suffisaient parfois pour passer outre, tandis que d’autres validaient parfois n’importe quoi.

Nous sommes par exemple passés avec une fausse carte d’identité de Gabriel Attal récupérée sur Internet, une carte au nom de Dora l’Exploratrice, une vidéo du visage d’une personne sur une banque d’image (avec le watermark)… Pire encore, nous avons refait un tour début février et la situation est toujours catastrophique.

IA : pour éviter la « rupture du pacte social », la CSNP promeut la coordination

26 mars 2026 à 15:58
Dialoguer pour simplifier
IA : pour éviter la « rupture du pacte social »,  la CSNP promeut la coordination

Pour la publication de son avis sur l’adoption de l’intelligence artificielle par les entreprises françaises, la Commission Supérieure du Numérique et des Postes organisait ce 26 mars une table-ronde avec plusieurs des acteurs qu’elle a auditionnés. Next y était.

En matière de développement de l’intelligence artificielle dans les entreprises, la France fait face à trois tensions principales : une tension financière, illustrée par les 420 milliards de dollars d’investissements injectés dans les infrastructures numérique outre-Atlantique sur la seule année 2025 ; une tension énergétique, qui vient concurrencer les objectifs français de « réindustrialisation décarbonée » et une tension sociale, notamment sur la question des emplois des jeunes diplômés.

Tel était le constat posé ce 26 mars par le sénateur Damien Michallet (Les Républicains) alors qu’il présentait l’avis de la Commission Supérieure du Numérique et des Postes (CSNP) sur l’adoption de l’intelligence artificielle par les entreprises françaises. Pour les relever, la CSNP formule 26 recommandations réparties en cinq chapitres : piloter, accompagner (les entreprises et l’adoption de solutions françaises ou européennes), former, dialoguer de manière « renforcée », selon les mots du sénateur de l’Isère, avec les partenaires sociaux, mais aussi simplifier les textes existants.

Nécessité d’adopter l’IA…

Aux trois enjeux identifiés par la CSNP, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff ajoute une tension d’ordre « sociétale », au sens des risques de « détournement des systèmes d’IA à des fins malveillantes ». Ces types de manipulation soulèvent des problématiques « d’ordre démocratique, envers les plus vulnérables » (on entend ici un écho aux débats soulevés par la diffusion massive de deepfakes pornographiques sur Grok), sans oublier aux « entreprises elles-mêmes », susceptibles elles aussi d’être « attaquées » par le biais d’éléments manipulés par IA.


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ AMD annonce son Ryzen 9 9950X3D2 Dual Edition (AM5) avec 208 Mo de cache

26 mars 2026 à 14:44


Tout juste un an après le lancement des Ryzen 9 9900X3D et 9950X3D, AMD remet le couvert avec le Ryzen 9 9950X3D2 Dual Edition avec un « 2 Dual Edition » en plus à la fin de sa référence. La différence ? La technologie AMD 3D V-Cache est présente sur les deux chiplets du processeur.

Le CPU dispose donc toujours de 16 cœurs et 32 threads Zen 5 répartis sur deux chiplets de 8C/16T chacun. Le Ryzen 9 9900X3D a 128 Mo de mémoire cache L3 (série X3D oblige), pour un total de 144 Mo de cache avec les 16 Mo de cache L2 (1 Mo par cœur).

Le Dual Edition double presque la mise avec 208 Mo de cache au total, soit 192 Mo de cache L3 (toujours 16 Mo de cache L2). Avec une simple division, on en déduit que chaque chiplet dispose de 96 Mo de cache L3. Dans tous les cas, le cache L1 est de 1 280 Ko.

La fréquence de base est de 4,3 GHz avec jusqu’à 5,6 GHz en mode boost, soit 100 MHz de moins que le Ryzen 9 9950X3D (5,7 GHz). Autre changement, le TDP du CPU Dual Edition passe à 200 watts, soit une hausse de 30 watts.

Selon AMD, cela permet « des gains de performances de 5 à 10 % par rapport au Ryzen 9 9950X3D ». La disponibilité est prévue pour le 22 avril, mais il y a fort à parier qu’il coûte plus de « 5 à 10 % » que son grand frère. Dans tous les cas, ce sera « le premier processeur de bureau intégrant la technologie AMD 3D V-Cache sur deux chiplets ».

Le processeur utilise un socket AM5 (compatible avec les chipsets 620, X670E, X670, B650E, B650, X870E, X870, B840 et B850). ASRock avait vendu la mèche il y a quelques jours en publiant (et retirant rapidement) une fiche précisant que ses cartes mères AM5 étaient compatibles, comme le rapporte VideoCardz.

☕️ WhatsApp fait le plein de nouveautés : stockage, comptes multiples, transferts, Meta AI…

26 mars 2026 à 14:27


WhatsApp annonce une salve de nouveautés pour son application mobile. Sur la gestion du stockage, la messagerie instantanée de Meta (Facebook, WhatsApp, Instagram…) explique que « vous pouvez désormais rechercher et supprimer les fichiers volumineux directement dans les discussions », via une nouvelle option Gérer le stockage dans les discussions.

C’était déjà possible sur Android, mais c’est désormais aussi le cas sur iOS : sur un seul téléphone, vous pouvez avoir deux comptes connectés en même temps.

WhatsApp ajoute que la « fonctionnalité de transfert de discussions permet désormais de déplacer votre historique de discussion depuis iOS vers Android, en plus du transfert sur une même plateforme ». C’était déjà possible auparavant, mais tout est à présent centralisé dans l’application et WhatsApp promet que, maintenant, « vos conversations, photos et vidéos sont facilement accessibles en quelques appuis seulement ».

Une annonce de nouveautés sur un produit Meta sans parler d’IA ? Bien sûr que non : « Vous pouvez désormais utiliser Meta AI pour retoucher des photos directement dans vos discussions avant de les envoyer ».

Autre nouveauté, « l’aide à la rédaction peut désormais suggérer une réponse en fonction de votre conversation afin que vous puissiez trouver le message idéal, tout en gardant vos discussions complètement privées ».

Comme toujours avec la messagerie, « ces fonctionnalités sont en cours de déploiement et seront bientôt disponibles pour tous ».

☕️ Le Conseil de Trump sur les sciences et technologies rempli de CEO de la tech

26 mars 2026 à 14:07


Plus d’un an après son investiture et après avoir maintes fois attaqué les agences scientifiques de son pays, Donald Trump a nommé les membres de son Comité présidentiel des conseillers en science et technologie (President’s Council of Advisors on Science and Technology PCAST).

Ce comité est présidé, comme annoncé en janvier 2025, par Michael Kratsios (conseiller de Donald Trump depuis son premier mandat) et l’investisseur David Sacks (PayPal, Facebook, Uber, SpaceX, Palantir…).

Illustration : Flock

S’ajoutent à la liste, les noms de :

  • Marc Andreessen (fondateur de Netscape)
  • Sergey Brin (cofondateur de Google)
  • Safra Catz (CEO d’Oracle)
  • Michael Dell (fondateur de Dell)
  • Jacob DeWitte (fondateur d’Oklo)
  • Fred Ehrsam (co-fondateur de Coinbase et Paradigm)
  • Larry Ellison (co-fondateur d’Oracle)
  • David Friedberg (financier)
  • Jensen Huang (CEO de NVIDIA)
  • John Martinis (responsable du Google Quantum AI Lab et prix Nobel de physique 2025)
  • Bob Mumgaard (CEO de Commonwealth Fusion Systems)
  • Lisa Su (CEO d’AMD)
  • Mark Zuckerberg (CEO de Meta)

Si une bonne partie de ces personnalités ont fait des études longues, et parfois dans des universités prestigieuses, ArsTechnica pointe le fait qu’aucun n’est actuellement chercheur.

De fait, ce comité a été créé en 2001 sous George W. Bush et n’a pas une importance primordiale dans la gestion de la politique de la recherche aux États-Unis. Mais cette longue liste de responsables de la tech états-unienne marque en creux le manque de chercheuses et chercheurs sur tous les autres sujets que peuvent couvrir les différentes disciplines scientifiques.

Le WorldModel : comment Yann LeCun et son équipe veulent révolutionner l’IA

26 mars 2026 à 13:29
JEPA tout compris, vous pouvez répéter ?
Le WorldModel : comment Yann LeCun et son équipe veulent révolutionner l’IA

Apprendre à partir du monde plutôt que du langage, c’est le but des « world models ». Yann LeCun et son équipe d’AMI Labs viennent de dévoiler leur premier modèle du genre, LeWorldModel. Comment ça marche ? Quelles différences avec les LLM (grands modèles de langage) ? Quelles sont les limitations et les espoirs ? Next vous explique tout.

Après avoir quitté Meta, Yann LeCun s’est associé à d’autres chercheurs de renom pour lancer AMI Labs (Advanced Machine Intelligence) au début de l’année. Début mars, la start-up levait 890 millions d’euros. Elle vient de présenter son premier modèle : LeWorldModel ou LeWM de son petit nom. C’est un modèle qui apprend et qui, à partir d’actions données, essaye d’anticiper le futur.

LeWorldModel, JEPA, régulariseur gaussien… Wait, what ?!

Présentation rapide : « LeWM est un « world model » basé sur JEPA qui évite l’effondrement des représentations grâce à un simple régulariseur gaussien (SIGReg), s’entraîne de bout en bout à partir des pixels avec seulement deux termes de perte, et atteint des performances de contrôle compétitives pour une fraction du coût de calcul ».

Vous n’avez pas tout compris ? Pas de panique, Next vous explique de façon simple l’approche d’AMI Labs pour apprendre le monde à partir d’images et de vidéos. Le concept n’est pas nouveau, mais la manière de faire est différente et demande moins de puissance de calcul, alors que c’est actuellement le nerf de la guerre des IA (génératives).

Pour être plus performantes, ces IA ont de plus en plus de paramètres (ils se comptent en centaines de milliards), mais ce gain de taille se fait au prix de calculs et d’un besoin en quantité de mémoire (pour charger les paramètres) toujours plus importants. Pour rappel, une requête à ChatGPT avec un seul token, c’est déjà des centaines de milliards de calculs pour répondre.

Apprendre et raisonner « comme les animaux et les humains »

Il y a maintenant plus de quatre ans, alors qu’il était chez Meta, Yann LeCun parlait de « sa vision d’un système d’IA capable d’apprendre et de raisonner comme les animaux et les humains ».


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Samsung lance son navigateur à l’assaut des PC Windows

26 mars 2026 à 11:25


Disponible depuis l’automne dernier sous forme de bêta destinée aux internautes des États-Unis et de Corée du Sud, la version Windows du navigateur de Samsung, basée sur Chromium, est désormais accessible à tous les internautes via le site dédié. Le fabricant y invite à découvrir un « navigateur Web simple et rapide qui donne la priorité à votre confidentialité et à votre sécurité ».

Le site officiel n’est pour l’instant décliné qu’en anglais et en coréen, mais le logiciel est bien traduit en français. Après récupération de l’exécutable d’installation et téléchargement en arrière-plan, on découvre un processus d’installation classique, avec validation des conditions d’utilisation, proposition d’import des favoris depuis un autre navigateur, proposition d’activer un bloqueur de publicités, et bien sûr connexion à un compte Samsung existant.

C’est en effet dans la capacité à établir un pont entre un smartphone ou une tablette Samsung Galaxy et le PC sous Windows, notamment pour synchroniser les données de navigation ou les mots de passe, que réside l’essentiel de la promesse. On peut ainsi demander à afficher, sur son PC, une page précédemment ouverte sur son smartphone.

Le Samsung Browser dispose d’une vue partagée, comme Chrome – capture d’écran Next

À cette continuité entre PC et mobile, le Samsung Browser ajoute, ô surprise, une proposition de valeur axée sur l’IA, avec la présence d’un « assistant Web » capable de proposer un résumé de la page affichée ou d’opérer une traduction à la volée, mais aussi d’opérer des tâches plus complexes, dans une logique agentique. Pour ce faire, Samsung revendique un partenariat avec Perplexity, dont les modalités financières n’ont pas été dévoilées.

« Le navigateur Samsung est conçu pour comprendre le langage naturel et le contexte de la page consultée, ainsi que l’activité entre les onglets, facilitant ainsi l’exploration du contenu et la prise de décision. Cette nouvelle intelligence permet non seulement de répondre aux questions sur la page web, mais aussi de gérer les onglets, de consulter l’historique de navigation et de rester productif sans quitter le navigateur », promet à ce sujet le fabricant sud-coréen.

Si les résumés et la traduction sont accessibles à tous (sous réserve de création d’un compte Samsung), les fonctions liées au partenariat avec Perplexity sont pour l’instant cantonnées aux États-Unis et à la Corée du Sud. On pourra consulter la déclaration de confidentialité associée au logiciel via ce lien.

❌