Vue normale

Reçu — 30 mars 2026 Next - Articles gratuits

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

30 mars 2026 à 15:21

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.

Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.

Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.

44 MW de puissance IT équipés en GB300

Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.

L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).

Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.

L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.

Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?

Une infrastructure au service de Mistral Compute

Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.

« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.

Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.

☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée

30 mars 2026 à 15:10


Cinq mois de prison pour un crime commis dans un état dans lequel elle n’est jamais allée : c’est l’erreur judiciaire dont Angela Lipps, 50 ans, affirme avoir été victime. 
Arrêtée le 14 juin dans sa maison d’Elizabethton, dans l’état du Tennessee, cette mère et grand-mère de famille était visée par un mandat d’arrêt émis à 2 000 km de là, par la police de Fargo, dans le Dakota du Nord. 


Au fil de l’été, la ville a subi plusieurs cas de fraude bancaire, rapporte CNN, ce qui a conduit la police à recourir aux « technologies de reconnaissance faciale de notre partenaire » et à plusieurs « autres étapes d’enquêtes indépendantes du recours à l’IA pour aboutir à une identification », a indiqué le chef du département de police de Fargo au média.

Si ses équipes ont reconnu « quelques erreurs », aucune excuse n’a été présentée à Angela Lipps, dont les conseils déclarent qu’elle a été victime d’une erreur d’identification, notamment provoquée par le recours des forces de police aux outils de Clearview AI, et par un manque d’enquête supplémentaire.

Illustration : Flock

Utilisé par la police de West Fargo, l’outil « a identifié un suspect potentiel présentant des traits similaires à ceux d’Angela Lipps », images transmises ensuite aux équipes de Fargo. À ce moment-là, aucune charge n’était retenue dans la mesure où la police de West Fargo ne disposait pas de suffisamment de preuve pour inculper quiconque.

Le 1er juillet 2025, néanmoins, un juge du Dakota du Nord signait un mandat d’arrêt avec demande d’extradition à l’échelle des États-Unis à l’encontre de Mme Lipps. 13 jours plus tard, celle-ci était arrêtée sous les yeux de ses petits-enfants. Gardée trois mois dans les prisons du Tennessee, Angela Lipps n’a ensuite été envoyée au Dakota du Nord que le 30 octobre. « C’était la première fois que je prenais l’avion, écrit-elle en description d’une campagne GoFundMe. J’étais terrifiée. »

Ce n’est qu’à partir de ce moment qu’un avocat lui a été assigné, puis a démontré, en obtenant ses relevés bancaires, qu’elle n’avait jamais quitté le Tennessee pendant la période des fraudes. Le 23 décembre, le détective de Fargo, le procureur de l’état et le juge se sont mis d’accord pour classer la procédure, indique la police de Fargo.

Les avocats d’Angela Lipps cherchent encore à comprendre pourquoi cette dernière a été retenue autant de temps avant d’avoir accès à un conseil et aux éléments de l’enquête la visant. À Fargo, le directeur des forces de l’ordre Dave Zibolski indique que ses services n’utilisent pas d’IA de manière générale, mais que ses collègues de West Fargo le font. Un membre de ses équipes aurait considéré que les éléments envoyés par les équipes de West Fargo contenaient des images de surveillance, et non un résultat renvoyé par une machine de reconnaissance faciale.

Ses équipes n’utiliseront plus les résultats des systèmes utilisés par la police de West Fargo, faute de bien connaître leur fonctionnement. Dave Zibolski a par ailleurs indiqué considérer des mesures disciplinaires pour les policiers impliqués. Les bureaux du procureur du Dakota se sont par ailleurs déclarés « très intéressés » par des formations sur les risques d’utilisation de la reconnaissance faciale.

La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

30 mars 2026 à 14:40
Flux de conscience
La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

Après avoir détaillé sur Twitch le positionnement qu’elle comptait prendre au sein de la commission CNC Talent, la streameuse Ultia s’est vue suspendue du jury dédié à allouer des financements à divers projets numériques. Ses propos ont notamment gagné en viralité sous l’effet de comptes d’extrême-droite.

L’affaire a commencé sur Twitch, où la streameuse Ultia (291 000 followers, l’une des plus suivies de France) tient ses quartiers depuis près de dix ans. Le 25 mars, elle explique être intégrée au dispositif CNC Talent du Centre national du cinéma et de l’image animée (CNC), pour deux ans. Concrètement, elle est membre du jury d’un « fonds d’aide monétaire aux créateurs de contenus web », explique-t-elle dans son stream, avant de détailler l’intérêt d’y postuler pour celles et ceux qui souhaiteraient l’obtenir.

En ligne, le CNC détaille que l’objet de ce dispositif est d’« identifier les nouveaux talents » sur diverses plateformes sociales (YouTube, Instagram, TikTok, Twitch), pour « favoriser le renouvellement de la création et des formats » qui y sont déployés. Créé en 2017, refondu en début d’année et nommé « Fonds d’aide à la création pour les plateformes sociales », il est doté de 3 millions d’euros par an, tirés du budget général du CNC, rappelle le Figaro. Dans son stream, Ultia détaille le processus concret d’attribution des projets, qui passe par l’analyse d’une quarantaine de dossiers par la dizaine de membre composant le jury. Elle s’attarde ensuite sur ce que ça lui apporte à elle, à commencer par la recherche des formulations et justifications précises permettant d’étayer son jugement des divers dossiers.

Alors qu’elle détaille le positionnement qu’elle compte prendre, et notamment son refus de soutenir des projets portés par des créateurs d’extrême-droite, le stream est « clippé » (c’est-à-dire qu’un court passage en est extrait), publié sur X par le compte @TwitchGauchiste, puis rendu viral par d’autres comptes très en vue, notamment de figures de l’extrême-droite. Rapidement, le CNC annonce suspendre la streameuse. Si la polémique n’est pas la première à toucher l’institution publique, elle illustre aussi certains effets du clipping. Outre donner de la visibilité à certains vidéastes, cette logique d’extraction de quelques images rarement contextualisées en prive d’autres d’une partie de leurs revenus, voire se traduit par des vagues de harcèlement.

Clipping par @TwitchGauchiste

Discutant avec son public, Ultia détaillait le 25 mars certains enjeux de la participation au jury du CNC. Alors que des internautes rappellent les accusations de conflit d’intérêt qui ont concerné le youtubeur Cyprien en 2018, alors que lui-même siégeait dans une commission de la CNC, Ultia indique que les membres du jury doivent sortir de la salle au moment des délibérations si le projet étudié les concernent directement.

Comme les candidatures ne sont pas anonymisées, la streameuse déclare « évident » qu’elle se prononcera en faveur de celles portés par des personnes dont elle connaît et apprécie le travail : « C’est évident que c’est subjectif, c’est pas pour rien qu’on est une bonne dizaine, on est là pour se contredire. » En parallèle, elle explique faire des « background check » des candidats pour éviter de voter pour des créateurs inclus « dans des trucs chelous » ou « dans des scandales ». Et déclare que, si le projet est « proposé délibérément par quelqu’un d’extrême-droite, désolé, ben non, en fait ! ».

Ce sont ces éléments, cités dans le désordre par le compte @TwitchGauchiste (32 000 abonnés), qui ont provoqué l’émoi sur X dès le 26 mars au matin. Actif depuis novembre 2024, le compte anonyme se présente comme un « média » d’analyse du « discours d’extrême gauche ». Auprès de Streetpress comme directement sur leurs canaux de communication, plusieurs créatrices et créateurs de contenu se sont plaints ces derniers mois des campagnes de cyberharcèlement qui avaient découlé de publications ainsi raccourcies du compte X. 



En l’occurrence, l’extrait gagne rapidement en viralité, notamment poussé par des comptes beaucoup plus populaires, dont ceux des influenceurs d’extrême-droite Le Raptor (188 000 abonnés sur X) ou Sardoche (610 000 abonnés sur X). De même, le youtubeur identitaire Kroc Blanc (48 000 abonnés sur YouTube) s’attaque à la streameuse depuis sa plateforme favorite. À 15 h, le jour même, le CNC publie un message selon lequel les propos d’Ultia « contreviennent manifestement à l’obligation de neutralité, d’indépendance et d’impartialité qui s’impose à tous les membres des commissions appelées à formuler un avis sur l’attribution des soutiens financiers du CNC ». La streameuse est suspendue.

Le clipping comme vecteur de cyberviolence

Le soir même, dans un nouveau stream, Ultia exprime son « choc » devant cette décision. Elle explique avoir voulu discuter avant tout « autour de l’objectivité et la subjectivité plutôt qu’(…) autour du CNC », ne pas avoir eu connaissance du « devoir de réserve » que lui imposait sa nouvelle fonction, et regretter l’usage du terme « extrême-droite » : « J’aurais dû dire si c’est quelque chose de raciste, de sexiste, de misogyne, d’homophobe. Peut-être que j’ai fait l’amalgame ».

Elle aussi membre d’une commission du CNC, sa collègue Modiie souligne sur X « la nécessité de suivre [le] règlement » de l’institution , mais s’est « alarmée » du fait « qu’un post X puisse faire pression ainsi sur une commission ».

La polémique se fait par ailleurs sur fond de problématiques liées au clipping, cette pratique consistant à enregistrer des extraits courts de contenus vidéos (souvent des streams, parfois des émissions TV ou autre contenus filmés) pour les faire circuler sur les réseaux sociaux en espérant jouer des mécaniques de viralité. Si certaines créatrices et créateurs poussent leurs abonnés à s’y adonner pour augmenter leur visibilité sur des plateformes extérieures à celle qu’ils investissent habituellement, d’autre s’y opposent ouvertement. En effet, lorsqu’ils les monétisent, les propriétaires de comptes de clipping tirent profit du contenu qu’ils ont copié et extrait de la production d’autres personnes.

Cette pratique est par ailleurs régulièrement critiquée pour sa propension à provoquer des cycles de violence numérique : en isolant un moment fort ou clivant d’une vidéo longue pour en faire un extrait choc, ils cherchent très clairement à jouer de la viralité permise par les algorithmes des principaux réseaux sociaux, mais aussi par le jeu sur les émotions du public. Maghla, une autre des streameuses les plus suivies de France, ou Chloé Gervais, co-animatrice du podcast « Hot Girls Only » et compagne du vidéaste Squeezie, se sont toutes deux plaintes de ces vagues de violence – la seconde a porté plainte contre un compte X.

Il y a quatorze mois, à la barre du procès de plusieurs cyberharceleurs, Ultia se déclarait « fatiguée » des attaques qu’elle subissait en ligne depuis plus de trois ans. Si le cas évoqué au tribunal émanait d’autres communautés numériques, la streameuse soulignait que ce type de comportement lui avait fait manquer à plusieurs reprises des opportunités professionnelles.

Détentions d’armes : un pirate exfiltre des données du SIA (ministère de l’Intérieur)

30 mars 2026 à 13:10
Arme à Geddon
Détentions d’armes : un pirate exfiltre des données du SIA (ministère de l’Intérieur)

Après des revendications la semaine dernière, c’est désormais officiel : un pirate a récupéré des données du système d’information sur les armes du ministère de l’Intérieur. En plus du type d’arme, il dispose aussi de l’adresse des propriétaires.

Le système d’information sur les armes (alias SIA) est un service du ministère de l’Intérieur. « La création d’un compte dans le SIA est obligatoire pour les détenteurs d’armes particuliers majeurs ». Comme le rapporte l’Union Française des amateurs d’Armes, le ministère prévient d’une fuite de données (copie du courier, en pdf). L’information a également été confirmée au Parisien.

« Nous avons le regret de vous informer qu’il a été constaté l’accès, par action malveillante, à un des comptes d’une entreprise utilisatrice du système d’information sur les armes (SIA), entraînant l’extraction de données commerciales présentes dans ce compte, dont certaines sont susceptibles de contenir une ou plusieurs de vos données personnelles ».

Armes et adresses du propriétaire… un combo dangereux !

Cela comprend des informations « relatives à l’arme détenue ou acquise (type, classement, marque, modèle) », mais aussi des données sur leur propriétaire avec le nom et prénom, l’adresse électronique et enfin l’adresse postale. Comme avec la fuite de données de la Fédération française de tir (FFTir), le risque est de voir des personnes malintentionnées tenter de récupérer des armes.

En novembre dernier, la préfecture de police expliquait que « des tentatives de renseignement en vue de commettre des vols par ruse ou par effraction ont déjà été signalées ». Cybermalveillance ajoutait que ce n’était pas qu’une hypothèse : « des repérages suspects ont déjà été signalés aux forces de l’ordre ».

Rappel de l’époque : « la police, la gendarmerie ou la douane ne vous appelleront jamais pour venir chez vous récupérer vos armes suite à la fuite des données de licenciés de la FFTir ». La prudence est de mise face à de possibles sollicitations, d’autant que les attaques cyber ont de plus en plus d’incidences dans le monde physique avec des cybercriminels qui « recrutent des équipes sous-traitantes sur le terrain », rappelait Cybermalveillance la semaine dernière.

Plainte déposée, les investigations continuent

Bien évidemment, comme la loi l’y oblige, cet incident a été notifié à la CNIL. De plus, « le ministère de l’Intérieur a déposé plainte et les services techniques poursuivent les investigations afin de déterminer précisément l’origine de l’incident », précise le communiqué. Ce dernier ajoute que les vérifications du ministère permettent de confirmer que « si l’accès à un compte tiers utilisateur contenant des données relatives à des transactions commerciales a été possible, le système d’information sur les armes n’a pas été atteint ».

Le ministère rappelle les bonnes pratiques : « changer régulièrement de mot de passe » et « ne jamais communiquer ses identifiants et mots de passe ». Cela n’aurait rien changé dans ce cas… et cela ne change rien au fait que des pirates disposent désormais d’adresses de personnes ayant des armes à leur domicile.

L’ampleur de la fuite n’est pas précisée. Selon l’Union Française des amateurs d’Armes, un pirate revendiquait la semaine dernière avoir dérobé des informations sur plus de 62 000 armes. Dans le lot, il y aurait 46 % de carabines, 29 % de fusils de chasse, 11 % de fusils à pompe et 8 % d’armes de poing. « Des chiffres, bien inférieurs au nombre d’armes détenues et référencées dans le SIA (plusieurs millions d’armes), tendent à faire penser que la fuite ne concerne pas l’ensemble du système », expliquait l’Union. Le ministère ne donne aucun chiffre.

Pour rappel, le SIA concerne les personnes « ayant un permis de chasser, détentrice d’une arme, ou souhaitant acquérir et détenir une arme », mais aussi celles titulaires « d’une licence de la Fédération française de tir pour la pratique du tir, du ball-trap ou du biathlon, détentrice d’une arme, ou souhaitant acquérir et détenir une arme », celles avec une « arme héritée ou trouvée », ainsi que les personne « détentrice ou souhaitant acquérir certaines armes de catégorie C » qui ne sont dans aucune des catégories précédentes.

Bluesky teste Attie, un assistant de recherche… basé sur l’IA

30 mars 2026 à 09:58
Le mauvais chasseur, y voit un truc qui bouge, y tire. Alors que le bon chasseur...
Bluesky teste Attie, un assistant de recherche… basé sur l’IA

Bluesky ouvre une expérimentation prudente autour de l’IA avec le lancement d’Attie, un « assistant » censé aider l’utilisateur à trouver des comptes ou des contenus intéressants, en fonction de demandes exprimées en langage naturel. Présentée comme exploratoire, la démarche est accueillie plutôt froidement par les utilisateurs du réseau social.

Organisée entre les 26 et 29 mars, la conférence Atmosphere a réuni pendant quatre jours la communauté des développeurs intéressés par le protocole AT (Authenticated Transfer Protocol). Bluesky, dont le réseau social exploite ce fameux atproto, a profité de l’occasion pour présenter sa dernière application en date. Baptisée Attie (en référence à la façon dont on prononce l’acronyme AT en anglais), elle prend la forme d’un agent IA chargé de construire des flux de messages personnalisés en fonction de la demande de l’utilisateur.

Mieux que le flux chronologique, le flux généré par IA ?

« Décrivez ce que vous souhaitez voir et regardez votre flux se composer automatiquement autour de vous », promet le site dédié à Attie. Le service fait pour l’instant l’objet d’une bêta fermée, mais il propose une liste d’attente à laquelle on peut s’inscrire avec un identifiant Bluesky.

En attendant que les vannes soient ouvertes plus largement, il dispense plusieurs exemples illustrant le fonctionnement d’Attie. Plutôt que de procéder à une recherche par mots-clés, l’interface propose d’entrer une requête en langage naturel, et suggère en retour une sélection de comptes à suivre ou de messages susceptibles d’y répondre. On peut ainsi demander une liste de comptes spécialisés sur une thématique donnée, ou chercher qui parmi les comptes suivis par l’utilisateur publie des poèmes de son cru.

Attie permet par exemple de constituer une liste thématique de comptes à suivre…

Attie permet ensuite de sauvegarder la requête, pour en faire un flux personnalisé. Ce dernier semble pour l’instant cantonné à l’application Attie, mais la logique voudrait qu’il soit à terme possible de l’exporter soit vers Bluesky, soit vers d’autres clients exploitant atproto.

Bluesky présente l’outil comme un agent social. « On a davantage l’impression d’avoir une conversation que de configurer un logiciel. Vous décrivez le type de publications que vous souhaitez voir, et l’agent de codage crée le flux que vous avez décrit », explique Jay Graber, ex CEO devenue responsable de l’innovation chez Bluesky.

… ou de chercher des messages au contenu plus spécifique – captures d’écran

Un appel à vibe coder autour d’atproto

Dans son billet, Jay Graber présente Attie comme une première pierre à caractère exploratoire pour un édifice nettement plus ambitieux : faciliter la création de nouvelles applications capables de tirer parti des échanges sur un réseau atproto, notamment grâce à l’IA.

« Nous avons conçu le protocole AT pour que chacun puisse développer l’application de son choix, mais jusqu’à récemment, n’importe qui ​​signifiait en réalité n’importe qui sachant coder. Les outils de programmation automatisée changent la donne. Pour la première fois, un protocole ouvert est véritablement accessible à tous. »

Attie serait ainsi une forme de démonstrateur de ce qu’il est possible de faire au sein de l’Atmosphere, le terme par lequel Bluesky désigne l’écosystème d’applications et de services construits sur le protocole AT :

« L’Atmosphere est une couche de données ouverte dotée d’un schéma clairement défini pour les applications, ce qui la rend particulièrement adaptée au développement d’agents. Nous nous sommes donc demandé : que se passe-t-il lorsque vous pouvez décrire l’expérience sociale souhaitée et qu’elle est créée pour vous ? »

Un accueil plutôt mitigé

L’interopérabilité et la capacité à développer des services capitalisant sur les promesses d’ouverture et de décentralisation d’atproto (décentralisation très relative dans le cas de Bluesky) fédèrent déjà près d’un millier d’applications, remarque Toni Schneider, investisseur chez True Ventures, dans un billet laudateur.

Sans remettre en cause cette promesse, l’application Attie a de façon plus prosaïque reçu un accueil mitigé sur Bluesky, où divers mèmes circulent pour souligner que personne n’a jamais exprimé le souhait de paramétrer son flux à l’aide d’un agent IA.

Attie compte déjà quelques détracteurs sur Bluesky – source

« Attie est une application distincte, et son utilisation est entièrement à votre discrétion. Bluesky continuera d’évoluer en tant qu’application sociale utilisée par des millions de personnes. Attie sera notre plateforme d’expérimentation pour une interaction sociale proactive », affirme Jay Grabber.

De façon symbolique, l’identifiant Bluesky dédié à Attie est passé lundi midi à la troisième place du classement des comptes les plus bloqués sur le réseau social selon un outil tiers. Attie a ainsi surpassé le compte de l’ICE, la police de l’immigration, et talonne désormais la Maison-blanche, même si le numéro un, le vice-président JD Vance, reste encore hors de portée.

113 000 utilisateurs de Bluesky auraient symboliquement bloqué le compte attie – capture d’écran

☕️ Les créateurs de podcast face au virage vidéo

30 mars 2026 à 09:02


Fini, les médias audios ? Sur Linkedin, la créatrice des podcasts La Poudre et Folie Douce Lauren Bastide indiquait le mois dernier renoncer à la transformation de ses épisodes en vidéo, car le processus « coûte cher, prend du temps, mobilise de l’énergie… pour une valeur ajoutée minimale ».

Dix ans après la création des studios Binge Audio, Paradiso ou Nouvelles Écoutes, les créatrices et créateurs de podcasts comme elle sont face à une évolution d’ampleur : la transformation d’un format axé sur le son à des entretiens désormais filmés, régulièrement animés par des célébrités – des réseaux sociaux, de la culture, de l’entrepreneuriat aussi, pourquoi pas –, et diffusés, en long, sur YouTube. 
La plateforme a en effet tiré l’évolution du format vers la vidéo, poussant des outils historiquement dédiés à l’audio comme Spotify à intégrer des formats vidéos à leur dispositif.

D’après le Figaro, Apple Podcasts devrait faire de même dans les prochaines semaines pour tenter de récupérer des parts d’audience, alors que 46 % de la génération Z états-unienne écoute ses podcasts sur YouTube, 35 % sur Spotify, et seulement 9 % sur Apple Podcasts, selon Coleman Insights. L’évolution a aussi poussé journalistes et créateurs de ces émissions à multiplier les « shorts », ces courts extraits aussi bien promus par YouTube que TikTok.

Auprès du quotidien français, la créatrice Clémentine Galley, dont le programme Bliss Stories sur la maternité enregistre plus de 110 millions d’écoutes, se déclare « déprimée » d’avoir dû passer à la vidéo.

Pour autant, elle constate – de même que Louie Media ou Nouvelles Écoutes – que ce nouveau mode de diffusion lui permet de toucher des publics différents, plus jeunes pour Bliss Stories, moins uniformément urbains et CSP+ pour les podcasts de Louie Media.

Si l’évolution semble positive en termes d’audience, elle ne l’est pas nécessairement en termes de revenus : pour le cofondateur de Binge Audio (racheté le mois dernier par le groupe québécois Urbania), le coût pour mille sur YouTube, en matière de publicités, ne revient qu’à quelques euros, contre 60 à 90 euros pour un podcast classique, centré sur le son.

Illustration : Flock

☕️ Nouvelle fuite de données à la Commission européenne

30 mars 2026 à 06:06


La semaine dernière, le 24 mars précisément, la Commission européenne « a découvert une cyberattaque qui a affecté » sa plateforme Europa.eu, le site web de l’Union européenne. Elle affirme avoir réagi rapidement, mais reconnait tout de même que « les premières conclusions de l’enquête suggèrent que des données ont été extraites ». Les entités concernées sont contactées et informées.

« Les systèmes internes de la Commission n’ont pas été affectés par la cyberattaque. La Commission continuera à suivre la situation et à prendre toutes les mesures nécessaires pour assurer la sécurité de ses systèmes et données internes », ajoute l’institution.

IA Act Europe

Selon Bleeping Computer, la fuite viendrait d’un compte Amazon Web Services (AWS) compromis. « L’auteur de la menace qui a revendiqué l’attaque a contacté BleepingComputer en début de semaine, déclarant avoir volé plus de 350 Go de données (dont plusieurs bases de données) », ajoutent nos confrères.

Afin d’appuyer ses dires, le pirate a fourni à Bleeping Computer des « captures d’écran comme preuve qu’il avait accès à des informations appartenant à des employés de la Commission européenne ainsi qu’à un serveur de messagerie utilisé par des employés ». Il ajoutait « qu’il ne tenterait pas d’extorquer la Commission en utilisant les données prétendument volées comme levier, mais qu’il avait l’intention de divulguer les données en ligne ultérieurement ».

La Commission avait déjà été victime d’une cyberattaque le 30 janvier, « qui a peut-être permis d’accéder aux noms et aux numéros de téléphone portable de certains membres de son personnel ». La brèche avait été colmatée dans les 9 heures, selon la Commission. Cette dernière précisait qu‘« aucune compromission des appareils mobiles n’a été détectée ».

Reçu — 27 mars 2026 Next - Articles gratuits

Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

27 mars 2026 à 16:17
Le plus important, ça n'est pas la chute
Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.

Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.

Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).

Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.

Différences de points de vue

Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.

Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.

Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.

L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.

« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.

Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.

Trilogues à venir

Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :

« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »

Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :

« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »


OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

27 mars 2026 à 15:50
Le business contre la « règle 34 »
OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

Faisant face à une opposition interne depuis des mois et à un besoin de montrer que son entreprise peut proposer des outils utiles dans l’environnement professionnel, Sam Altman semble (non sans mal) accepter d’abandonner l’idée de mettre en place une version pornographique de ChatGPT.

Suivant les velléités d’Elon Musk avec son IA Grok de permettre aux utilisateurs de générer des images et des textes pornographiques, en octobre dernier, Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié.

Mais le monde des adultes ramènerait le CEO d’OpenAI vers le « serious business ». Comme l’explique le Financial Times quelques jours après que l’entreprise a annoncé l’abandon de Sora 2, OpenAI a suspendu « pour une durée indéterminée » son projet de lancement de la version pornographique de son chatbot pour se concentrer sur ses autres projets. La version « adulte » de ChatGPT avait déjà été reportée au début du mois. L’entreprise affirmait toujours croire au projet mais « il faudra plus de temps pour acquérir l’expérience nécessaire », ajoutait-elle à l’époque.

Des investisseurs peu motivés par le projet

Les voix de certains investisseurs se seraient jointes aux critiques émises en interne sur le projet. En effet, celui-ci était déjà critiqué par des salariés mais aussi par un comité d’experts furieux et unanimement opposé, créé le jour même où Sam Altman avait exprimé sa volonté de créer ce mode « adulte ».

L’entreprise a affirmé au journal économique britannique qu’elle voulait finalement d’abord mener des recherches à long terme sur les effets des conversations à caractère sexuel explicite et l’attachement affectif avant de prendre une décision sur le lancement de cette version de son chatbot, ajoutant qu’il n’y avait pour l’instant pas de « preuve empirique » sur la question.

Mais, selon des sources du Financial Times, certains investisseurs étaient inquiets à la fois des risques liés à ce genre d’outil et du peu de potentiel de croissance qu’il pouvait apporter à l’entreprise.

Des risques de faux positifs sur l’estimation de l’âge des mineurs

Concernant les risques, ce n’était pas seulement lié à de potentielles polémiques et attaques en justice sur la gestion de tel ou tel contenu problématique, comme ce qu’on a pu voir avec les deepfakes générés par Grok visant à dénuder des femmes, parfois mineures. Mais comme nous l’expliquions, l’entreprise a aussi du mal à proposer un outil de prédiction d’âge maison qui ne laisse aucun enfant passer la barrière. Ainsi, il classait encore récemment à tort 12 % des mineurs comme des adultes.

Ces décisions sont prises une semaine après que le Wall Street Journal affirme qu’OpenAI allait réduire ses projets parallèles pour se concentrer sur son cœur de métier. Le journal économique américain expliquait que l’entreprise de Sam Altman était sous la pression d’Anthropic qui s’est imposée comme la startup rivale qui propose des solutions pratiques et novatrices dans le cadre du travail, comme Claude Code ou Cowork.

« Nous ne pouvons pas laisser passer cette occasion parce que nous sommes distraits par des activités secondaires », affirmait la responsable des applications d’OpenAI, Fidji Simo, à son équipe récemment selon Business Insider, ajoutant que l’entreprise devait absolument améliorer sa productivité dans le secteur professionnel, puis dans le secteur grand public.

La Wikipedia anglophone interdit l’édition assistée par modèles de langage

27 mars 2026 à 14:48
IA pas d'arrangement
La Wikipedia anglophone interdit l’édition assistée par modèles de langage

La version anglophone de l’encyclopédie participative a décidé d’interdire l’utilisation de l’IA générative pour la plupart des modifications de ses pages. Wikipédia en allemand a aussi récemment restreint cette utilisation.

« Les textes générés par des grands modèles de langage (LLM) tels que ChatGPT, Gemini, DeepSeek, etc. enfreignent souvent plusieurs des principes fondamentaux de Wikipédia », explique maintenant une page de la version anglophone de l’encyclopédie consacrée à la rédaction d’articles à l’aide de grands modèles de langage.

Deux petites exceptions pour l’usage de l’IA générative dans la Wikipédia anglophone

Les éditeurs ont donc décidé que, désormais, « l’utilisation des grands modèles de langage (LLM) pour générer ou réécrire le contenu d’articles est interdite » (toujours concernant la version anglophone). Même si peu de personnes ont participé au vote (46), une large majorité (44) a voté en faveur de cette nouvelle règle quand seulement deux personnes s’y sont opposées, comme on peut le lire dans le résumé des discussions.

Le texte ajoute quand même deux exceptions pour lesquelles les utilisateurs de la Wikipédia anglophone peuvent utiliser des outils intégrant des LLM.

Ainsi, la règle permet cette utilisation aux éditeurs pour « obtenir des suggestions de corrections de fond concernant leurs propres textes ». L’intégration de ces suggestions doit néanmoins se faire « après vérification humaine », et « à condition que le LLM n’ajoute pas de contenu de son propre chef ».

La Wikipédia anglophone accepte aussi l’utilisation de ces outils pour traduire des pages d’autres versions linguistiques de l’encyclopédie, à condition de suivre les règles récemment mises en place à ce sujet. En effet, les « hallucinations » venues de traductions par IA avaient déjà fait bouger les lignes à ce sujet.

Une utilisation difficile à objectiver et un déni toujours possible

Un dernier paragraphe concède que certains utilisateurs peuvent avoir un style d’écriture qui se rapproche de celui d’une IA générative. Ainsi, le texte demande à ce que les éventuelles sanctions prises au nom de l’utilisation de modèles de langage s’appuient plus sur l’infraction des principes fondamentaux de Wikipédia que sur l’éventuelle signature stylistique et linguistique d’un texte.

Mais l’une des éditrices ayant voté en faveur de cette règle exprime quand même la crainte que son adoption soit vaine : « Je crains tout de même un peu que l’approche que nous adoptons dans ces directives n’encourage le mensonge (surtout compte tenu de la réserve selon laquelle, si le texte est de bonne qualité, la directive ou la politique ne sera pas appliquée, alors à quoi bon ?) et qu’il soit difficile de les faire respecter correctement ».

Une interdiction d’usages jugée utile par certains

Pour l’une des personnes qui s’y est opposée, la formulation proposée ne fait pas la distinction entre l’utilisation des LLM pour générer du « slop » et « un processus de travail beaucoup plus restreint, dans lequel un éditeur expérimenté identifie les sources, définit le cadre de la tâche, vérifie le résultat par rapport aux sources et assume l’entière responsabilité de ce qui est publié ».

« Mettre tout cela dans le même panier n’aide personne », ajoute celle pour qui « « l’utilisation des LLM pour générer ou réécrire le contenu d’articles est interdite » : c’est tout simplement trop radical ».

Dans les discussions avant vote, un autre utilisateur expliquait en quoi, pour lui, les LLM pouvaient être utiles dans l’édition de Wikipédia : « une utilisation que j’ai trouvée utile consiste à importer le fichier PDF d’une source que je viens de lire dans le LLM en lui donnant la consigne suivante : « génère une référence au format Wikipédia pour ce document. Si des informations bibliographiques manquent, effectue une recherche sur Internet pour les trouver et fournis-moi les liens vers les sources où tu as trouvé ces informations manquantes afin que je puisse vérifier leur exactitude » ».

Mais, comme l’explique une des personnes en faveur de l’interdiction, le besoin de « remédier au déséquilibre flagrant entre l’effort nécessaire pour générer du contenu IA slop et celui requis pour le nettoyer » l’a emporté.

Les Wikipédia germanophone et francophone avancent aussi sur le sujet

L’utilisation des outils s’appuyant sur les LLM n’agite pas que la communauté anglophone. Comme nous l’expliquions l’année dernière, la communauté francophone a déjà adopté, à l’époque, un texte de recommandation sur l’usage de l’IA générative.

Le résumé de ce texte affirme que « l’intelligence artificielle générative (IAg) n’apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu. Son utilisation est donc vivement déconseillée ».

Jules*, l’un des administrateurs de Wikipédia en français, affirme cependant sur Bluesky qu’ « en pratique, les blocages pour mésusage de l’IA générative se multiplient » et il ajoute qu’« il est probable qu’une nouvelle itération [de la recommandation] survienne dans les prochains mois ».

Il pointe aussi qu’en février dernier, la Wikipédia germanophone s’est dotée « d’une recommandation stricte sur l’IA générative », dixit la newsletter francophone du projet.

Elle indique : « Wikipédia est un projet dont le contenu est documenté et rédigé par des humains pour des humains. L’utilisation de l’intelligence artificielle générative dans le cadre de l’élaboration de contenus pour Wikipédia est donc fondamentalement indésirable, à quelques exceptions près, qui sont énumérées ci-dessous ».

Sont ainsi autorisés le recours à la traduction automatique, qui fonctionne avec le support de l’IA, l’utilisation d’outils basés sur l’IA pour la détection des erreurs (mais, contrairement aux robots de Wikipédia, toute modification doit être validée par un humain), ainsi que la recherche avec l’aide de l’IA.

☕️ Sony augmente de 100 euros le prix des différentes versions de la PS5

27 mars 2026 à 14:23


La hausse de prix est aussi significative que globale : Sony a annoncé vendredi 7 mars une révision des tarifs de sa console de salon vedette, la PlayStation 5, dans le monde entier. En Europe, les trois versions de la console voient leur prix public augmenter de 100 euros, à compter du 2 avril 2026.

La PS5 standard passe à 650 euros, tandis que la PS5 édition numérique (sans lecteur optique physique) grimpe à 600 euros. Enfin, la PS5 Pro est désormais affichée à 900 euros. Le PlayStation Portal (lecteur à distance) voit lui aussi son prix public conseillé grimper de 220 à 250 euros.

Les nouveaux prix publics conseillés s’appliquent à partir du 2 avril sur les principaux marchés – capture d’écran

« Nous savons que les changements de prix ont un impact sur notre communauté et, après une évaluation minutieuse, nous avons conclu qu’il s’agissait d’une étape nécessaire pour garantir que nous puissions continuer à offrir des expériences de jeu innovantes et de haute qualité aux joueurs du monde entier. », commente Sony qui invoque, sans surprise, des « pressions continues dans le paysage économique mondial » pour justifier sa décision.

La PS5 avait déjà subi une hausse de prix au printemps 2025 en Europe. À l’époque, la hausse épargnait toutefois la PS5 Pro, lancée quelques mois plus tôt à 800 euros.

Financé par Xavier Niel, le français Ibou lance son alternative à Discover

27 mars 2026 à 13:49
Un projet ibouriffant
Financé par Xavier Niel, le français Ibou lance son alternative à Discover

Élaboré par des ingénieurs venus du monde du référencement naturel, le futur moteur de recherche français Ibou a lancé cette semaine la première brique de son modèle : un « Explorer », présenté comme une alternative aux algorithmes de recommandation des grands acteurs états-uniens. La société annonce dans le même temps avoir recueilli le soutien financier d’un certain Xavier Niel.

Alors que les réseaux sociaux ou les moteurs de recherche sont régulièrement pointés du doigt pour leurs algorithmes de recommandation et toutes les techniques relevant de l’économie de l’attention, peut-on envisager de créer un outil de découverte d’articles d’actualité respectueux de la vie privée ?

Telle est en tout cas l’ambition affichée par le projet français Ibou, qui vient de mettre en ligne la première brique de son futur moteur de recherche conversationnel, dont Next avait présenté en détail les enjeux et les perspectives en septembre dernier.

Une alternative à Google Discover

Tous les navigateurs et les moteurs de recherche disposent aujourd’hui de fonctions de recommandations algorithmiques, à commencer par le plus populaire d’entre eux, Google. Ibou Explorer prend le contrepied de ces outils « en privilégiant la qualité éditoriale et le pluralisme des points de vue plutôt que le seul engagement ».

En pratique ? Le portail mis en ligne prend la forme d’une sélection assez générique d’articles d’actualité issus de grandes marques média, et distribuée selon plusieurs catégories, dont une rubrique « Sciences et Tech ». Ibou invite, ou incite, l’internaute à créer un compte pour personnaliser cette sélection d’articles grâce à un système de j’aime / je n’aime pas. Le portail propose également un système de signets qui permet de centraliser des articles à lire plus tard.

Après quelques jours, la sélection a évolué mais difficile d’affirmer qu’elle colle à mes goûts compte tenu de son caractère éclectique – capture d’écran Next

Les cartes de présentation des articles se limitent à un titre et un visuel, ainsi qu’au logo du média source. Il n’y a, à ce stade, aucun résumé généré par IA, et le projet revendique son engagement en matière de respect des éditeurs et des créateurs de contenus.

« Journalistes, blogueurs, photographes, développeurs : chaque créateur mérite la visibilité et le trafic que son travail a gagné », affirme l’entreprise, qui promet par ailleurs de respecter à la lettre les consignes des éditeurs en matière d’indexation.

« Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux. », nous avait confirmé Sylvain Peyronnet, PDG et cofondateur de Babbar, l’entreprise éditrice d’Ibou.

Un fonctionnement partiellement expliqué

Comment sont classés les contenus et sur quelle base le moteur fait-il évoluer ses recommandations ? Sur la page qui présente sa « vision », Ibou renouvelle sa promesse de favoriser la découverte et la diversité à la performance pure. « Pas de bulles, pas de manipulation émotionnelle. », écrit la startup.

Testé pendant quelques jours, le portail repose à ce stade sur une sélection limitée de médias, et il n’est pas évident d’évaluer de façon empirique l’efficacité de l’algorithme de recommandation. Il semble avoir saisi que les actualités liées à la cybersécurité et aux impacts de l’IA ou de la guerre en Iran nous intéressent tout particulièrement, mais persiste à nous suggérer des publications sur certains thèmes ou émanant de médias pourtant systématiquement « dislikés ».

Version bêta oblige, l’entreprise cherche logiquement à ajuster ses curseurs. Contactée par nos soins, elle confirme d’ailleurs n’avoir pas finalisé la réflexion liée à la personnalisation éventuelle des publicités affichées par le service.

L’entreprise avait présenté quelques éléments du fonctionnement de son Explorer en septembre dernier, dans un billet de blog dédié. « Cette personnalisation que nous effectuons dépend de ce que les utilisateurs expriment, mais aussi des articles vus et appréciés par l’utilisateur. En cas d’arbitrage nécessaire, c’est ensuite les qualités en termes de performances supposées de chaque article qui fera la différence », expliquait-elle alors.

Ibou écrivait également à cette occasion travailler à un filtre pensé pour pénaliser les contenus « mal faits avec de l’IA », mais aussi les articles susceptibles de faire porter un risque sur les lecteurs, parce qu’ils dispensent par exemple « des conseils médicaux ou juridiques qui, mal utilisés, pourraient amener à un préjudice irréversible ».

Un facteur également pris en compte par Google dans son Discover, et qui explique sans doute en partie pourquoi l’algorithme présente une telle proportion d’articles relevant plus du divertissement que de l’information.

Un historique disponible en un clic

En attendant de voir jusqu’où l’entreprise lèvera le capot sur le fonctionnement de son outil, Ibou Explorer affiche de façon claire les éléments liés à la confidentialité et donc à l’utilisation faite des données personnelles de l’utilisateur.

L’entreprise collecte les interactions de l’utilisateur lorsqu’il est connecté à son compte (clics, likes, dislikes, signets) et affirme les utiliser pour personnaliser les suggestions individuelles et « améliorer l’algorithme de recommandation ».

« Aucune donnée n’est vendue ou partagée avec des tiers », promet Ibou Explorer, dont le profil utilisateur permet de récupérer en un clic un fichier .json contenant l’intégralité des interactions enregistrées par le site.

Le profil permet de réinitialiser ses infos ou télécharger son historique en un clic (sous forme de fichier json) – capture d’écran Next

Xavier Niel entre au capital

« Cette première verticale constitue la première étape visible d’un projet plus large : elle sera progressivement complétée par d’autres verticales — recherche web, images, actualités — pour aboutir à un moteur de recherche conversationnel complet », rappelle l’entreprise éditrice d’Ibou.

Elle peut se targuer d’un nouveau soutien pour développer son projet. Elle annonce en effet avoir accueilli Xavier Niel à son capital, pour un montant non communiqué.

Cette nouvelle levée de fonds complète un tour de table de 2,1 millions d’euros réalisé en 2021. « Ce qui m’a convaincu chez Ibou, c’est d’abord Sylvain et son équipe. Ce sont des gens qui savent de quoi ils parlent, qui ont déjà construit quelque chose de solide et qui ont une vision claire de comment réaliser un moteur souverain. Le reste, ça suit », salue Xavier Niel dans un communiqué reçu par email.

Au fait, qu’est-ce qu’un moteur conversationnel ? « Nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse. Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc. », nous expliquait Sylvain Peyronnet en septembre dernier.

Aux USA, des sénateurs veulent connaitre la consommation d’énergie des datacenters

27 mars 2026 à 09:40
De toutes les matières, c’est les watts qu’ils préférent
Aux USA, des sénateurs veulent connaitre la consommation d’énergie des datacenters

Pour avoir des données fiables et globales sur la consommation des datacenters, deux sénateurs font appel à l’U.S. Energy Information Administration (EIA). L’Arcep le fait, mais cela se limite à la France et on manque cruellement de données au niveau mondial.

La consommation des datacenters est un sujet qui revient régulièrement sur le devant de la scène, mais sur lequel il est difficile d’avoir des chiffres précis et fiables. Certains opérateurs de datacenters et géants du numérique détaillent leurs consommations, mais de manière disparate.

Des rapports oui, des données fiables… c’est plus compliqué

On retrouve parfois le détail datacenter par datacenter, parfois par pays, continent ou au global, mais d’autres ne donnent aucune information chiffrée et se contentent de grands discours. C’est le cas d’Amazon dans les GAFAM par exemple. Mais, même quand il y a de nombreuses informations, les rapports sont parfois truffés d’erreurs… à se demander s’ils sont réellement lus.

Il n’y a qu’à voir le numéro d’équilibriste de l’ADEME sur le sujet en janvier, qui voulait prévoir la consommation à l’horizon 2035 et 2060. Comme nous l’expliquions alors, ce rapport a le mérite d’exister et d’essayer de faire avancer les choses, mais il doit s’apprécier avec toutes ses imperfections et ses manques, à cause de la transparence très limitée de certains acteurs. Difficile de se projeter sans avoir de chiffres solides à la base.

Et si c’était l’Energy Information Administration qui récoltait les données ?

Aux États-Unis, deux sénateurs (Josh Hawley et Elizabeth Warren) tentent une approche plus directe pour avoir des données fiables : ils « ont envoyé une lettre à la U.S. Energy Information Administration (EIA) pour lui demander de recueillir des détails sur la consommation d’énergie auprès des centres de données – et sur l’impact de cette utilisation sur le réseau », comme le rapporte Techcrunch.

Ils veulent obtenir des « déclarations annuelles complètes sur la consommation d’énergie », indique Wired, qui était le premier à en parler. Ses informations sont « essentielles pour une planification précise du réseau [électrique] et contribueront à l’élaboration de politiques visant à empêcher les grandes entreprises d’augmenter les coûts de l’électricité pour les familles américaines ». Google, par exemple, a multiplié par deux sa consommation électrique entre 2020 et 2024.

« Ce n’est pas la seule information dont tu as besoin, mais c’est certainement un morceau du puzzle », explique Ari Peskoe (directeur du programme de droit de l’environnement et de l’énergie de la Harvard Law School) à nos confrères. La consommation en eau est aussi une donnée importante à prendre en compte.

En France, l’Arcep collecte des données et publie des bilans

Que ce soit pour l’électricité ou l’eau, il faut des informations détaillées en fonction des emplacements géographiques. Cela n’a pas les mêmes conséquences de consommer de l’eau dans des zones avec un fort stress hydrique et/ou une électricité fortement carbonée.

En France, l’Arcep collecte des données, y compris pour les datacenters avec la consommation électrique, en eau, la surface utilisée… Récemment, elle s’est aussi intéressée à l’IA générative et a élargi son rayon d’action sur la collecte de données.

Dans son dernier rapport pour un numérique soutenable, l’Arcep détaillait la consommation en France, au global pour l’année 2023 (avec 21 opérateurs analysés) : 2,4 TWh d’électricité (en hausse de 8 % sur un an), 681 000 m³ d’eau en consommation directe, mais 6 millions de m³ en consommation indirecte. À titre de comparaison, l’Agence internationale de l’énergie atomique (sous l’égide de l’ONU) expliquait que « les datacenters avaient consommé environ 460 TWh d’électricité en 2022 ».

☕️ Effets délétères de TikTok : l’Éducation nationale relance la machine judiciaire

27 mars 2026 à 09:15


Dans un communiqué, le ministère de l’Éducation nationale explique que, « dans le cadre de la procédure d’enquête en cours depuis le 4 novembre 2025 au sujet des agissements du réseau social TikTok, le ministère de l’Éducation nationale vient de transmettre au parquet de Paris un signalement ».

Le parquet de Paris avait en effet ouvert une enquête préliminaire « sur les effets psychologiques de TikTok sur les mineurs » suite au signalement du député (socialiste) Arthur Delaporte, pour qui « le constat est sans appel : TikTok a délibérément mis en danger la santé, la vie de ses utilisateurs ».

Le ministère explique de son côté que « les réseaux sociaux, considérés de manière générale, sont impliqués dans plusieurs suicides d’élèves de collège et de lycée, ainsi que l’ont montré les enquêtes administratives diligentées à ce propos par l’inspection générale du ministère ».

C’est dans ce contexte que le ministre Édouard Geffray « a décidé d’informer la procureure de la République de Paris de faits susceptibles de caractériser plusieurs infractions pénales, liés aux bulles informationnelles dans lesquelles l’algorithme de TikTok enferme ce public vulnérable ».

Le communiqué revient sur « la capacité addictive de la plateforme et la formation de « spirales » de contenus dangereux, notamment liés aux troubles du comportement alimentaire (TCA), à la dépression, à l’automutilation et au suicide ». Il précise que « le seul visionnage de vidéos suffit à déclencher l’engrenage ».

D’autres griefs sont indiqués : favoriser l’exposition des mineurs à des contenus à caractère pornographique ainsi que le système de recommandation de TikTok avec « l’extraction massive de données personnelles des utilisateurs, en violation probable de la législation en vigueur ».

Le ministre explique à Radio France avoir fait un test avec un nouveau compte où il disait avoir 14 ans : « En moins de 20 minutes, sans avoir liké quoi que ce soit […] on s’est retrouvé avec des vidéos dépressives […], des véritables tutoriels de scarifications […], des vidéos d’incitation au suicide ».

☕️ Tails 7.6 gère automatiquement les ponts Tor pour lutter contre la censure

27 mars 2026 à 07:42


La distribution Tails, axée sur la sécurité et la confidentialité, passe en version 7.6 avec comme principale nouveauté l’intégration des ponts Tor (Tor bridges en anglais) au niveau de l’assistant de connexion intégré au système.

Cette fonctionnalité a fait son apparition dans Tor en juillet 2022 avec la version 11.5 du navigateur. Elle permet de dissimuler la connexion au réseau décentralisé, en introduisant un pont, c’est-à-dire un point d’entrée intermédiaire qui n’est pas identifié comme un nœud Tor, dans le parcours, de façon à contourner les dispositifs de censure.

Dans Tails 7.6, l’assistant de connexion dispose maintenant d’un écran dédié à la configuration de ces ponts, avec la possibilité d’opter pour un point d’entrée par défaut, sélectionné en fonction géographique ou paramétré à la main. L’utilisateur peut également demander la création d’un pont à à la communauté par mail.

Paramétrage d’un pont Tor dans Tails 7.6

« Tails télécharge, via l’API Moat du projet Tor, des informations sur les ponts les plus susceptibles de fonctionner dans votre région. Afin de contourner la censure, cette connexion est dissimulée sous l’apparence d’une connexion à un autre site web grâce à la technique du domain fronting », explique l’équipe de Tails.

La version 7.6 signe également l’introduction de Secrets comme gestionnaire de mots de passe par défaut (en remplacement de KeePassXC), une décision motivée par son interface plus simple et sa meilleure intégration dans GNOME.

Secrets propose de déverrouiller automatiquement l’ancienne base de données KeePassXC, les deux logiciels utilisant le même format de fichier pour stocker les mots de passe. Il est aussi possible d’installer KeePassXC en tant que logiciel complémentaire.

La 7.6 est également l’occasion de corriger divers petits bugs, et de mettre à jour les principaux composants tels que Tor Browser (15.0.8), Thunderbird (140.8.0) ou Electrum (4.7.0).

Les liens de téléchargement, guides d’installation et notes de version sont accessibles via ce billet.

☕️ Fausses promos, pression, articles ajoutés : des pratiques encore nombreuses en Europe

27 mars 2026 à 07:25


La Commission européenne a visiblement pris son temps, mais les résultats d’un « balayage » sur les promotions pendant le Black Friday et le Cyber Monday vient d’être mis en ligne. C’est la conclusion d’une enquête menée par les autorités de protection des consommateurs de 23 États membres (dont la France), ainsi que d’Islande et de Norvège.

Le bilan est sans appel : « Les autorités de protection des consommateurs ont vérifié 314 commerçants en ligne et ont constaté que 30 % faisaient référence à des remises de manière incorrecte lors de ces ventes ». Cela ne devrait surprendre personne, l’UFC-Que Choisir a déjà tiré la sonnette d’alarme à plusieurs reprises. au sujet de ces fausses promotions.

La Commission rappelle que, pour afficher une réduction (en pourcentage ou en euros), « le prix de référence doit être le prix le plus bas appliqué au cours des 30 derniers jours ». Cette règle a été sacralisée par la Cour de justice de l’Union européenne fin 2024 ; elle avait été saisie par une juridiction allemande.

D’autres griefs sont également indiqués par la Commission européenne, à savoir que « 36 % ont tenté d’ajouter des articles facultatifs aux paniers des consommateurs. Parmi ceux-ci, quatre sur dix l’ont fait sans demander clairement leur consentement ».

18 % des enseignes « ont utilisé des techniques de vente sous pression, telles que l’affirmation qu’un produit est épuisé ou l’utilisation de compte à rebours », or d’après les constatations de la Consumer Protection Cooperation, « plus de la moitié de ces cas étaient trompeurs ». La Commission rappelle qu’une « technique de vente sous pression peut être considérée comme trompeuse, par exemple, lorsque son affirmation de rareté est fausse ».

Dans 10 % des cas, une « tarification progressive » était mise en place, avec des « frais supplémentaires ajoutés tardivement dans le processus d’achat, tels que des frais d’expédition ou de service ».

La Commission rappelle enfin qu’ajouter des articles sans consentement, afficher des prix de manière trompeuse, prétendre qu’un produit est épuisé ou cacher des frais « sont des pratiques illégales en vertu du droit de la consommation de l’UE ». Après ce balayage, « les autorités nationales de protection des consommateurs peuvent prendre des mesures à l’encontre des entreprises concernées ». À voir maintenant s’il se passera quelque chose du côté de la répression des fraudes, ou autres.


☕️ La bêta d’Ubuntu 26.04 LTS (Resolute Raccoon) est disponible

27 mars 2026 à 07:02


Cette version 26.04 est importante car c’est une LTS, c’est-à-dire une Long Term Support avec cinq ans de support classique et cinq ans de plus avec Ubuntu Pro. Les LTS sont mises en ligne tous les deux ans, la précédente était donc la 24.04. C’est particulièrement utile dans le cas de serveurs et VPS, comme expliqué dans notre tuto.

Parmi les nouveautés, il y a le passage au noyau Linux 7.0 avec la version 50 de GNOME (avec uniquement Wayland) disponible depuis une semaine environ. Signalons aussi PHP 8.5.2, Samba 4.23, Docker 29, Mesa 26. Les notes de version se trouvent par ici.

Le fond d’écran « raton-laveur résolu » rejoint le bestiaire Ubuntu

Sans oublier que « le retour de mot de passe est désormais activé par défaut afin d’améliorer l’expérience utilisateur ». Sudo-rs affiche pour rappel des * quand on tape son mot de passe. Un retour à l’ancien fonctionnement est possible : sudo visudo et ajoutez Defaults !pwfeedback au fichier de configuration.

Pour les téléchargements, c’est par ici que ça se passe. Pour récupérer un des dérivés – Kubuntu (KDE Plasma), Xubuntu (Xfce), Lubuntu (LxQt), Ubuntu Budgie, Ubuntu Mate, Ubuntu Cinnamon… – c’est par là.

La version finale d’Ubuntu 26.04 est prévue pour le 23 avril.

Reçu — 26 mars 2026 Next - Articles gratuits

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

26 mars 2026 à 16:48


La décision était attendue, le Parlement avait prévenu la semaine dernière. C’est désormais officiel (et sans surprise), les députés ont adopté ce jeudi – à une large majorité avec 569 voix pour, 45 contre et 23 abstentions – une « position sur une proposition de simplification (omnibus) modifiant la législation sur l’intelligence artificielle (AIA) ».

Pour les systèmes d’IA à haut risque, les députés proposent, comme prévu, la date du 2 décembre 2027, au lieu du 2 août 2026, soit près d’un an et demi de retard. Également validée, la proposition de repousser au 2 août 2028 « les systèmes d’IA couverts par la législation sectorielle européenne sur la sécurité et la surveillance du marché ».

Autre délai repoussé, celui sur les « règles relatives au marquage numérique des contenus audio, image, vidéo ou des textes créés par l’IA afin d’indiquer leur origine ». Désormais, les députés visent le 2 novembre 2026 alors que cela devait entrer en vigueur cet été. Cela concernera donc les actualités générées par IA, comme le signale déjà notre extension, qui a dans sa base de données près de 12 000 sites.

Au passage, les députés veulent introduire l’interdiction des systèmes de « nudification », c’est-à-dire les applications qui utilisent l’IA pour « créer ou manipuler des images sexuellement explicites ou intimes et qui ressemblent à une personne réelle identifiable, sans le consentement de cette personne ».

Le Parlement précise que cette « interdiction ne s’appliquera pas aux systèmes d’IA dotés de mesures de sécurité efficaces empêchant les utilisateurs de créer de telles images ». Cette semaine, l’Internet Watch Foundation a d’ailleurs sonné l’alerte face à la multiplication d’images et de vidéos pédocriminelles crédibles générées par IA.

Les députés sont également favorables « à ce que les fournisseurs de services puissent traiter des données à caractère personnel afin de détecter et de corriger les biais dans les systèmes d’IA, mais ils ont introduit des garanties pour s’assurer que cela ne se fasse qu’en cas de stricte nécessité ».

Après ce vote, les négociations avec le Conseil sur la version définitive de la loi peuvent désormais commencer, avec ensuite un trilogue avant le vote définitif. La proposition de simplification adoptée ce jour fait partie du septième paquet omnibus sur la simplification proposé par la Commission européenne depuis novembre 2025.

Protection des mineurs en Europe : quatre sites pornos hors la loi, enquête sur Snapchat

26 mars 2026 à 16:20
Quelles surprises…
Protection des mineurs en Europe : quatre sites pornos hors la loi, enquête sur Snapchat

Ce jeudi, la Commission européenne a publié deux communiqués autour de la protection de l’enfance et des mineurs. Snapchat est sous le coup d’une enquête formelle, tandis que les conclusions préliminaires sont tombées pour PornHub, Stripchat, XNXX et XVideos, qui « enfreignent la loi sur les services numériques ».

Le premier communiqué concerne Snapchat, avec l’ouverture d’une procédure formelle pour déterminer si le réseau social « garantit un niveau élevé de sûreté, de confidentialité et de sécurité pour les enfants en ligne, conformément à la législation sur les services numériques (DSA) ».

De nombreux griefs contre Snapchat, une enquête ouverte

Les griefs de la Commission sont nombreux car elle estime que la plateforme a peut-être enfreint les règles en « exposant des mineurs à des tentatives de manipulation et à des recrutements à des fins criminelles, ainsi qu’à des informations sur la vente de biens illégaux, comme des drogues ou des produits à restriction d’âge, tels que les cigarettes électroniques et l’alcool ».

Plusieurs points seront analysés, à commencer par la vérification d’âge (13 ans minimum) à l’entrée de la plateforme. La Commission européenne soupçonne en effet que « l’autodéclaration en tant que mesure d’assurance de l’âge est insuffisante ». Des inquiétudes également de l’Europe concernant « les paramètres du compte par défaut de Snapchat ne fournissent pas suffisamment de confidentialité, de sureté et de sécurité pour les mineurs ».

La modération est aussi pointée du doigt, avec un manque d’efficacité « pour empêcher la diffusion d’informations orientant les utilisateurs vers la vente de produits illégaux […] De plus, elle ne semble pas empêcher efficacement les utilisateurs, y compris les enfants et les adolescents, d’accéder à ce type de contenu ».

Les mécanismes de signalement sont également scrutés de près car, selon la Commission, ils « ne sont ni faciles d’accès ni faciles à utiliser, et pourraient utiliser ce qu’on appelle des dark patterns dans leur conception ».

La Commission lance donc son enquête approfondie afin de collecter des preuves, et demander des comptes à Snapchat si besoin.

« PornHub, Stripchat, XNXX et XVideo enfreignent la législation »

Une autre enquête, toujours axée sur la protection des mineurs, se termine dans le même temps. Elle concerne quatre sites pornos : « La Commission conclut à titre préliminaire que PornHub, Stripchat, XNXX et XVideos enfreignent la législation sur les services numériques pour avoir permis aux mineurs d’accéder à leurs services ».

Selon la Commission, les plateformes « n’ont pas identifié et évalué avec diligence les risques que leurs plateformes présentent pour les mineurs qui accèdent à leurs services ». De plus, même lorsque des risques étaient identifiés, elles « n’ont pas procédé à une évaluation approfondie ».

La réputation avant les risques sociétaux pour les mineurs

Toujours selon l’Europe, les plateformes avec du contenu pornographique ont mis « l’accent de manière disproportionnée sur leurs préoccupations, notamment les dommages liés à la réputation, plutôt que de se concentrer sur les risques sociétaux pour les mineurs, comme l’exige le DSA ».

La Commission ajoute que « Pornhub, Stripchat, XNXX et XVideos n’avaient pas mis en œuvre de mesures efficaces pour empêcher les mineurs d’accéder à leurs services ». Les conditions d’utilisation précisent qu’il faut être majeur, mais « un simple clic confirmant qu’ils ont plus de 18 ans » suffit aux mineurs pour passer. Même problème que pour Snapchat donc.

Pornhub, Stripchat, XNXX et XVideos « doivent mettre en œuvre des mesures »

La Commission estime donc « que Pornhub, Stripchat, XNXX et XVideos doivent mettre en œuvre des mesures de vérification de l’âge respectueuses de la vie privée afin de protéger les enfants contre les contenus préjudiciables ». Ce sont des conclusions préliminaires, qui « ne préjugent pas du résultat final de l’enquête ».

Les quatre plateformes ont désormais la possibilité d’examiner les documents des dossiers d’enquête et de répondre. Elles peuvent aussi, de manière volontaire, prendre des mesures pour corriger le tir. Si les conclusions de la Commission sont validées, des sanctions pourront être prises.

En France, depuis cet été, l’Arcom a intensifié sa lutte et mis en demeure 17 sites pornos de mettre en place des mesures de vérification de l’âge. Dans la foulée, nous avions testé plusieurs méthodes pour prouver son âge à l’entrée des plateformes.

Problème, quelques clics suffisaient parfois pour passer outre, tandis que d’autres validaient parfois n’importe quoi.

Nous sommes par exemple passés avec une fausse carte d’identité de Gabriel Attal récupérée sur Internet, une carte au nom de Dora l’Exploratrice, une vidéo du visage d’une personne sur une banque d’image (avec le watermark)… Pire encore, nous avons refait un tour début février et la situation est toujours catastrophique.

☕️ AMD annonce son Ryzen 9 9950X3D2 Dual Edition (AM5) avec 208 Mo de cache

26 mars 2026 à 14:44


Tout juste un an après le lancement des Ryzen 9 9900X3D et 9950X3D, AMD remet le couvert avec le Ryzen 9 9950X3D2 Dual Edition avec un « 2 Dual Edition » en plus à la fin de sa référence. La différence ? La technologie AMD 3D V-Cache est présente sur les deux chiplets du processeur.

Le CPU dispose donc toujours de 16 cœurs et 32 threads Zen 5 répartis sur deux chiplets de 8C/16T chacun. Le Ryzen 9 9900X3D a 128 Mo de mémoire cache L3 (série X3D oblige), pour un total de 144 Mo de cache avec les 16 Mo de cache L2 (1 Mo par cœur).

Le Dual Edition double presque la mise avec 208 Mo de cache au total, soit 192 Mo de cache L3 (toujours 16 Mo de cache L2). Avec une simple division, on en déduit que chaque chiplet dispose de 96 Mo de cache L3. Dans tous les cas, le cache L1 est de 1 280 Ko.

La fréquence de base est de 4,3 GHz avec jusqu’à 5,6 GHz en mode boost, soit 100 MHz de moins que le Ryzen 9 9950X3D (5,7 GHz). Autre changement, le TDP du CPU Dual Edition passe à 200 watts, soit une hausse de 30 watts.

Selon AMD, cela permet « des gains de performances de 5 à 10 % par rapport au Ryzen 9 9950X3D ». La disponibilité est prévue pour le 22 avril, mais il y a fort à parier qu’il coûte plus de « 5 à 10 % » que son grand frère. Dans tous les cas, ce sera « le premier processeur de bureau intégrant la technologie AMD 3D V-Cache sur deux chiplets ».

Le processeur utilise un socket AM5 (compatible avec les chipsets 620, X670E, X670, B650E, B650, X870E, X870, B840 et B850). ASRock avait vendu la mèche il y a quelques jours en publiant (et retirant rapidement) une fiche précisant que ses cartes mères AM5 étaient compatibles, comme le rapporte VideoCardz.

❌