Vue normale

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

30 mars 2026 à 15:21

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.

Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.

Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.

44 MW de puissance IT équipés en GB300

Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.

L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).

Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.

L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.

Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?

Une infrastructure au service de Mistral Compute

Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.

« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.

Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.

☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée

30 mars 2026 à 15:10


Cinq mois de prison pour un crime commis dans un état dans lequel elle n’est jamais allée : c’est l’erreur judiciaire dont Angela Lipps, 50 ans, affirme avoir été victime. 
Arrêtée le 14 juin dans sa maison d’Elizabethton, dans l’état du Tennessee, cette mère et grand-mère de famille était visée par un mandat d’arrêt émis à 2 000 km de là, par la police de Fargo, dans le Dakota du Nord. 


Au fil de l’été, la ville a subi plusieurs cas de fraude bancaire, rapporte CNN, ce qui a conduit la police à recourir aux « technologies de reconnaissance faciale de notre partenaire » et à plusieurs « autres étapes d’enquêtes indépendantes du recours à l’IA pour aboutir à une identification », a indiqué le chef du département de police de Fargo au média.

Si ses équipes ont reconnu « quelques erreurs », aucune excuse n’a été présentée à Angela Lipps, dont les conseils déclarent qu’elle a été victime d’une erreur d’identification, notamment provoquée par le recours des forces de police aux outils de Clearview AI, et par un manque d’enquête supplémentaire.

Illustration : Flock

Utilisé par la police de West Fargo, l’outil « a identifié un suspect potentiel présentant des traits similaires à ceux d’Angela Lipps », images transmises ensuite aux équipes de Fargo. À ce moment-là, aucune charge n’était retenue dans la mesure où la police de West Fargo ne disposait pas de suffisamment de preuve pour inculper quiconque.

Le 1er juillet 2025, néanmoins, un juge du Dakota du Nord signait un mandat d’arrêt avec demande d’extradition à l’échelle des États-Unis à l’encontre de Mme Lipps. 13 jours plus tard, celle-ci était arrêtée sous les yeux de ses petits-enfants. Gardée trois mois dans les prisons du Tennessee, Angela Lipps n’a ensuite été envoyée au Dakota du Nord que le 30 octobre. « C’était la première fois que je prenais l’avion, écrit-elle en description d’une campagne GoFundMe. J’étais terrifiée. »

Ce n’est qu’à partir de ce moment qu’un avocat lui a été assigné, puis a démontré, en obtenant ses relevés bancaires, qu’elle n’avait jamais quitté le Tennessee pendant la période des fraudes. Le 23 décembre, le détective de Fargo, le procureur de l’état et le juge se sont mis d’accord pour classer la procédure, indique la police de Fargo.

Les avocats d’Angela Lipps cherchent encore à comprendre pourquoi cette dernière a été retenue autant de temps avant d’avoir accès à un conseil et aux éléments de l’enquête la visant. À Fargo, le directeur des forces de l’ordre Dave Zibolski indique que ses services n’utilisent pas d’IA de manière générale, mais que ses collègues de West Fargo le font. Un membre de ses équipes aurait considéré que les éléments envoyés par les équipes de West Fargo contenaient des images de surveillance, et non un résultat renvoyé par une machine de reconnaissance faciale.

Ses équipes n’utiliseront plus les résultats des systèmes utilisés par la police de West Fargo, faute de bien connaître leur fonctionnement. Dave Zibolski a par ailleurs indiqué considérer des mesures disciplinaires pour les policiers impliqués. Les bureaux du procureur du Dakota se sont par ailleurs déclarés « très intéressés » par des formations sur les risques d’utilisation de la reconnaissance faciale.

La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

30 mars 2026 à 14:40
Flux de conscience
La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

Après avoir détaillé sur Twitch le positionnement qu’elle comptait prendre au sein de la commission CNC Talent, la streameuse Ultia s’est vue suspendue du jury dédié à allouer des financements à divers projets numériques. Ses propos ont notamment gagné en viralité sous l’effet de comptes d’extrême-droite.

L’affaire a commencé sur Twitch, où la streameuse Ultia (291 000 followers, l’une des plus suivies de France) tient ses quartiers depuis près de dix ans. Le 25 mars, elle explique être intégrée au dispositif CNC Talent du Centre national du cinéma et de l’image animée (CNC), pour deux ans. Concrètement, elle est membre du jury d’un « fonds d’aide monétaire aux créateurs de contenus web », explique-t-elle dans son stream, avant de détailler l’intérêt d’y postuler pour celles et ceux qui souhaiteraient l’obtenir.

En ligne, le CNC détaille que l’objet de ce dispositif est d’« identifier les nouveaux talents » sur diverses plateformes sociales (YouTube, Instagram, TikTok, Twitch), pour « favoriser le renouvellement de la création et des formats » qui y sont déployés. Créé en 2017, refondu en début d’année et nommé « Fonds d’aide à la création pour les plateformes sociales », il est doté de 3 millions d’euros par an, tirés du budget général du CNC, rappelle le Figaro. Dans son stream, Ultia détaille le processus concret d’attribution des projets, qui passe par l’analyse d’une quarantaine de dossiers par la dizaine de membres composant le jury. Elle s’attarde ensuite sur ce que ça lui apporte à elle, à commencer par la recherche des formulations et justifications précises permettant d’étayer son jugement des divers dossiers.

Alors qu’elle détaille le positionnement qu’elle compte prendre, et notamment son refus de soutenir des projets portés par des créateurs d’extrême-droite, le stream est « clippé » (c’est-à-dire qu’un court passage en est extrait), publié sur X par le compte @TwitchGauchiste, puis rendu viral par d’autres comptes très en vue, notamment de figures de l’extrême-droite. Rapidement, le CNC annonce suspendre la streameuse. Si la polémique n’est pas la première à toucher l’institution publique, elle illustre aussi certains effets du clipping. Outre donner de la visibilité à certains vidéastes, cette logique d’extraction de quelques images rarement contextualisées en prive d’autres d’une partie de leurs revenus, voire se traduit par des vagues de harcèlement.

Clipping par @TwitchGauchiste

Discutant avec son public, Ultia détaillait le 25 mars certains enjeux de la participation au jury du CNC. Alors que des internautes rappellent les accusations de conflit d’intérêt qui ont concerné le youtubeur Cyprien en 2018, alors que lui-même siégeait dans une commission de la CNC, Ultia indique que les membres du jury doivent sortir de la salle au moment des délibérations si le projet étudié les concernent directement.


Il reste 60% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Détentions d’armes : un pirate exfiltre des données du SIA (ministère de l’Intérieur)

30 mars 2026 à 13:10
Arme à Geddon
Détentions d’armes : un pirate exfiltre des données du SIA (ministère de l’Intérieur)

Après des revendications la semaine dernière, c’est désormais officiel : un pirate a récupéré des données du système d’information sur les armes du ministère de l’Intérieur. En plus du type d’arme, il dispose aussi de l’adresse des propriétaires.

Le système d’information sur les armes (alias SIA) est un service du ministère de l’Intérieur. « La création d’un compte dans le SIA est obligatoire pour les détenteurs d’armes particuliers majeurs ». Comme le rapporte l’Union Française des amateurs d’Armes, le ministère prévient d’une fuite de données (copie du courier, en pdf). L’information a également été confirmée au Parisien.

« Nous avons le regret de vous informer qu’il a été constaté l’accès, par action malveillante, à un des comptes d’une entreprise utilisatrice du système d’information sur les armes (SIA), entraînant l’extraction de données commerciales présentes dans ce compte, dont certaines sont susceptibles de contenir une ou plusieurs de vos données personnelles ».

Armes et adresses du propriétaire… un combo dangereux !

Cela comprend des informations « relatives à l’arme détenue ou acquise (type, classement, marque, modèle) », mais aussi des données sur leur propriétaire avec le nom et prénom, l’adresse électronique et enfin l’adresse postale. Comme avec la fuite de données de la Fédération française de tir (FFTir), le risque est de voir des personnes malintentionnées tenter de récupérer des armes.

En novembre dernier, la préfecture de police expliquait que « des tentatives de renseignement en vue de commettre des vols par ruse ou par effraction ont déjà été signalées ». Cybermalveillance ajoutait que ce n’était pas qu’une hypothèse : « des repérages suspects ont déjà été signalés aux forces de l’ordre ».

Rappel de l’époque : « la police, la gendarmerie ou la douane ne vous appelleront jamais pour venir chez vous récupérer vos armes suite à la fuite des données de licenciés de la FFTir ». La prudence est de mise face à de possibles sollicitations, d’autant que les attaques cyber ont de plus en plus d’incidences dans le monde physique avec des cybercriminels qui « recrutent des équipes sous-traitantes sur le terrain », rappelait Cybermalveillance la semaine dernière.

Plainte déposée, les investigations continuent

Bien évidemment, comme la loi l’y oblige, cet incident a été notifié à la CNIL. De plus, « le ministère de l’Intérieur a déposé plainte et les services techniques poursuivent les investigations afin de déterminer précisément l’origine de l’incident », précise le communiqué. Ce dernier ajoute que les vérifications du ministère permettent de confirmer que « si l’accès à un compte tiers utilisateur contenant des données relatives à des transactions commerciales a été possible, le système d’information sur les armes n’a pas été atteint ».

Le ministère rappelle les bonnes pratiques : « changer régulièrement de mot de passe » et « ne jamais communiquer ses identifiants et mots de passe ». Cela n’aurait rien changé dans ce cas… et cela ne change rien au fait que des pirates disposent désormais d’adresses de personnes ayant des armes à leur domicile.

L’ampleur de la fuite n’est pas précisée. Selon l’Union Française des amateurs d’Armes, un pirate revendiquait la semaine dernière avoir dérobé des informations sur plus de 62 000 armes. Dans le lot, il y aurait 46 % de carabines, 29 % de fusils de chasse, 11 % de fusils à pompe et 8 % d’armes de poing. « Des chiffres, bien inférieurs au nombre d’armes détenues et référencées dans le SIA (plusieurs millions d’armes), tendent à faire penser que la fuite ne concerne pas l’ensemble du système », expliquait l’Union. Le ministère ne donne aucun chiffre.

Pour rappel, le SIA concerne les personnes « ayant un permis de chasser, détentrice d’une arme, ou souhaitant acquérir et détenir une arme », mais aussi celles titulaires « d’une licence de la Fédération française de tir pour la pratique du tir, du ball-trap ou du biathlon, détentrice d’une arme, ou souhaitant acquérir et détenir une arme », celles avec une « arme héritée ou trouvée », ainsi que les personne « détentrice ou souhaitant acquérir certaines armes de catégorie C » qui ne sont dans aucune des catégories précédentes.

Les capteurs quantiques avec une « précision extrême » prennent leurs aises

30 mars 2026 à 11:30
C’est quantique, tu peux pas test
Les capteurs quantiques avec une « précision extrême » prennent leurs aises

Les capteurs quantiques sont une « révolution » dont parlent les scientifiques depuis des années. Une piste prometteuse était de se repérer sans GPS. Une « première mondiale » vient d’être réalisée dans ce sens sur les chemins de fer nationaux britanniques. D’autres expériences ont également lieu ailleurs dans le monde.

Il y a déjà plus de cinq ans, le Centre National pour la Recherche Scientifique (CNRS) donnait les grandes lignes de la « révolution » des capteurs quantiques : « Médecine, génie civil, télécommunications, gestion des ressources naturelles… ». Leurs avantages par rapport aux capteurs traditionnels sont la sensibilité et la précision (deux points très importants quand on parle de capteur).

Des mesures ultrasensibles, mais avec des « temps morts »

Au cœur des dispositifs, des objets et des propriétés quantiques que les physiciens ont domptés depuis longtemps. Le CNRS explique le cœur du fonctionnement : les états quantiques des particules « sont extrêmement sensibles à la moindre perturbation de l’environnement ». Le Centre de recherche donne plusieurs exemples : interféromètres, microscopes magnétiques, accéléromètres…

Fin 2022, le CNRS revenait à la charge avec une application concrète : des capteurs quantiques pour se repérer sans GPS : « Basés sur une technologie quantique, ils peuvent effectuer des mesures ultrasensibles de l’accélération dans les trois dimensions quelle que soit leur orientation ». Avec un point de départ connu, il est donc possible de savoir avec précision où se trouve le capteur une fois qu’il a été déplacé. Des capteurs parfaits ? Pas si vite…


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Bluesky teste Attie, un assistant de recherche… basé sur l’IA

30 mars 2026 à 09:58
Le mauvais chasseur, y voit un truc qui bouge, y tire. Alors que le bon chasseur...
Bluesky teste Attie, un assistant de recherche… basé sur l’IA

Bluesky ouvre une expérimentation prudente autour de l’IA avec le lancement d’Attie, un « assistant » censé aider l’utilisateur à trouver des comptes ou des contenus intéressants, en fonction de demandes exprimées en langage naturel. Présentée comme exploratoire, la démarche est accueillie plutôt froidement par les utilisateurs du réseau social.

Organisée entre les 26 et 29 mars, la conférence Atmosphere a réuni pendant quatre jours la communauté des développeurs intéressés par le protocole AT (Authenticated Transfer Protocol). Bluesky, dont le réseau social exploite ce fameux atproto, a profité de l’occasion pour présenter sa dernière application en date. Baptisée Attie (en référence à la façon dont on prononce l’acronyme AT en anglais), elle prend la forme d’un agent IA chargé de construire des flux de messages personnalisés en fonction de la demande de l’utilisateur.

Mieux que le flux chronologique, le flux généré par IA ?

« Décrivez ce que vous souhaitez voir et regardez votre flux se composer automatiquement autour de vous », promet le site dédié à Attie. Le service fait pour l’instant l’objet d’une bêta fermée, mais il propose une liste d’attente à laquelle on peut s’inscrire avec un identifiant Bluesky.

En attendant que les vannes soient ouvertes plus largement, il dispense plusieurs exemples illustrant le fonctionnement d’Attie. Plutôt que de procéder à une recherche par mots-clés, l’interface propose d’entrer une requête en langage naturel, et suggère en retour une sélection de comptes à suivre ou de messages susceptibles d’y répondre. On peut ainsi demander une liste de comptes spécialisés sur une thématique donnée, ou chercher qui parmi les comptes suivis par l’utilisateur publie des poèmes de son cru.

Attie permet par exemple de constituer une liste thématique de comptes à suivre…

Attie permet ensuite de sauvegarder la requête, pour en faire un flux personnalisé. Ce dernier semble pour l’instant cantonné à l’application Attie, mais la logique voudrait qu’il soit à terme possible de l’exporter soit vers Bluesky, soit vers d’autres clients exploitant atproto.

Bluesky présente l’outil comme un agent social. « On a davantage l’impression d’avoir une conversation que de configurer un logiciel. Vous décrivez le type de publications que vous souhaitez voir, et l’agent de codage crée le flux que vous avez décrit », explique Jay Graber, ex CEO devenue responsable de l’innovation chez Bluesky.

… ou de chercher des messages au contenu plus spécifique – captures d’écran

Un appel à vibe coder autour d’atproto

Dans son billet, Jay Graber présente Attie comme une première pierre à caractère exploratoire pour un édifice nettement plus ambitieux : faciliter la création de nouvelles applications capables de tirer parti des échanges sur un réseau atproto, notamment grâce à l’IA.

« Nous avons conçu le protocole AT pour que chacun puisse développer l’application de son choix, mais jusqu’à récemment, n’importe qui ​​signifiait en réalité n’importe qui sachant coder. Les outils de programmation automatisée changent la donne. Pour la première fois, un protocole ouvert est véritablement accessible à tous. »

Attie serait ainsi une forme de démonstrateur de ce qu’il est possible de faire au sein de l’Atmosphere, le terme par lequel Bluesky désigne l’écosystème d’applications et de services construits sur le protocole AT :

« L’Atmosphere est une couche de données ouverte dotée d’un schéma clairement défini pour les applications, ce qui la rend particulièrement adaptée au développement d’agents. Nous nous sommes donc demandé : que se passe-t-il lorsque vous pouvez décrire l’expérience sociale souhaitée et qu’elle est créée pour vous ? »

Un accueil plutôt mitigé

L’interopérabilité et la capacité à développer des services capitalisant sur les promesses d’ouverture et de décentralisation d’atproto (décentralisation très relative dans le cas de Bluesky) fédèrent déjà près d’un millier d’applications, remarque Toni Schneider, investisseur chez True Ventures, dans un billet laudateur.

Sans remettre en cause cette promesse, l’application Attie a de façon plus prosaïque reçu un accueil mitigé sur Bluesky, où divers mèmes circulent pour souligner que personne n’a jamais exprimé le souhait de paramétrer son flux à l’aide d’un agent IA.

Attie compte déjà quelques détracteurs sur Bluesky – source

« Attie est une application distincte, et son utilisation est entièrement à votre discrétion. Bluesky continuera d’évoluer en tant qu’application sociale utilisée par des millions de personnes. Attie sera notre plateforme d’expérimentation pour une interaction sociale proactive », affirme Jay Grabber.

De façon symbolique, l’identifiant Bluesky dédié à Attie est passé lundi midi à la troisième place du classement des comptes les plus bloqués sur le réseau social selon un outil tiers. Attie a ainsi surpassé le compte de l’ICE, la police de l’immigration, et talonne désormais la Maison-blanche, même si le numéro un, le vice-président JD Vance, reste encore hors de portée.

113 000 utilisateurs de Bluesky auraient symboliquement bloqué le compte attie – capture d’écran

☕️ Les créateurs de podcast face au virage vidéo

30 mars 2026 à 09:02


Fini, les médias audios ? Sur Linkedin, la créatrice des podcasts La Poudre et Folie Douce Lauren Bastide indiquait le mois dernier renoncer à la transformation de ses épisodes en vidéo, car le processus « coûte cher, prend du temps, mobilise de l’énergie… pour une valeur ajoutée minimale ».

Dix ans après la création des studios Binge Audio, Paradiso ou Nouvelles Écoutes, les créatrices et créateurs de podcasts comme elle sont face à une évolution d’ampleur : la transformation d’un format axé sur le son à des entretiens désormais filmés, régulièrement animés par des célébrités – des réseaux sociaux, de la culture, de l’entrepreneuriat aussi, pourquoi pas –, et diffusés, en long, sur YouTube. 
La plateforme a en effet tiré l’évolution du format vers la vidéo, poussant des outils historiquement dédiés à l’audio comme Spotify à intégrer des formats vidéos à leur dispositif.

D’après le Figaro, Apple Podcasts devrait faire de même dans les prochaines semaines pour tenter de récupérer des parts d’audience, alors que 46 % de la génération Z états-unienne écoute ses podcasts sur YouTube, 35 % sur Spotify, et seulement 9 % sur Apple Podcasts, selon Coleman Insights. L’évolution a aussi poussé journalistes et créateurs de ces émissions à multiplier les « shorts », ces courts extraits aussi bien promus par YouTube que TikTok.

Auprès du quotidien français, la créatrice Clémentine Galley, dont le programme Bliss Stories sur la maternité enregistre plus de 110 millions d’écoutes, se déclare « déprimée » d’avoir dû passer à la vidéo.

Pour autant, elle constate – de même que Louie Media ou Nouvelles Écoutes – que ce nouveau mode de diffusion lui permet de toucher des publics différents, plus jeunes pour Bliss Stories, moins uniformément urbains et CSP+ pour les podcasts de Louie Media.

Si l’évolution semble positive en termes d’audience, elle ne l’est pas nécessairement en termes de revenus : pour le cofondateur de Binge Audio (racheté le mois dernier par le groupe québécois Urbania), le coût pour mille sur YouTube, en matière de publicités, ne revient qu’à quelques euros, contre 60 à 90 euros pour un podcast classique, centré sur le son.

Illustration : Flock

Alimentée par les données personnelles, la menace cyber est « plus diverse et diffuse »

30 mars 2026 à 08:43
Sinon, vivement un 18Cyber pour les urgences
Alimentée par les données personnelles, la menace cyber est « plus diverse et diffuse »

Cybermalveillance.gouv.fr dresse le bilan des tendances de la menace cyber. Sans surprise, le trio de tête comprend l’hameçonnage, le piratage de compte et la violation de données personnelles. 2025 était aussi marquée par une recrudescence de spams téléphoniques et un passage des attaques dans le monde physique… des tendances qui devraient malheureusement perdurer cette année.

Cybermalveillance.gouv.fr, le dispositif national d’assistance aux victimes d’actes de cybermalveillance, vient de publier son rapport d’activité 2025. La plateforme revendique pour la deuxième année consécutive plus de 5 millions de visiteurs, en légère baisse tout de même par rapport à 2024, année des Jeux olympiques.

Au fil des années, des types de menaces toujours plus vastes

La plateforme note toutefois une hausse de 20 % des demandes d’assistance, avec 504 810 demandes en 2025, contre 423 021 en 2024 et moins de 300 000 les années précédentes. La très grande majorité (93 %) des demandes émanaient de particuliers. Pour Cybermalveillance, « le lancement du 17Cyber (déc. 2024) a permis de simplifier les parcours des usagers en réduisant l’orientation vers des pages Internet externes ».


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

C’est quoi une seconde sur la Lune ?

30 mars 2026 à 07:11
Et sur Mars ?
C’est quoi une seconde sur la Lune ?

Une seconde, c’est une seconde non ? En théorie oui, mais en pratique cela dépend de l’endroit où l’on se trouve. Une seconde sur la Terre, ce n’est pas exactement une seconde sur la Lune. Avec les volontés de retourner sur la Lune et surtout de s’y installer, le sujet prend de l’importance. Des chercheurs proposent trois propositions de définition de la seconde, et expliquent leur préférence.

À cause de la différence d’attraction gravitationnelle, le temps ne s’écoule pas de la même manière entre les deux astres (merci la relativité générale d’Einstein) : une horloge sur la Lune gagne 56 microsecondes par jour par rapport à une horloge sur la Terre.

L’importance de la précision de la seconde

Avec les programmes Artemis (NASA), LunaNET (NASA/ESA) et Moonlight (ESA), l’objectif des agences spatiales est clair : retourner sur la Lune et y établir des bases avec une présence à long terme. Cela « nécessite la mise en place d’une infrastructure dédiée à la navigation, au positionnement et aux télécommunications aux abords de notre satellite » naturel, explique l’Observatoire de Paris.

Sur Terre, pour rappel, il faut des horloges atomiques pour les systèmes de guidage par satellite (la précision du temps est indispensable pour avoir une précision sur la localisation). La constellation européenne Galileo en a fait les frais avec des pannes à répétition sur les horloges atomiques des satellites. Heureusement, chaque satellite en embarque quatre : deux au rubidium et deux autres à l’hydrogène, ce qui a permis de fortement limiter les dégâts.

Sur la Lune, « il est nécessaire de s’accorder au préalable sur l’utilisation d’une échelle de temps coordonné, jouant le même rôle que le temps universel coordonné (UTC) sur Terre, et permettant aux différents acteurs lunaires d’échanger des informations et de comparer leurs mesures ».

Trois propositions différentes pour une « seconde »


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Nouvelle fuite de données à la Commission européenne

30 mars 2026 à 06:06


La semaine dernière, le 24 mars précisément, la Commission européenne « a découvert une cyberattaque qui a affecté » sa plateforme Europa.eu, le site web de l’Union européenne. Elle affirme avoir réagi rapidement, mais reconnait tout de même que « les premières conclusions de l’enquête suggèrent que des données ont été extraites ». Les entités concernées sont contactées et informées.

« Les systèmes internes de la Commission n’ont pas été affectés par la cyberattaque. La Commission continuera à suivre la situation et à prendre toutes les mesures nécessaires pour assurer la sécurité de ses systèmes et données internes », ajoute l’institution.

IA Act Europe

Selon Bleeping Computer, la fuite viendrait d’un compte Amazon Web Services (AWS) compromis. « L’auteur de la menace qui a revendiqué l’attaque a contacté BleepingComputer en début de semaine, déclarant avoir volé plus de 350 Go de données (dont plusieurs bases de données) », ajoutent nos confrères.

Afin d’appuyer ses dires, le pirate a fourni à Bleeping Computer des « captures d’écran comme preuve qu’il avait accès à des informations appartenant à des employés de la Commission européenne ainsi qu’à un serveur de messagerie utilisé par des employés ». Il ajoutait « qu’il ne tenterait pas d’extorquer la Commission en utilisant les données prétendument volées comme levier, mais qu’il avait l’intention de divulguer les données en ligne ultérieurement ».

La Commission avait déjà été victime d’une cyberattaque le 30 janvier, « qui a peut-être permis d’accéder aux noms et aux numéros de téléphone portable de certains membres de son personnel ». La brèche avait été colmatée dans les 9 heures, selon la Commission. Cette dernière précisait qu‘« aucune compromission des appareils mobiles n’a été détectée ».

Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

27 mars 2026 à 16:17
Le plus important, ça n'est pas la chute
Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.

Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.

Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).

Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.

Différences de points de vue

Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.

Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.

Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.

L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.

« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.

Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.

Trilogues à venir

Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :

« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »

Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :

« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »


OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

27 mars 2026 à 15:50
Le business contre la « règle 34 »
OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

Faisant face à une opposition interne depuis des mois et à un besoin de montrer que son entreprise peut proposer des outils utiles dans l’environnement professionnel, Sam Altman semble (non sans mal) accepter d’abandonner l’idée de mettre en place une version pornographique de ChatGPT.

Suivant les velléités d’Elon Musk avec son IA Grok de permettre aux utilisateurs de générer des images et des textes pornographiques, en octobre dernier, Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié.

Mais le monde des adultes ramènerait le CEO d’OpenAI vers le « serious business ». Comme l’explique le Financial Times quelques jours après que l’entreprise a annoncé l’abandon de Sora 2, OpenAI a suspendu « pour une durée indéterminée » son projet de lancement de la version pornographique de son chatbot pour se concentrer sur ses autres projets. La version « adulte » de ChatGPT avait déjà été reportée au début du mois. L’entreprise affirmait toujours croire au projet mais « il faudra plus de temps pour acquérir l’expérience nécessaire », ajoutait-elle à l’époque.

Des investisseurs peu motivés par le projet

Les voix de certains investisseurs se seraient jointes aux critiques émises en interne sur le projet. En effet, celui-ci était déjà critiqué par des salariés mais aussi par un comité d’experts furieux et unanimement opposé, créé le jour même où Sam Altman avait exprimé sa volonté de créer ce mode « adulte ».

L’entreprise a affirmé au journal économique britannique qu’elle voulait finalement d’abord mener des recherches à long terme sur les effets des conversations à caractère sexuel explicite et l’attachement affectif avant de prendre une décision sur le lancement de cette version de son chatbot, ajoutant qu’il n’y avait pour l’instant pas de « preuve empirique » sur la question.

Mais, selon des sources du Financial Times, certains investisseurs étaient inquiets à la fois des risques liés à ce genre d’outil et du peu de potentiel de croissance qu’il pouvait apporter à l’entreprise.

Des risques de faux positifs sur l’estimation de l’âge des mineurs

Concernant les risques, ce n’était pas seulement lié à de potentielles polémiques et attaques en justice sur la gestion de tel ou tel contenu problématique, comme ce qu’on a pu voir avec les deepfakes générés par Grok visant à dénuder des femmes, parfois mineures. Mais comme nous l’expliquions, l’entreprise a aussi du mal à proposer un outil de prédiction d’âge maison qui ne laisse aucun enfant passer la barrière. Ainsi, il classait encore récemment à tort 12 % des mineurs comme des adultes.

Ces décisions sont prises une semaine après que le Wall Street Journal affirme qu’OpenAI allait réduire ses projets parallèles pour se concentrer sur son cœur de métier. Le journal économique américain expliquait que l’entreprise de Sam Altman était sous la pression d’Anthropic qui s’est imposée comme la startup rivale qui propose des solutions pratiques et novatrices dans le cadre du travail, comme Claude Code ou Cowork.

« Nous ne pouvons pas laisser passer cette occasion parce que nous sommes distraits par des activités secondaires », affirmait la responsable des applications d’OpenAI, Fidji Simo, à son équipe récemment selon Business Insider, ajoutant que l’entreprise devait absolument améliorer sa productivité dans le secteur professionnel, puis dans le secteur grand public.

La Wikipedia anglophone interdit l’édition assistée par modèles de langage

27 mars 2026 à 14:48
IA pas d'arrangement
La Wikipedia anglophone interdit l’édition assistée par modèles de langage

La version anglophone de l’encyclopédie participative a décidé d’interdire l’utilisation de l’IA générative pour la plupart des modifications de ses pages. Wikipédia en allemand a aussi récemment restreint cette utilisation.

« Les textes générés par des grands modèles de langage (LLM) tels que ChatGPT, Gemini, DeepSeek, etc. enfreignent souvent plusieurs des principes fondamentaux de Wikipédia », explique maintenant une page de la version anglophone de l’encyclopédie consacrée à la rédaction d’articles à l’aide de grands modèles de langage.

Deux petites exceptions pour l’usage de l’IA générative dans la Wikipédia anglophone

Les éditeurs ont donc décidé que, désormais, « l’utilisation des grands modèles de langage (LLM) pour générer ou réécrire le contenu d’articles est interdite » (toujours concernant la version anglophone). Même si peu de personnes ont participé au vote (46), une large majorité (44) a voté en faveur de cette nouvelle règle quand seulement deux personnes s’y sont opposées, comme on peut le lire dans le résumé des discussions.

Le texte ajoute quand même deux exceptions pour lesquelles les utilisateurs de la Wikipédia anglophone peuvent utiliser des outils intégrant des LLM.

Ainsi, la règle permet cette utilisation aux éditeurs pour « obtenir des suggestions de corrections de fond concernant leurs propres textes ». L’intégration de ces suggestions doit néanmoins se faire « après vérification humaine », et « à condition que le LLM n’ajoute pas de contenu de son propre chef ».

La Wikipédia anglophone accepte aussi l’utilisation de ces outils pour traduire des pages d’autres versions linguistiques de l’encyclopédie, à condition de suivre les règles récemment mises en place à ce sujet. En effet, les « hallucinations » venues de traductions par IA avaient déjà fait bouger les lignes à ce sujet.

Une utilisation difficile à objectiver et un déni toujours possible

Un dernier paragraphe concède que certains utilisateurs peuvent avoir un style d’écriture qui se rapproche de celui d’une IA générative. Ainsi, le texte demande à ce que les éventuelles sanctions prises au nom de l’utilisation de modèles de langage s’appuient plus sur l’infraction des principes fondamentaux de Wikipédia que sur l’éventuelle signature stylistique et linguistique d’un texte.

Mais l’une des éditrices ayant voté en faveur de cette règle exprime quand même la crainte que son adoption soit vaine : « Je crains tout de même un peu que l’approche que nous adoptons dans ces directives n’encourage le mensonge (surtout compte tenu de la réserve selon laquelle, si le texte est de bonne qualité, la directive ou la politique ne sera pas appliquée, alors à quoi bon ?) et qu’il soit difficile de les faire respecter correctement ».

Une interdiction d’usages jugée utile par certains

Pour l’une des personnes qui s’y est opposée, la formulation proposée ne fait pas la distinction entre l’utilisation des LLM pour générer du « slop » et « un processus de travail beaucoup plus restreint, dans lequel un éditeur expérimenté identifie les sources, définit le cadre de la tâche, vérifie le résultat par rapport aux sources et assume l’entière responsabilité de ce qui est publié ».

« Mettre tout cela dans le même panier n’aide personne », ajoute celle pour qui « « l’utilisation des LLM pour générer ou réécrire le contenu d’articles est interdite » : c’est tout simplement trop radical ».

Dans les discussions avant vote, un autre utilisateur expliquait en quoi, pour lui, les LLM pouvaient être utiles dans l’édition de Wikipédia : « une utilisation que j’ai trouvée utile consiste à importer le fichier PDF d’une source que je viens de lire dans le LLM en lui donnant la consigne suivante : « génère une référence au format Wikipédia pour ce document. Si des informations bibliographiques manquent, effectue une recherche sur Internet pour les trouver et fournis-moi les liens vers les sources où tu as trouvé ces informations manquantes afin que je puisse vérifier leur exactitude » ».

Mais, comme l’explique une des personnes en faveur de l’interdiction, le besoin de « remédier au déséquilibre flagrant entre l’effort nécessaire pour générer du contenu IA slop et celui requis pour le nettoyer » l’a emporté.

Les Wikipédia germanophone et francophone avancent aussi sur le sujet

L’utilisation des outils s’appuyant sur les LLM n’agite pas que la communauté anglophone. Comme nous l’expliquions l’année dernière, la communauté francophone a déjà adopté, à l’époque, un texte de recommandation sur l’usage de l’IA générative.

Le résumé de ce texte affirme que « l’intelligence artificielle générative (IAg) n’apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu. Son utilisation est donc vivement déconseillée ».

Jules*, l’un des administrateurs de Wikipédia en français, affirme cependant sur Bluesky qu’ « en pratique, les blocages pour mésusage de l’IA générative se multiplient » et il ajoute qu’« il est probable qu’une nouvelle itération [de la recommandation] survienne dans les prochains mois ».

Il pointe aussi qu’en février dernier, la Wikipédia germanophone s’est dotée « d’une recommandation stricte sur l’IA générative », dixit la newsletter francophone du projet.

Elle indique : « Wikipédia est un projet dont le contenu est documenté et rédigé par des humains pour des humains. L’utilisation de l’intelligence artificielle générative dans le cadre de l’élaboration de contenus pour Wikipédia est donc fondamentalement indésirable, à quelques exceptions près, qui sont énumérées ci-dessous ».

Sont ainsi autorisés le recours à la traduction automatique, qui fonctionne avec le support de l’IA, l’utilisation d’outils basés sur l’IA pour la détection des erreurs (mais, contrairement aux robots de Wikipédia, toute modification doit être validée par un humain), ainsi que la recherche avec l’aide de l’IA.

☕️ Sony augmente de 100 euros le prix des différentes versions de la PS5

27 mars 2026 à 14:23


La hausse de prix est aussi significative que globale : Sony a annoncé vendredi 7 mars une révision des tarifs de sa console de salon vedette, la PlayStation 5, dans le monde entier. En Europe, les trois versions de la console voient leur prix public augmenter de 100 euros, à compter du 2 avril 2026.

La PS5 standard passe à 650 euros, tandis que la PS5 édition numérique (sans lecteur optique physique) grimpe à 600 euros. Enfin, la PS5 Pro est désormais affichée à 900 euros. Le PlayStation Portal (lecteur à distance) voit lui aussi son prix public conseillé grimper de 220 à 250 euros.

Les nouveaux prix publics conseillés s’appliquent à partir du 2 avril sur les principaux marchés – capture d’écran

« Nous savons que les changements de prix ont un impact sur notre communauté et, après une évaluation minutieuse, nous avons conclu qu’il s’agissait d’une étape nécessaire pour garantir que nous puissions continuer à offrir des expériences de jeu innovantes et de haute qualité aux joueurs du monde entier. », commente Sony qui invoque, sans surprise, des « pressions continues dans le paysage économique mondial » pour justifier sa décision.

La PS5 avait déjà subi une hausse de prix au printemps 2025 en Europe. À l’époque, la hausse épargnait toutefois la PS5 Pro, lancée quelques mois plus tôt à 800 euros.

Financé par Xavier Niel, le français Ibou lance son alternative à Discover

27 mars 2026 à 13:49
Un projet ibouriffant
Financé par Xavier Niel, le français Ibou lance son alternative à Discover

Élaboré par des ingénieurs venus du monde du référencement naturel, le futur moteur de recherche français Ibou a lancé cette semaine la première brique de son modèle : un « Explorer », présenté comme une alternative aux algorithmes de recommandation des grands acteurs états-uniens. La société annonce dans le même temps avoir recueilli le soutien financier d’un certain Xavier Niel.

Alors que les réseaux sociaux ou les moteurs de recherche sont régulièrement pointés du doigt pour leurs algorithmes de recommandation et toutes les techniques relevant de l’économie de l’attention, peut-on envisager de créer un outil de découverte d’articles d’actualité respectueux de la vie privée ?

Telle est en tout cas l’ambition affichée par le projet français Ibou, qui vient de mettre en ligne la première brique de son futur moteur de recherche conversationnel, dont Next avait présenté en détail les enjeux et les perspectives en septembre dernier.

Une alternative à Google Discover

Tous les navigateurs et les moteurs de recherche disposent aujourd’hui de fonctions de recommandations algorithmiques, à commencer par le plus populaire d’entre eux, Google. Ibou Explorer prend le contrepied de ces outils « en privilégiant la qualité éditoriale et le pluralisme des points de vue plutôt que le seul engagement ».

En pratique ? Le portail mis en ligne prend la forme d’une sélection assez générique d’articles d’actualité issus de grandes marques média, et distribuée selon plusieurs catégories, dont une rubrique « Sciences et Tech ». Ibou invite, ou incite, l’internaute à créer un compte pour personnaliser cette sélection d’articles grâce à un système de j’aime / je n’aime pas. Le portail propose également un système de signets qui permet de centraliser des articles à lire plus tard.

Après quelques jours, la sélection a évolué mais difficile d’affirmer qu’elle colle à mes goûts compte tenu de son caractère éclectique – capture d’écran Next

Les cartes de présentation des articles se limitent à un titre et un visuel, ainsi qu’au logo du média source. Il n’y a, à ce stade, aucun résumé généré par IA, et le projet revendique son engagement en matière de respect des éditeurs et des créateurs de contenus.

« Journalistes, blogueurs, photographes, développeurs : chaque créateur mérite la visibilité et le trafic que son travail a gagné », affirme l’entreprise, qui promet par ailleurs de respecter à la lettre les consignes des éditeurs en matière d’indexation.

« Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux. », nous avait confirmé Sylvain Peyronnet, PDG et cofondateur de Babbar, l’entreprise éditrice d’Ibou.

Un fonctionnement partiellement expliqué

Comment sont classés les contenus et sur quelle base le moteur fait-il évoluer ses recommandations ? Sur la page qui présente sa « vision », Ibou renouvelle sa promesse de favoriser la découverte et la diversité à la performance pure. « Pas de bulles, pas de manipulation émotionnelle. », écrit la startup.

Testé pendant quelques jours, le portail repose à ce stade sur une sélection limitée de médias, et il n’est pas évident d’évaluer de façon empirique l’efficacité de l’algorithme de recommandation. Il semble avoir saisi que les actualités liées à la cybersécurité et aux impacts de l’IA ou de la guerre en Iran nous intéressent tout particulièrement, mais persiste à nous suggérer des publications sur certains thèmes ou émanant de médias pourtant systématiquement « dislikés ».

Version bêta oblige, l’entreprise cherche logiquement à ajuster ses curseurs. Contactée par nos soins, elle confirme d’ailleurs n’avoir pas finalisé la réflexion liée à la personnalisation éventuelle des publicités affichées par le service.

L’entreprise avait présenté quelques éléments du fonctionnement de son Explorer en septembre dernier, dans un billet de blog dédié. « Cette personnalisation que nous effectuons dépend de ce que les utilisateurs expriment, mais aussi des articles vus et appréciés par l’utilisateur. En cas d’arbitrage nécessaire, c’est ensuite les qualités en termes de performances supposées de chaque article qui fera la différence », expliquait-elle alors.

Ibou écrivait également à cette occasion travailler à un filtre pensé pour pénaliser les contenus « mal faits avec de l’IA », mais aussi les articles susceptibles de faire porter un risque sur les lecteurs, parce qu’ils dispensent par exemple « des conseils médicaux ou juridiques qui, mal utilisés, pourraient amener à un préjudice irréversible ».

Un facteur également pris en compte par Google dans son Discover, et qui explique sans doute en partie pourquoi l’algorithme présente une telle proportion d’articles relevant plus du divertissement que de l’information.

Un historique disponible en un clic

En attendant de voir jusqu’où l’entreprise lèvera le capot sur le fonctionnement de son outil, Ibou Explorer affiche de façon claire les éléments liés à la confidentialité et donc à l’utilisation faite des données personnelles de l’utilisateur.

L’entreprise collecte les interactions de l’utilisateur lorsqu’il est connecté à son compte (clics, likes, dislikes, signets) et affirme les utiliser pour personnaliser les suggestions individuelles et « améliorer l’algorithme de recommandation ».

« Aucune donnée n’est vendue ou partagée avec des tiers », promet Ibou Explorer, dont le profil utilisateur permet de récupérer en un clic un fichier .json contenant l’intégralité des interactions enregistrées par le site.

Le profil permet de réinitialiser ses infos ou télécharger son historique en un clic (sous forme de fichier json) – capture d’écran Next

Xavier Niel entre au capital

« Cette première verticale constitue la première étape visible d’un projet plus large : elle sera progressivement complétée par d’autres verticales — recherche web, images, actualités — pour aboutir à un moteur de recherche conversationnel complet », rappelle l’entreprise éditrice d’Ibou.

Elle peut se targuer d’un nouveau soutien pour développer son projet. Elle annonce en effet avoir accueilli Xavier Niel à son capital, pour un montant non communiqué.

Cette nouvelle levée de fonds complète un tour de table de 2,1 millions d’euros réalisé en 2021. « Ce qui m’a convaincu chez Ibou, c’est d’abord Sylvain et son équipe. Ce sont des gens qui savent de quoi ils parlent, qui ont déjà construit quelque chose de solide et qui ont une vision claire de comment réaliser un moteur souverain. Le reste, ça suit », salue Xavier Niel dans un communiqué reçu par email.

Au fait, qu’est-ce qu’un moteur conversationnel ? « Nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse. Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc. », nous expliquait Sylvain Peyronnet en septembre dernier.

TurboQuant veut réduire grandement les besoins en mémoire des IA génératives… et ça marche

27 mars 2026 à 10:39
On en revient toujours à Shannon
TurboQuant veut réduire grandement les besoins en mémoire des IA génératives… et ça marche

Des chercheurs de Google ont publié un ensemble d’algorithmes de quantification, nommé TurboQuant. Ils permettent une compression massive réduisant l’utilisation de la mémoire, notamment pour l’IA générative, alors que le prix de la RAM est dans toutes les têtes.

Le nombre de paramètres et la taille de la fenêtre contextuelle des modèles de langage (LLM) prennent une place de plus en plus importante dans leur utilisation, notamment pour traiter des quantités énormes de documents et leur permettre d’augmenter leur acuité. Mais son utilisation intensive demande une quantité importante de mémoire. L’optimisation de la compression de ces informations devient primordiale.

On vous explique le nerf de la guerre : la quantification

La quantification vectorielle est une technique déjà utilisée pour cette compression. Mais jusqu’ici, celle-ci créait au fur et à mesure un « surcoût de mémoire ». Google a annoncé ce mardi 24 mars que ses chercheurs avaient justement mis en place une série d’algorithmes de quantification qui « répond de manière optimale » à ce problème.

De fait, ils avaient mis en ligne leur article sur la plateforme de prépublication scientifique arXiv dès le 28 avril 2025 et celui-ci était passé assez inaperçu. Dans leurs billets, les chercheurs de Google expliquent que leur article a été accepté pour présentation à la conférence scientifique ICLR qui se déroulera du 23 avril au 27 avril 2026 à Rio.


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Aux USA, des sénateurs veulent connaitre la consommation d’énergie des datacenters

27 mars 2026 à 09:40
De toutes les matières, c’est les watts qu’ils préférent
Aux USA, des sénateurs veulent connaitre la consommation d’énergie des datacenters

Pour avoir des données fiables et globales sur la consommation des datacenters, deux sénateurs font appel à l’U.S. Energy Information Administration (EIA). L’Arcep le fait, mais cela se limite à la France et on manque cruellement de données au niveau mondial.

La consommation des datacenters est un sujet qui revient régulièrement sur le devant de la scène, mais sur lequel il est difficile d’avoir des chiffres précis et fiables. Certains opérateurs de datacenters et géants du numérique détaillent leurs consommations, mais de manière disparate.

Des rapports oui, des données fiables… c’est plus compliqué

On retrouve parfois le détail datacenter par datacenter, parfois par pays, continent ou au global, mais d’autres ne donnent aucune information chiffrée et se contentent de grands discours. C’est le cas d’Amazon dans les GAFAM par exemple. Mais, même quand il y a de nombreuses informations, les rapports sont parfois truffés d’erreurs… à se demander s’ils sont réellement lus.

Il n’y a qu’à voir le numéro d’équilibriste de l’ADEME sur le sujet en janvier, qui voulait prévoir la consommation à l’horizon 2035 et 2060. Comme nous l’expliquions alors, ce rapport a le mérite d’exister et d’essayer de faire avancer les choses, mais il doit s’apprécier avec toutes ses imperfections et ses manques, à cause de la transparence très limitée de certains acteurs. Difficile de se projeter sans avoir de chiffres solides à la base.

Et si c’était l’Energy Information Administration qui récoltait les données ?

Aux États-Unis, deux sénateurs (Josh Hawley et Elizabeth Warren) tentent une approche plus directe pour avoir des données fiables : ils « ont envoyé une lettre à la U.S. Energy Information Administration (EIA) pour lui demander de recueillir des détails sur la consommation d’énergie auprès des centres de données – et sur l’impact de cette utilisation sur le réseau », comme le rapporte Techcrunch.

Ils veulent obtenir des « déclarations annuelles complètes sur la consommation d’énergie », indique Wired, qui était le premier à en parler. Ses informations sont « essentielles pour une planification précise du réseau [électrique] et contribueront à l’élaboration de politiques visant à empêcher les grandes entreprises d’augmenter les coûts de l’électricité pour les familles américaines ». Google, par exemple, a multiplié par deux sa consommation électrique entre 2020 et 2024.

« Ce n’est pas la seule information dont tu as besoin, mais c’est certainement un morceau du puzzle », explique Ari Peskoe (directeur du programme de droit de l’environnement et de l’énergie de la Harvard Law School) à nos confrères. La consommation en eau est aussi une donnée importante à prendre en compte.

En France, l’Arcep collecte des données et publie des bilans

Que ce soit pour l’électricité ou l’eau, il faut des informations détaillées en fonction des emplacements géographiques. Cela n’a pas les mêmes conséquences de consommer de l’eau dans des zones avec un fort stress hydrique et/ou une électricité fortement carbonée.

En France, l’Arcep collecte des données, y compris pour les datacenters avec la consommation électrique, en eau, la surface utilisée… Récemment, elle s’est aussi intéressée à l’IA générative et a élargi son rayon d’action sur la collecte de données.

Dans son dernier rapport pour un numérique soutenable, l’Arcep détaillait la consommation en France, au global pour l’année 2023 (avec 21 opérateurs analysés) : 2,4 TWh d’électricité (en hausse de 8 % sur un an), 681 000 m³ d’eau en consommation directe, mais 6 millions de m³ en consommation indirecte. À titre de comparaison, l’Agence internationale de l’énergie atomique (sous l’égide de l’ONU) expliquait que « les datacenters avaient consommé environ 460 TWh d’électricité en 2022 ».

☕️ Effets délétères de TikTok : l’Éducation nationale relance la machine judiciaire

27 mars 2026 à 09:15


Dans un communiqué, le ministère de l’Éducation nationale explique que, « dans le cadre de la procédure d’enquête en cours depuis le 4 novembre 2025 au sujet des agissements du réseau social TikTok, le ministère de l’Éducation nationale vient de transmettre au parquet de Paris un signalement ».

Le parquet de Paris avait en effet ouvert une enquête préliminaire « sur les effets psychologiques de TikTok sur les mineurs » suite au signalement du député (socialiste) Arthur Delaporte, pour qui « le constat est sans appel : TikTok a délibérément mis en danger la santé, la vie de ses utilisateurs ».

Le ministère explique de son côté que « les réseaux sociaux, considérés de manière générale, sont impliqués dans plusieurs suicides d’élèves de collège et de lycée, ainsi que l’ont montré les enquêtes administratives diligentées à ce propos par l’inspection générale du ministère ».

C’est dans ce contexte que le ministre Édouard Geffray « a décidé d’informer la procureure de la République de Paris de faits susceptibles de caractériser plusieurs infractions pénales, liés aux bulles informationnelles dans lesquelles l’algorithme de TikTok enferme ce public vulnérable ».

Le communiqué revient sur « la capacité addictive de la plateforme et la formation de « spirales » de contenus dangereux, notamment liés aux troubles du comportement alimentaire (TCA), à la dépression, à l’automutilation et au suicide ». Il précise que « le seul visionnage de vidéos suffit à déclencher l’engrenage ».

D’autres griefs sont indiqués : favoriser l’exposition des mineurs à des contenus à caractère pornographique ainsi que le système de recommandation de TikTok avec « l’extraction massive de données personnelles des utilisateurs, en violation probable de la législation en vigueur ».

Le ministre explique à Radio France avoir fait un test avec un nouveau compte où il disait avoir 14 ans : « En moins de 20 minutes, sans avoir liké quoi que ce soit […] on s’est retrouvé avec des vidéos dépressives […], des véritables tutoriels de scarifications […], des vidéos d’incitation au suicide ».

Fake news : les fact-checkeurs amateurs se font avoir plus souvent que les autres

27 mars 2026 à 08:39
Le fact-checking est un process, pas un pari
Fake news : les fact-checkeurs amateurs se font avoir plus souvent que les autres

Une étude de l’ARCOM révèle que 60 % des Français pensent être capables d’identifier les fausses informations, mais également que seuls 23 % des autres Français en seraient eux aussi capables. De fait, seuls 23 % des Français ont identifié les sept fausses informations qui leur ont été présentées, mais également 19 % seulement de ceux qui s’estiment pourtant capables de les fact-checker.

En 2024, une étude de l’ARCOM sur le rapport des Français à l’information, conduite auprès d’un échantillon représentatif de 3 400 Français âgés de 15 ans et plus, révélait que 48 % des Français déclaraient douter toujours ou souvent de la fiabilité des informations diffusées dans les médias.

En 2026, une nouvelle étude sur le rapport des Français aux fausses informations révèle que 60 % pensent savoir identifier une fausse information, mais également que 23 % seulement estiment que la plupart des autres Français seraient eux aussi capables de pouvoir le faire. Or, l’étude révèle que « ceux qui s’estiment aptes à identifier les fausses informations sont en réalité plus nombreux à se tromper ».

2 000 individus ont en effet été interrogés en ligne au travers d’un questionnaire de 25 minutes entre les 14 et 26 novembre 2025, via un protocole d’étude nourri par des échanges avec des experts spécialistes des fausses informations (sept chercheurs universitaires, et trois professionnels du fact-checking), et réalisé en partenariat avec VIGINUM, l’agence française en charge de la lutte contre les ingérences numériques étrangères.

79 % estiment que la désinformation présente un risque pour la démocratie

70 % des sondés disent avoir été confrontés à de fausses informations au moins une fois par semaine, dont 33 % au moins une fois par jour, et 13 % au moins une fois par mois. 79 % estiment qu’elles représentent un risque pour la démocratie, « fort » (48 %) ou « très fort » (31 %, mais 38 % chez les 60 ans et plus, contre 26 % pour les moins de 45 ans, et 25 % chez les CSP-).

92 % estiment que la désinformation dégrade la confiance dans les médias, 89 % dans les institutions, 79 % dans les résultats des élections, que cela incite à avoir des comportements dangereux pour la santé et alimente le racisme et les discriminations, 60 % qu’elle freine la lutte contre le réchauffement climatique.

En conséquence, 80 % des sondés considèrent qu’il est indispensable de lutter contre les fausses informations. Un chiffre qui monte à 89 % chez les plus de 60 ans, mais qui n’est que de 74 % chez les moins de 45 ans et les CSP-. 75 % appellent à sanctionner les auteurs de fausses informations, mais 39 % seulement à renforcer les moyens des journalistes et des médias.

34 % ont déjà partagé une fausse information, dont 1/4 en sachant qu’elle était fausse

34 % des sondés reconnaissent cela dit avoir déjà partagé une fausse information. Un taux qui s’élève à 45 % chez les 18 - 24 ans, et à 41 % pour ceux qui s’informent sur les plateformes et les réseaux sociaux. 76 % précisent qu’ils pensaient qu’elle était vraie, mais 24 % savaient qu’elle était fausse, et même 32 % chez les 18 - 24 ans.


Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Tails 7.6 gère automatiquement les ponts Tor pour lutter contre la censure

27 mars 2026 à 07:42


La distribution Tails, axée sur la sécurité et la confidentialité, passe en version 7.6 avec comme principale nouveauté l’intégration des ponts Tor (Tor bridges en anglais) au niveau de l’assistant de connexion intégré au système.

Cette fonctionnalité a fait son apparition dans Tor en juillet 2022 avec la version 11.5 du navigateur. Elle permet de dissimuler la connexion au réseau décentralisé, en introduisant un pont, c’est-à-dire un point d’entrée intermédiaire qui n’est pas identifié comme un nœud Tor, dans le parcours, de façon à contourner les dispositifs de censure.

Dans Tails 7.6, l’assistant de connexion dispose maintenant d’un écran dédié à la configuration de ces ponts, avec la possibilité d’opter pour un point d’entrée par défaut, sélectionné en fonction géographique ou paramétré à la main. L’utilisateur peut également demander la création d’un pont à à la communauté par mail.

Paramétrage d’un pont Tor dans Tails 7.6

« Tails télécharge, via l’API Moat du projet Tor, des informations sur les ponts les plus susceptibles de fonctionner dans votre région. Afin de contourner la censure, cette connexion est dissimulée sous l’apparence d’une connexion à un autre site web grâce à la technique du domain fronting », explique l’équipe de Tails.

La version 7.6 signe également l’introduction de Secrets comme gestionnaire de mots de passe par défaut (en remplacement de KeePassXC), une décision motivée par son interface plus simple et sa meilleure intégration dans GNOME.

Secrets propose de déverrouiller automatiquement l’ancienne base de données KeePassXC, les deux logiciels utilisant le même format de fichier pour stocker les mots de passe. Il est aussi possible d’installer KeePassXC en tant que logiciel complémentaire.

La 7.6 est également l’occasion de corriger divers petits bugs, et de mettre à jour les principaux composants tels que Tor Browser (15.0.8), Thunderbird (140.8.0) ou Electrum (4.7.0).

Les liens de téléchargement, guides d’installation et notes de version sont accessibles via ce billet.

❌