Vue normale

Reçu aujourd’hui — 23 décembre 2025Next.ink

☕️ Le cofondateur de Mistral a participé à l’entrainement du modèle Llama de Meta sur LibGen

23 décembre 2025 à 12:55

Médiapart souligne, dans un article publié ce lundi 22 décembre, la participation de Guillaume Lample, cofondateur de Mistral AI, dans l’utilisation de la librairie clandestine Libgen pour entrainer les modèles de Meta en 2022.

En janvier dernier, à l’occasion du procès opposant notamment l’auteur de science-fiction Richard Kadrey à Meta, des documents internes à l’entreprise confirmaient les soupçons de l’utilisation des livres stockés par Libgen pour entrainer les modèles Llama de Meta. Certains montraient d’ailleurs que le CEO Mark Zuckerberg avait donné son accord.

des nuages de données s'échappent des cheminées de petites maisons dessinées en rang d'oignon

L’enquête de Médiapart s’appuie sur des documents sortis un peu plus tard lors du procès. Ceux-ci montrent que Guillaume Lample, alors employé chez Meta, a participé activement aux discussions pour pousser les chercheurs de l’entreprise à utiliser allègrement la bibliothèque clandestine comme source d’entrainement pour les modèles. Alors que l’utilisation de LibGen ne fait pas consensus, Guillaume Lample aurait affirmé que « tout le monde utilise LibGen ».

Dans une autre conversation, une autre salariée lui a demandé si le service légal de Meta avait confirmé la possibilité d’utiliser les archives de LibGen ou si « on n’est pas juste en train d’essayer de ne pas trop poser de question ». Guillaume Lample répond qu’il n’a pas posé de question et que « c’est ce qu’OpenAI fait avec GPT3, ce que Google fait avec Palm, ce que DeepMind fait avec Chinchilla, donc on va le faire aussi ».

Guillaume Lample est maintenant responsable scientifique de Mistral AI, après avoir co-fondé l’entreprise d’IA générative française. Mistral AI, Meta et Guillaume Lample n’ont pas répondu aux diverses relances de Médiapart.

Microsoft veut remplacer tout son code C/C++ par du Rust d’ici 2030

23 décembre 2025 à 10:57
Modern C
Microsoft veut remplacer tout son code C/C++ par du Rust d’ici 2030

Galen Hunt, l’un des principaux ingénieurs de Microsoft, a publié une offre d’annonce détonante : l’entreprise recherche un ingénieur pour aider à la transition intégrale du code C/C++ vers Rust, qui doit être achevée en à peine cinq ans.

Microsoft n’a jamais caché son intérêt pour le Rust. Il a été question un temps d’attendre que l’outillage s’adapte et soit plus mature, mais la version 24H2 de Windows 11 a été la première à introduire du code Rust dans son noyau. Signe clair que la situation avait largement évolué. En février 2025, Paul Thurrott rapportait que la consigne avait été donnée en interne de ne commencer aucun nouveau projet en C ou C++, seulement en Rust.

Le langage, créé initialement par Mozilla, est depuis longtemps géré par une fondation indépendante. Microsoft en était d’ailleurs l’un des principaux membres fondateurs. Le Rust est observé de près par de nombreuses entreprises, particulièrement pour tout ce qui touche à la programmation système. On en trouve d’ailleurs dans le noyau Linux, bien que cette intégration ne se soit pas faite sans heurts. Comme nous l’expliquait récemment Sylvestre Ledru de Mozilla, Firefox en intègre également plusieurs millions de lignes de code, tout comme Chrome.

Mais Microsoft vient de donner un sérieux coup d’accélérateur : la firme veut remplacer tout son code C/C++ d’ici 2030.

Un projet titanesque

L’annonce n’a pas fait l’objet d’un billet ou d’un communiqué de presse. Elle est présente dans une offre d’emploi publiée par Galen Hunt, l’un des plus anciens ingénieurs logiciels de l’entreprise. L’offre est pour un ingénieur logiciel principal, en présentiel à Redmond.

Elle est cependant vite évacuée au profit d’une déclaration fracassante : « Mon objectif est d’éliminer toutes les lignes de C et C++ de Microsoft d’ici 2030 ». Galen Hunt indique que la stratégie consiste à mêler IA et algorithmes, et que « l’étoile polaire » est d’atteindre « 1 ingénieur, 1 mois, 1 million de lignes de code ». La tâche est décrite comme « inimaginable jusqu’ici ».

L’infrastructure algorithmique de l’entreprise est utilisée actuellement pour créer « un graphe évolutif sur le code source à grande échelle ». Après quoi, des agents IA, « guidés par des algorithmes », effectuent les modifications, également à grande échelle. Galen Hunt assure que le « cœur de cette infrastructure fonctionne déjà à grande échelle sur des problèmes tels que la compréhension du code ».

Une expérience en programmation système de qualité production est exigée. Galen Hunt enchaine sur d’autres paramètres de l’offre et un descriptif de l’équipe travaillant sur ce projet.

Le Rust, toujours le Rust

Plusieurs personnes sont venues témoigner de leur étonnement dans les commentaires. Sur le choix du Rust par exemple : pourquoi ne pas avoir choisi C#, qui présente lui aussi certaines caractéristiques intéressantes pour la sécurité ?

Galen Hunt a répondu : C# est « memory safe », mais pas « concurrent safe ». Comprendre que si C# permet d’éliminer certaines classes de failles de sécurité, notamment via un typage fort, Rust va plus loin. Il est jugé plus adapté à la programmation concurrente, quand plusieurs threads, processus ou tâches évoluent en parallèle, avec ou sans zone mémoire commune. Autre raison, attendue : les performances. Rust fonctionne sans ramasse-miettes (garbage collector) et permet d’atteindre les performances du C++.

L’ingénieur évalue à un milliard le nombre de lignes de code concernées chez Microsoft. Pourquoi un projet aussi démesuré ? Pourquoi ne pas garder le code C/C++ ? « Pas de sécurité mémoire. Pas de sécurité sur la concurrence. Bien sûr, pour une seule base de code C ou C++, ces qualités peuvent être atteintes par une discipline et un effort extraordinaires – et disparaître en une seule erreur. Avec Rust, cela peut être prouvé par le compilateur », répond Galen Hunt.

L’annonce a été accueillie avec une certaine incrédulité… y compris dans les rangs mêmes de Microsoft. Rupo Zhang, l’un des responsables de l’ingénierie logicielle de l’entreprise, demande en commentaire sur LinkedIn : « Vous êtes sérieux ? ». La question est restée sans réponse.

Relecture critique

Le projet est en effet pharaonique. « Notre mission est de développer des capacités permettant à Microsoft et à nos clients d’éliminer la dette technique à grande échelle », indiquait Galen Hunt dans l’annonce. Ce qui implique non seulement la conversion de centaines de millions de lignes de code, mais également les nombreux tests devant être réalisés pour en vérifier la fiabilité et les performances.

L’annonce laisse d’ailleurs entendre que le projet est double : convertir tout le code en Rust et finaliser l’infrastructure capable d’accomplir cette opération. Cette dernière impliquerait notamment que l’intégralité du code de Windows serait convertie en Rust, tout en maintenant la rétrocompatibilité, qui est l’une des marques de fabrique de la plateforme. Début septembre, on apprenait notamment que Microsoft voulait encourager le développement de pilotes en Rust, mais que seules les premières briques de l’infrastructure étaient proposées.

Quoi qu’il en soit, Microsoft répète continuellement depuis plus de dix ans que 70 % des failles de sécurité corrigées sont liées à une mauvaise gestion de la mémoire. Le Rust, bien qu’il élimine pratiquement tous les types de failles dans ce contexte, n’est pas non plus une protection absolue contre toutes les menaces. Il faut encore que le code ait été bien écrit. Comme nous le disait récemment l’ingénieur Horacio Gonzalez (Clever Cloud), la relecture critique a toutes les chances de devenir une compétence très recherchée.

Anna’s Archive revendique la récupération de 300 To de musique de Spotify

23 décembre 2025 à 10:30
Retour au torrent ?
Anna’s Archive revendique la récupération de 300 To de musique de Spotify

La bibliothèque clandestine Anna’s Archive affirme avoir « sauvegardé Spotify (métadonnées et fichiers musicaux) ». Près de 300 To de musique téléchargés au nez et à la barbe de la plateforme de streaming qui explique avoir mis en place « de nouvelles mesures de protection contre ce type d’attaques anti-copyright ».

La bibliothèque clandestine Anna’s Archive semble vouloir aller au-delà de la distribution pirate de livres numériques. Dans un billet de blog publié ce week-end, elle revendique avoir téléchargé environ 300 To de données de musique sur la plateforme de streaming Spotify. Mais plus qu’un téléchargement massif, elle explique vouloir distribuer les fichiers musicaux en torrent dans des archives regroupant les morceaux regroupés en fonction de leur popularité.

« Cette version comprend la plus grande base de données de métadonnées musicales accessible au public, avec 256 millions de titres et 186 millions d’ISRC [International Standard Recording Code, système de standardisation d’identifiants d’enregistrement] uniques », revendique la bibliothèque clandestine.

De fait, les responsables d’Anna’s Archive n’ont pas récupéré l’entièreté des musiques de Spotify, comme pourrait le laisser entendre une lecture rapide. « Seulement » 37 % du répertoire de la plateforme de streaming ont été téléchargés, mais « il s’agit de la première « archive de préservation » au monde pour la musique qui soit entièrement ouverte (ce qui signifie qu’elle peut être facilement reproduite par toute personne disposant d’un espace disque suffisant), avec 86 millions de fichiers musicaux, représentant environ 99,6 % des écoutes » sur Spotify, assurent les responsables d’Anna’s Archive.

Ce sont essentiellement des morceaux de musique qui sont concernés : si le billet d’Anna’s Archive évoque incidemment la récupération de métadonnées concernant les podcasts, la bibliothèque clandestine semble ne pas avoir téléchargé ce genre de médias.

Des « extrémistes anti-copyright » pour Spotify

Sans confirmer la taille de la fuite, Spotify explique avoir identifié un téléchargement de plusieurs fichiers audio sur sa plateforme : « Une enquête sur un accès non autorisé a révélé qu’un tiers avait récupéré des métadonnées publiques et utilisé des tactiques illicites pour contourner le DRM afin d’accéder à certains fichiers audio de la plateforme. Nous menons actuellement une enquête approfondie sur cet incident », a-t-elle expliqué à Musically, qualifiant les responsables d’Anna’s Archive d’ « extrémistes anti-copyright qui ont déjà piraté du contenu sur YouTube et d’autres plateformes ».

« Spotify a identifié et désactivé les comptes d’utilisateurs malveillants qui se livraient à des activités illégales de scraping. Nous avons mis en place de nouvelles mesures de protection contre ce type d’attaques anti-copyright et surveillons activement tout comportement suspect », détaille la plateforme.

Elle assure également aux artistes et à l’industrie musicale avoir toujours soutenu « la communauté artistique dans sa lutte contre le piratage et [travailler] avec [ses] partenaires industriels pour protéger les créateurs et défendre leurs droits ». Spotify devra en effet mettre les bouchées doubles après cette fuite de données pour garder les artistes et les producteurs dans son giron.

La plateforme fait aussi régulièrement face à des annonces de boycott de la part d’artistes comme Deerhoof ou Massive Attack visant notamment les investissements du fondateur et CEO de Spotify,Daniel Ek, dans l’intelligence artificielle de défense. 20 ans après la création de la plateforme, celui-ci va, rappelons-le, lâcher la main sur l’opérationnel de la plateforme tout en restant président exécutif.

Une aubaine pour l’industrie de l’IA générative ?

L’arrivée massive de l’IA pour générer des musiques a attiré certains internautes mais aussi attisé les tensions dans le secteur. Justement, cette fuite pourrait être une aubaine pour l’industrie de l’IA générative. Celle-ci, qui n’a jamais vraiment hésité à entrainer ses modèles sur des archives pirates, pourrait profiter des fichiers torrent pour améliorer la génération de musique.

Le projet Anna’s Archive met déjà en avant l’intérêt de ses collections de données pour l’amélioration des modèles de langage : « Il est bien connu que les grands modèles de langage (LLM) fonctionnent mieux avec des données de haute qualité. Nous disposons de la plus grande collection au monde de livres, d’articles, de magazines, etc., qui constituent certaines des sources textuelles de la plus haute qualité », explique une page. « Nous sommes en mesure de fournir un accès haut débit à l’intégralité de nos collections, ainsi qu’à des collections inédites », ajoutent les responsables.

Comme l’a remarqué ArsTechnica, certains fans d’Anna’s Archive ne sont pas à l’aise avec le nouveau fait d’armes de la bibliothèque clandestine. « C’est dingue. Je ne savais absolument pas que le DRM de Spotify avait été piraté pour permettre des téléchargements à une telle échelle », réagit l’un d’entre eux sur Hacker News. « Je me demande vraiment si cela répondait à une demande des chercheurs/entreprises spécialisés dans l’IA qui souhaitaient disposer de ces données. Ou si les grandes maisons de disques accordent déjà des licences pour l’ensemble de leurs catalogues à des fins de formation à un prix suffisamment bas, de sorte que cela relève uniquement d’un effort de préservation ? », ajoute-t-il.

☕️ D’internet aux supermarchés : en 2025, les influenceurs se sont diversifiés

23 décembre 2025 à 10:08

MrBeast qui vend du chocolat, Squeezie du kombucha, TiboInShape des barres protéinées : en 2025, les créateurs de contenus ont multiplié les lancements de marques, détaille une enquête du Figaro, suivant la voie tracée dès 2022 par MisterV (6,4 millions d’abonnés sur YouTube) avec ses « pizzas Delamama ».

En pratique, on retrouve régulièrement leurs produits dans les rayons alimentation des supermarchés. Mais on peut en voir aussi dans les librairies ou sous forme de concept stores, si l’on pense à l’Hôtel Mahfouf et à la maison Lena Editions de Lena Situations (11 millions d’abonnés cumulés), ou encore du côté des applications mobiles, si l’on se penche sur la plateforme Lyynk dédiée à la santé mentale et lancée par Miel Abitbol (800 000 abonnés sur Instagram).

un gros bras avec une couronne

Si tous les projets ne parviennent pas à se maintenir dans le temps, un écosystème complet se structure autour de ces nouvelles activités, rapporte le quotidien, ce qui se traduit par l’éclosion de projets entièrement dédiés à l’accompagnement des influenceurs dans ces nouvelles activités. 


Ainsi de la société Le Bon Moment cofondée par Kyan Khojandi (Bref) et Donatien Bozon (ancien directeur AR Studio chez Snapchat), ou de Banger Ventures, qui s’est associée à Squeezie pour le lancement de sa boisson Ciao Kombuch.


S’ils permettent des stratégies différentes de celles adoptées par les acteurs classiques de l’agroalimentaire, puisqu’ils bénéficient d’office de la visibilité que leur apportent leurs créateurs, ces nouveaux produits restent encore modestes à l’échelle des 250 milliards d’euros de chiffre d’affaires du secteur de la grande distribution.

OpenAI : les injections de prompts resteront « un défi pour de nombreuses années »

23 décembre 2025 à 08:52
Prise de devants
OpenAI : les injections de prompts resteront « un défi pour de nombreuses années »

Dans un billet de blog publié ce 22 décembre, OpenAI a abordé plus en détail la sécurité de son navigateur Atlas. L’entreprise a notamment décrit la formation d’un agent spécialement entrainé pour trouver des failles. Elle reconnait cependant que les injections de prompts resteront possibles pour longtemps.

Le billet d’OpenAI se concentre sur les attaques par injection de prompts, aussi appelées injections rapides. Spécifiques à l’IA générative, elles tablent sur l’exploration par un chatbot de ressources contenant des instructions malveillantes cachées. Une requête peut par exemple envoyer ChatGPT visiter une certaine page sur un site, laquelle abrite un autre prompt, que l’IA va analyser et interpréter comme tel, avant de satisfaire la demande. Le résultat peut être notamment une fuite d’informations personnelles.

« À titre d’exemple hypothétique, un attaquant pourrait envoyer un courriel malveillant tentant de tromper un agent pour qu’il ignore la demande de l’utilisateur et transmette à la place des documents fiscaux sensibles vers une adresse e-mail contrôlée par l’attaquant. Si un utilisateur demande à l’agent de revoir les e-mails non lus et de résumer des points clés, l’agent peut ingérer cet e-mail malveillant pendant le flux de travail. S’il suit les instructions injectées, il peut s’écarter de sa tâche et partager à tort des informations sensibles », explique ainsi OpenAI.

Atlas au premier plan

Problème pour OpenAI : tout ce qu’il est possible de faire avec l’interface classique de ChatGPT l’est avec les agents. Selon les instructions données, ces derniers exécutent même leur mission de manière automatisée. Et puisqu’ils sont au cœur du navigateur Atlas, OpenAI fait le pari de communiquer directement sur la question.

Cette publication se fait à la faveur d’une mise à jour du modèle, décrit comme mieux entrainé et doté de meilleures protections contre les injections. OpenAI ajoute que cette mise à jour a été déployée suite à la détection d’une série d’attaques par sa « red team automatisée interne ». Une « red team » est une équipe chargée de tester les défenses d’un produit. Dans le cas présent, OpenAI évoque un agent spécialement créé et entrainé dans cet objectif.

Reconnaissant que le « mode agent élargit la surface d’attaque », l’entreprise en a formé un pour attaquer son navigateur. Il fonctionne par renforcement et est décrit comme s’adaptant sans cesse pour trouver de nouvelles portes d’entrée. OpenAI indique avoir accès à la liste de toutes les opérations tentées, l’agent étant présenté comme plus rapide dans ses approches qu’aucun humain ne pourra jamais l’être. Il est basé sur un LLM et se comporte comme un pirate survitaminé, selon l’entreprise.

Pour OpenAI, cette méthode a deux gros avantages : l’approche proactive forçant une adaptation rapide et l’analyse du comportement de tous les agents impliqués, aussi bien en attaque qu’en défense. L’agent attaquant peut lui aussi analyser le comportement des agents présents dans Atlas, pour itérer et lancer une boucle de rétroaction : chaque « décision » prise par Atlas est scrutée pour trouver une faille.

Un problème « à long terme »

Si OpenAI veut montrer qu’elle prend le problème des attaques par injection très au sérieux, elle reconnait dans le même temps qu’il ne sera probablement jamais circonscrit.

« Nous nous attendons à ce que nos adversaires continuent de s’adapter. L’injection rapide, tout comme les arnaques et l’ingénierie sociale sur le web, est peu susceptible d’être un jour complètement « résolue ». Mais nous sommes optimistes quant à une boucle de réponse rapide proactive, très réactive et capable de continuer à réduire de manière significative les risques réels au fil du temps », reconnait l’entreprise dans son billet de blog.

OpenAI parle de « lucidité » sur le compromis entre puissance et surface d’attaque. Cette communication a en outre un autre effet : le sous-texte est que tous les navigateurs agentiques sont concernés, avec des piques invisibles lancées aux concurrents comme Perplexity et son Comet, et surtout Google avec Chrome. Et que dire d’un Windows 11 agentique ?

☕️ Rachat de Warner : Larry Ellison s’engage pour soutenir Paramount

23 décembre 2025 à 08:06

Engagé dans la course au rachat face à Netflix, Paramount n’a pas encore réussi à convaincre le conseil d’administration de Warner Bros. Discovery, en dépit d’une offre à 30 dollars par action. À défaut de pouvoir rehausser son offre, déjà largement mieux-disante que celle de Netflix, le groupe dirigé par David Ellison a dégainé lundi une nouvelle carte : Larry Ellison, père du précédent et fondateur d’Oracle, accepte de s’engager personnellement à hauteur de 40,4 milliards de dollars dans l’aventure.

« Larry Ellison a accepté de fournir une garantie personnelle irrévocable de 40,4 milliards de dollars pour le financement en fonds propres de l’offre et pour toute réclamation en dommages et intérêts contre Paramount », précise le groupe dans un communiqué. Le trust Ellison (la structure qui gère les intérêts du milliardaire et d’une partie de sa famille) s’engage dans le même temps à maintenir la surface financière nécessaire à la couverture de cette promesse.

Netflix et Paramount se disputent la possibilité d’acquérir les studios Warner

Paramount propose par ailleurs d’assouplir un certain nombre des termes financiers de l’acquisition, et fait passer de 5 milliards à 5,8 milliards de dollars l’enveloppe de compensation prévue en cas d’échec de la transaction à l’étape réglementaire.

Cet assaut de garanties (dont Paramount souligne qu’elles n’avaient pas été réclamées par Warner) suffira-t-il à faire pencher la balance ?

En attendant le dénouement, il constitue un nouveau rebondissement dans ce qui s’annonçait au départ comme une opération réglée : début décembre, Netflix avait en effet annoncé la signature d’un accord en vue de réaliser l’acquisition de la branche studios du groupe Warner Bros. Discovery. Le conglomérat Paramount a cependant très vite laissé entendre qu’il était lui aussi sur les rangs, jusqu’à proposer, le 8 décembre dernier, cette contre-offre, désormais associée à de nouvelles garanties.

Reçu hier — 22 décembre 2025Next.ink

Epstein Files : la confusion dans la publication de milliers de documents

22 décembre 2025 à 16:35
What's the point?
Epstein Files : la confusion dans la publication de milliers de documents

L’administration de Donald Trump a publié, comme l’y obligeait une loi votée récemment, des milliers de documents émanant de l’affaire Epstein. Mais tout n’y est pas, pointent notamment certaines victimes du pédocriminel.

Ce vendredi 19 décembre, le département de la Justice (DOJ) états-unien devait, selon l’Epstein Files Transparency Act, « publier (dans un format consultable et téléchargeable) tous les dossiers, documents, communications et éléments d’enquête non classifiés en [sa] possession qui se rapportent à l’enquête et aux poursuites judiciaires concernant Jeffrey Epstein ».

Le jour J, le DOJ a bien livré un outil permettant de naviguer dans près de 4 000 documents mis en ligne, même si Donald Trump s’est montré ces derniers mois plus hésitant sur le sujet, étant lui aussi accusé d’avoir été dans le réseau du pédocriminel décédé en prison en 2019. Comme le décrit Wired, les documents publiés en fin de semaine dernière sont un mélange hétéroclite de photos, de notes manuscrites et d’autres documents qui ont servi à l’enquête sur le pédocriminel. L’outil est moins ergonomique que Jmail, cette boîte mail remplie des correspondances de Jeffrey Epstein, créée par deux informaticiens pour mieux naviguer dans les emails qui circulaient déjà.

Quelques documents et des photos de personnalités déjà impliquées

Il permet néanmoins de trouver des documents du dossier, comme l’explique The Guardian, cette note [PDF] du FBI détaillant les instructions que donnait Jeffrey Epstein pour obtenir des femmes mineures. Y figurent aussi des documents nommant des personnalités dont les noms étaient déjà sortis. Ainsi, ce document [PDF] qui parle de Bill « Clinton, Prince Andrew et Richard Branson », ou des photos montrant des personnes connues (Mick Jagger, Michael Jackson ou encore David Copperfield aux côtés de Jeffrey Epstein ou de sa complice Ghislaine Maxwell).

Rappelons que ces documents ne sont pas forcément des preuves que toutes ces personnes ont eu connaissance ou sont impliquées dans le système de pédocriminalité mis en place.

Des photos de Bill Clinton, une de Donald Trump supprimée puis réintégrée

La sphère républicaine et MAGA (Make America Great Again) a cependant souligné nombre de photos où l’on voit Bill Clinton aux côtés de Jeffrey Epstein, dont notamment l’une d’entre elles où il apparait dans un jacuzzi à côté d’une personne dont le visage est volontairement caché par un carré noir. Bill Clinton a nié auparavant avoir été au courant des crimes commis par Jeffrey Epstein. Selon le Boston Globe, un porte-parole de Bill Clinton a accusé l’administration d’avoir publié ces photos de l’ancien président pour détourner l’attention.

De fait, l’attachée de presse de la Maison-Blanche, Abigail Jackson, a insisté par exemple, sur X, sur une photo de Bill Clinton avec Michael Jackson, la présentant comme une « photo de Bill Clinton avec son bras autour de Michael Jackson, et des personnes dont l’identité a été dissimulée ». Pourtant, cette photo n’a rien à voir avec l’affaire, comme l’ont souligné des utilisateurs de X dans les notes de la communauté. Elle est disponible sur Getty Images depuis 2010 sans que les enfants de Michael Jackson et Diana Ross soient cachés.

Donald Trump figure sur au moins une photo [PDF] du dossier. Elle représente un meuble exposant diverses autres photos sur lesquelles apparait Jeffrey Epstein accompagné d’autres personnalités. Le visage du dirigeant actuel des États-Unis apparait sur l’une d’entre elles qui se situe dans le tiroir ouvert du meuble. Ici aussi, ça n’est pas la preuve de la connaissance de crime. Comme l’explique Ici Canada, plusieurs photos (dont celle-ci) ont été supprimées du dossier public samedi.

Finalement, le DOJ a republié la photo en question dimanche, affirmant sur X l’avoir retirée « afin de la soumettre à un examen plus approfondi ». « Après examen, il a été déterminé qu’il n’y avait aucune preuve que des victimes d’Epstein figuraient sur la photographie, et celle-ci a été republiée sans aucune modification ni expurgation », a ajouté l’administration états-unienne.

Pas grand-chose de neuf selon la presse américaine

Selon une lettre du procureur général adjoint Todd Blanche obtenue par Fox News, plus de 1 200 victimes et leurs familles ont été découvertes au cours de cet examen exhaustif. « Sous la direction du président Donald J. Trump et de la procureure générale Pam Bondi, cette divulgation sans précédent souligne notre engagement à respecter la loi, à faire preuve de transparence et à protéger les victimes », affirme le document.

Mais, pour Associated Press, la publication de ces documents n’apporte pas grand chose de neuf. « Les documents les plus révélateurs publiés jusqu’à présent montrent que les procureurs fédéraux disposaient en 2007 d’éléments solides contre Epstein, mais ne l’ont jamais inculpé », explique l’agence de presse. Le New York Times pointe notamment l’existence d’une plainte pour pédopornographie datant de 1996 et que le FBI a ignorée.

Des documents biffés qui n’apportent pas d’information supplémentaire

Dans le dossier figure aussi une liste de 254 masseuses. Mais le fichier [PDF] est illisible puisque tous les noms sont cachés, le document portant une notice expliquant « expurgé afin de protéger les informations relatives aux victimes potentielles ».

D’autres documents apparaissent largement biffés. Ainsi, des internautes ont remarqué qu’un des documents [PDF] dont certaines parties étaient cachées avait déjà été publié [PDF] auparavant par l’administration, montrant le nom de Donald Trump accompagné de celui de Bill Clinton :

Depuis vendredi, le DOJ essaye de se dépatouiller, sur X, des accusations de censure. « Des expurgations ont été apportées à ces documents lorsqu’ils ont été déposés dans le cadre des affaires judiciaires respectives à l’époque. Nous avons reproduit les documents tels qu’ils se trouvaient en notre possession », expliquait l’administration sur X dimanche.

« On nous laisse tomber », explique une victime

« Nous avons découvert que les documents les plus importants ont disparu », affirmait de son côté le représentant du Parti démocrate, Ro Khanna, vendredi à CNN. « Ils ont fait l’objet de caviardages excessifs, et la question centrale que les Américains veulent connaître – qui sont les autres hommes riches et puissants de l’île qui violent ces jeunes filles ou qui couvrent ces faits – n’a pas trouvé de réponse ». Pour la députée démocrate Alexandria Ocasio-Cortez, ces caviardages protègent « une bande de violeurs et de pédophiles parce qu’ils ont de l’argent, du pouvoir et des relations » et elle demande la démission de la procureure générale Pam Bondi.

De leur côté, les victimes expriment aussi leur frustration. « Ils confirment tout ce que nous avons dit au sujet de la corruption et des retards dans la justice », déplore Jess Michaels, l’une des premières victimes connues de Jeffrey Epstein citée par le New York Times. « Que protègent-ils ? La dissimulation continue ». « Si tout est censuré, où est la transparence ? », interroge Marijke Chartouni, qui accuse Epstein de l’avoir agressée sexuellement lorsqu’elle avait 20 ans. « Énormément de photos sont hors de propos », explique Marina Larcerda, qui a témoigné en 2019 d’abus sexuels lorsqu’elle avait 14 ans. « On nous laisse tomber. Nous attendions ce jour-là pour attaquer en justice d’autres hommes qui ont été protégés ».

Cyberattaque : les services de La Poste toujours indisponibles

23 décembre 2025 à 09:08
Un 22 décembre ?
Cyberattaque : les services de La Poste toujours indisponibles

La Poste, La Banque postale, Colissimo, Digiposte : la plupart des services en ligne du groupe sont toujours indisponibles ce matin. On ne sait pas encore quand la situation reviendra à la normale.

Mise à jour du 23 décembre à 10h02 : Au micro de BFM, le ministre de l’Économie, Roland Lescure, a indiqué que la cyberattaque (DDoS) contre les services du groupe La Poste était toujours en cours. Elle aurait cependant « baissé en intensité ».

« Si vous avez demandé un colis pour Noël, vous n’avez pas aujourd’hui les moyens d’aller voir sur le site où il en est, mais le colis, lui, est en train d’arriver. La priorité des priorités, c’est de faire en sorte que les colis arrivent à temps pour Noël », a affirmé le ministre.


Article original du 22 décembre :

« Depuis tôt ce matin, un incident affecte l’accès à votre banque en ligne et à l’app mobile. Il est actuellement en cours de résolution, nos équipes mettent tout en œuvre pour rétablir le service rapidement », indiquait La Banque postale à 8h14 sur X. L’entreprise précisait que les paiements en ligne restaient disponibles via une authentification par SMS, l’application bancaire ne pouvant plus être utilisée. Les paiements par carte en magasin et les virements par Wero continuaient de fonctionner.

Des clients dans le flou

Tous les services en ligne du groupe La Poste semblent touchés, comme le site principal, Colissimo ou Digiposte. Le symptôme est toujours le même : le site « mouline » puis affiche un message d’erreur : « Nos équipes mettent tout en œuvre afin de rétablir la situation au plus vite. Nous vous présentons nos excuses pour la gêne occasionnée ».

À 13h25, nouveau tweet : « Un incident perturbe actuellement l’accessibilité d’une partie de nos systèmes d’information ». Là encore, le groupe indique que tout est fait pour rétablir la situation au plus vite, sans plus de détails. Il ajoute cependant que les « services essentiels de la banque ne sont pas impactés » : les paiements, les échanges interbancaires et le traitement des flux.

À l’heure où nous écrivons ces lignes, les services impactés depuis ce matin ne sont toujours pas de retour. Sur le compte X, les réponses les plus récentes indiquent aux usagers qu’aucun horaire ne peut encore être communiqué.

Attaque par déni de service

Sur X, malgré les demandes, le compte officiel ne communique pas sur l’origine de « l’incident ». Selon plusieurs médias cependant, dont Le Monde Informatique et Clubic, le groupe est victime d’une attaque par déni de service (DDoS) qui immobiliserait ses services. La Poste a fini par confirmer l’hypothèse au Monde.

Selon Clubic d’ailleurs, la panne qui a affecté les services du groupe le samedi 20 décembre était déjà liée à une attaque DDoS.

Le calendrier ne doit dans tous les cas rien au hasard, à deux jours du réveillon de Noël. Le groupe a d’ailleurs assuré à franceinfo que la livraison des colis continuait, mais qu’elle était perturbée.

Clair Obscur est disqualifié des Indie Game Awards pour utilisation de l’IA générative

22 décembre 2025 à 14:50
Cachez cette IA que je ne saurais voir
Clair Obscur est disqualifié des Indie Game Awards pour utilisation de l’IA générative

Clair Obscur : Expedition 33 a reçu jeudi 18 décembre le prix du meilleur jeu lors de la cérémonie des Indie Game Awards, avant d’en être destitué. Le studio montpelliérain Sandfall Interactive a en effet admis avoir recouru à l’IA générative pendant le développement du jeu, alors que le règlement du concours en proscrit l’usage.

Déjà sacré jeu de l’année lors des Game Awards, Clair Obscur : Expedition 33 partait grand favori pour leur pendant dédié aux jeux indépendants, les Indie Game Awards. Et sans trop de surprise, compte tenu de son succès critique et commercial, c’est bien le jeu du studio français Sandfall Interactive qui a été déclaré Game of the Year (GOTY) lors de la cérémonie diffusée en ligne le 18 décembre dernier.

Deux jours plus tard, coup de théâtre : le comité en charge des nominations aux Indie Game Awards annonce la rétractation du prix : Sandfall Interactive est disqualifié, en raison du recours, admis publiquement, à une IA générative au cours du processus de développement du jeu.

The IGAs Nomination Committee is officially retracting Debut Game and Game of the Year, awarding both categories to new recipients. Additionally, we are retracting one of the Indie Vanguard recipients. Full details can be found in our FAQ under Game Eligibility: www.indiegameawards.gg/faq

[image or embed]

— The Indie Game Awards (@indiegameawards.gg) 20 décembre 2025 à 19:45

Omission à l’enregistrement du jeu…

Le règlement du concours proscrit formellement l’utilisation de l’IA générative. « Bien que les éléments en question aient été corrigés et que le jeu soit excellent, leur utilisation contrevient à notre règlement », résument les organisateurs du concours dans leur FAQ. Ils y explicitent aussi le quiproquo.

« Lors de la soumission de Clair Obscur: Expedition 33, un représentant de Sandfall Interactive avait confirmé qu’aucune IA générative n’avait été utilisée dans son développement », rapporte l’organisation.

Problème : entre temps, des déclarations d’un représentant du studio évoquant le recours à l’IA ont fait surface. D’après Polygon, ce revirement de situation pourrait découler d’un article du quotidien espagnol El País, daté de juin dernier, dans lequel intervient François Meurisse, directeur de la production chez Sandfall. « Nous utilisons un peu d’IA, mais pas beaucoup », y déclarait ce dernier.

Clair Obscur conserve son titre de jeu de l’année pour de nombreux joueurs et critiques – crédit Sandfall Interactive

… et oublis dans le code

À la sortie du jeu, certains internautes s’étaient émus d’y découvrir quelques visuels manifestement générés par IA, notamment sur Reddit. Cette découverte n’avait pas particulièrement été médiatisée à l’époque, mais elle avait conduit le studio à produire un droit de suite destiné à El País :

« Lorsque les premiers outils d’IA sont devenus disponibles en 2022, certains membres de l’équipe les ont brièvement expérimentés pour générer des textures provisoires. Après la sortie du jeu, ces textures provisoires ont été supprimées dans les cinq jours et remplacées par les textures définitives, prévues dès le départ mais qui avaient été oubliées lors du contrôle qualité ».

Aujourd’hui, il n’y aurait donc plus d’éléments produits via IA générative dans le jeu, mais c’est la reconnaissance de cet oubli qui a conduit l’équipe des Indie Game Awards à détrôner Clair Obscur, au profit de son dauphin, Blue Prince, qui se voit donc promu au titre de GOTY indépendant de l’année.

Une anecdote révélatrice des tensions qui animent l’industrie

L’incident n’aura sans doute pas un grand impact sur la carrière de Clair Obscur, mais illustre bien comment le sujet de l’IA générative est source de crispation dans le monde du jeu vidéo, où tout le monde explore plus ou moins discrètement les capacités offertes par les outils en vogue du moment.

Un sondage (PDF) commandité par Google et réalisé au début de l’été révélait par exemple que 87 % des développeurs dans le monde du jeu vidéo recourent déjà à des modèles d’IA générative dans le cadre professionnel.

D’après ce sondage commandité par Google, 63 % des professionnels du jeu vidéo expriment une inquiétude quant aux risques liés aux problématiques de propriété (intellectuelle ou des données) dans le champ de l’IA

Ils sont dans le même temps 63 % à craindre les risques que cet usage peut faire encourir en matière de propriété intellectuelle ou d’utilisation des données personnelles… avec en fond la crainte d’un scandale préjudiciable en termes d’image et donc de ventes. Mi-novembre, Ubisoft s’était par exemple fait épingler en ligne pour avoir oublié des visuels générés par IA dans certains écrans du dernier épisode de la série Anno.

Les récentes déclarations de Swen Vincke, fondateur et CEO de Larian Studios, illustrent cette ambivalence. Auréolé du succès de Baldur’s Gate 3 (sorti en 2023), il donne à Bloomberg un aperçu de Divinity, son nouvel opus, et laisse entendre, avec moult pincettes, qu’il encourage le recours à l’IA générative mais sans l’imposer, surtout au sein des équipes créatives. Assurant d’un côté qu’il n’y aura aucun élément généré par IA dans le code final, il indique que les créatifs recourent aux modèles pour explorer de nouvelles idées, développer des concepts, ou écrire des textes bouche-trous.

Le propos a déclenché une vague de critiques en ligne, à laquelle Swen Vincke a dû répondre le 16 décembre dernier. « Putain les gars, on ne pousse pas pour remplacer les concept artists par de l’IA ! (…) Nous utilisons des outils d’IA pour explorer les références, tout comme nous utilisons Google et les livres d’art. Dès les premières étapes de la conception, nous nous en servons comme d’une ébauche de composition que nous remplaçons ensuite par des illustrations conceptuelles originales. Il n’y a pas photo ».

« it’s in the game », mais pour combien de temps ?

Le sujet n’en reste pas moins explosif, comme en témoignent les déboires récents de Postal Bullet Paradise. Annoncée le 3 décembre dernier, cette suite spirituelle du célèbre Postal² avait été confiée à un petit studio, Goonswarm Games, et devait sortir sur Steam. La fiche dédiée a très rapidement été inondée de commentaires dénonçant le recours à l’IA générative, conduisant Running With Scissors, détenteur de la licence, à annuler le jeu après seulement 24 heures ! Goonswarm Games a dans la foulée annoncé sa fermeture, tout en niant avoir utilisé l’IA.

Quelques jours plus tôt, c’est le CEO de Nexon, en charge du développement d’Arc Raiders, qui s’est retrouvé exposé, pour avoir déclaré à un média japonais, repris par PC Gamer, qu’il n’avait pas vraiment d’autre choix que d’utiliser l’IA puisque tout le monde dans l’industrie l’utilise déjà. Sa sortie n’est pas passée inaperçue dans la communauté de ce jeu multijoueurs, où plusieurs internautes ont appelé au boycott (sans toutefois d’effet réellement visible sur la fréquentation du jeu, à en croire les statistiques de Steam).

Si certains joueurs s’estiment lésés quand un jeu acheté plein tarif révèle des visuels ou des voix générés par IA, c’est aussi par crainte de voir leur industrie de cœur, déjà sous forte tension, se paupériser. Fin octobre, une enquête de Business Insider a par exemple révélé comment Electronic Arts encourageait l’utilisation de l’IA générative dans la plupart des processus internes, qu’ils soient techniques, créatifs ou même humains.

L’article décrit par exemple des documents internes qui donnent des exemples de prompts pour se faire aider par un modèle de langage dans la gestion des conflits de management. Il souligne également que les gains de productivité associés à l’IA sont utilisés comme arguments pour justifier les campagnes de licenciements.

[Offert] Ibou : comment le moteur de recherche « made in France » veut indexer le web

22 décembre 2025 à 13:05
Y aura-t-il des ads ibou ?
[Offert] Ibou : comment le moteur de recherche « made in France » veut indexer le web

Est-il possible de créer aujourd’hui un moteur de recherche sans faire partie des plus grosses entreprises du secteur ? Pour explorer ce thème, nous nous sommes entretenus avec Sylvain Peyronnet, PDG de Babbar.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 24 septembre 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Depuis quelques semaines, Next a repéré sur les réseaux sociaux un nouveau projet français de moteur de recherche (conversationnel, cette fois) porté par l’entreprise Babbar : Ibou. Connaissant un autre projet de moteur de recherche dont les résultats se sont trouvés datés et limités, nous étions curieux de savoir s’il était possible d’en monter un avec un index correct, à jour et qui pourrait profiter des nouvelles technologies comme les LLM pour améliorer son fonctionnement.

Nous avons interrogé Sylvain Peyronnet, PDG de Babbar. Son entreprise est spécialisée dans les outils permettant aux spécialistes du SEO d’améliorer leurs stratégies. Lui est un ancien enseignant-chercheur en intelligence artificielle, mais aussi l’ancien responsable scientifique de Qwant, parti en 2019.

>> Qu’est-ce qu’il y a derrière ce nom d’Ibou à l’apparence très française ?

C’est un projet de moteur de recherche de l’entreprise Babbar. Celle-ci fait, depuis que j’ai quitté Qwant et qu’on l’a montée, des outils qui font tourner en arrière-plan un moteur recherche, pour comprendre ce que fait Google et fournir de la data aux gens qui font du référencement web. Pour différentes raisons, nous avons décidé de pivoter. Nous avons commencé à créer un moteur de recherche conversationnel depuis quelques mois. Et nous l’avons annoncé quasiment dès qu’on a commencé le travail.

Ibou, même si on joue beaucoup avec des logos liés à l’oiseau parce qu’on est en France, ça n’a rien à voir : c’est un mot d’égyptien ancien qui veut dire « les cœurs », car, dans l’Égypte ancienne, le cœur était le siège du raisonnement et de la mémoire.

>> Qu’est-ce qui vous a amenés à imaginer ce projet ?

En travaillant dans le secteur du moteur de recherche depuis longtemps, nous nous sommes rendu compte de plusieurs choses.

Déjà, jusqu’au paradigme conversationnel, les moteurs n’étaient pas vraiment faits pour de la recherche d’information, mais pour de la recherche documentaire : ils renvoyaient des pages web. Pourtant, quand les gens tapent une requête dans un moteur, la plupart du temps, ils s’en fichent un peu. Ce qu’ils attendent, c’est une réponse qui les satisfait et qui leur permet de réaliser les tâches qu’ils veulent réaliser.

« L’émergence des LLM a permis de faire percoler des informations humaines dans des objets mathématiques »

Ensuite, pour faire un bon moteur, le nerf de la guerre était d’avoir beaucoup de données utilisateurs pour comprendre l’être humain et affiner ce que faisaient les algorithmes et qui n’était jamais parfait. Et pour parfaire les résultats d’un moteur, il fallait beaucoup de comportements humains.

L’émergence des LLM, et surtout des LLM alignés, a permis de faire percoler des informations humaines dans des objets mathématiques, les modèles. Maintenant, une partie des choses qui pouvaient être faites grâce à la data humaine peut être faite grâce aux modèles qui existent. Bien sûr, ceux-ci ont été fabriqués avec de la data humaine. Mais, comme c’est à l’intérieur du modèle et que c’est pas très cher de faire tourner des modèles, une partie de la difficulté, et notamment de la barrière à l’entrée, de la création d’un moteur a disparu, parce que le modèle a incorporé cette connaissance des humains.

C’est pour ça qu’on a décidé de se lancer aujourd’hui. En réalité, n’importe quelle équipe de personnes qui sont un peu douées en algorithmique peut faire des moteurs de bonne manière.

>> L’idée est donc de faire un moteur de recherche conversationnel sur quels types de contenus ? Textuels, images, audio ?

Notre moteur a vocation, à terme, à mettre en avant l’information. Et donc la multimodalité fait partie du pack, puisqu’en réalité, l’information n’est pas que textuelle, qu’image, etc. Mais il faut être raisonnable : au début, on ne va avoir que textes et images. Pour la vidéo, ce n’est pas un problème algorithmique, mais nous n’avons juste pas les moyens. Ça arrivera plus tard si on arrive à montrer qu’on est capables d’avoir des résultats de bonne qualité sur textes et images.

Mais nous avons une vision un peu différente des autres de ce que doit être un moteur de recherche, et une vision plus ouverte du web que ce que proposent la plupart des plateformes actuelles. Notamment, nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse.

« On veut aussi garantir un pluralisme »

Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc.

On pense aussi qu’il ne faut pas prendre les gens pour des abrutis. Actuellement, les moteurs ont des biais terribles et ne présentent qu’une seule partie de l’information. On veut aussi garantir un pluralisme. L’actualité est traitée par chaque média depuis son point de vue, et c’est compréhensible, chaque média a sa ligne éditoriale particulière. Mais un moteur de recherche peut tout à fait mettre en avant la diversité de point de vue.

>> Ça fait penser aux vieilles approches de portail d’informations comme Yahoo ou autre. Vous en êtes-vous inspirés ?

Peut-être de façon involontaire : ça correspond à l’image du web qu’on a dans l’équipe, qui est plus composée de vieux barbus que de startupers. Mais la technologie permet de faire des choses beaucoup plus subtiles que ce qu’on faisait avant. Nous allons avoir une verticale qui va se rapprocher fortement d’un portail : Ibou Explorer, un équivalent de Google Discover, mais de qualité. Ici, toutes les sources seront directement présentées dans leur diversité, avec une personnalisation. On sera là plus proche d’une idée de portail, comme ceux de Yahoo, etc. J’espère qu’on va réussir à faire un meilleur travail.

Par contre, sur la partie moteur, il y a une partie de curation. Il va falloir trouver le bon équilibre et savoir où la curation s’arrête : on ne veut pas prendre le pas sur la réflexion de l’humain.

>> Concernant la curation, il y a aussi celle des contenus diffusant des informations volontairement fausses et des contenus générés par IA. Ibou va-t-il prendre en compte ces problématiques ?

Ce sont deux sujets sur lesquels nous travaillons. Le premier, la véracité de l’information, est le plus simple. Nous expliquons dans notre manifeste que nous voulons donner des informations de qualité. La qualité, pour nous, étant la correction de l’information et son utilité. Pour l’utilité, c’est assez clair : à tel type de personne, est-ce que l’information va lui servir pour réaliser sa tâche ?

La correction est de savoir si une chose est vraie ou fausse, sachant qu’il y a toute une gradation et qu’à un moment donné, une chose peut n’être ni vraie ni fausse (une opinion, par exemple). Il y a une vraie difficulté technique à faire ça. Nous avons prévu un processus pour qu’une chose abusivement fausse ne puisse pas passer, avec quelques erreurs de temps en temps. Mais sur l’actualité, il est parfois difficile de repérer le mensonge. La grosse partie de ce qui est de la propagande, qui est de la manipulation, se repère plus sur la qualité intrinsèque des contenus que par rapport à l’information elle-même et sa véracité.

Par rapport aux contenus IA, dans notre prototype Ibou Explorer, ce qui compte, ce n’est pas que le contenu soit généré par IA ou pas, mais s’il a un niveau tel qu’il aurait pu être écrit par un être humain. Nous allons donc plutôt qualifier si un contenu qui s’annonce journalistique s’appuie réellement sur les sources qu’un journaliste aurait utilisées, par exemple. On essaye de vérifier quel est le type de personne qui a écrit (en s’appuyant sur le niveau de langage, le type d’écriture, si la personne a écrit des articles dans des médias de confiance, etc). C’est des choses qu’on arrive à faire et qu’on peut utiliser.

Pour Ibou Explorer, c’est d’autant plus facile à faire qu’on est sur un nombre de sites qui est beaucoup plus petit. Il est donc beaucoup plus facile de comprendre quelles sont les sources de qualité et les autres. Sur le search à très grande échelle, il faut que nous industrialisions ce processus, ce qui coûte très très cher. Nous essayons en ce moment d’en réduire les coûts.

>> Mais il est difficile, pour le public, de comprendre quels paramètres permettront de discriminer…

C’est la vraie problématique. Nous voulons être transparents algorithmiquement. Nous allons donc communiquer certaines choses. Nous faisons des analyses sur le vocabulaire utilisé, on le compare au vocabulaire utilisé sur d’autres sites web, etc. Par exemple, pour le Monde, nous listons les contenus qu’il publie et statistiquement leurs caractéristiques. Ça crée ensuite des empreintes pour des classifieurs qui permettent de facilement repérer si des contenus sont susceptibles d’être les mêmes, s’en approchent, etc. C’est par des artifices statistiques que nous allons faire les choses, c’est le seul moyen d’automatiser.

Bien sûr, nous savons qu’il y a toujours moyen, en travaillant vraiment à publier des choses qui ressemblent à de bons articles. L’avantage, c’est que les gens qui font de la fake news publient en masse et ne travaillent pas bien un article unitairement, et il est donc possible de les repérer.

Les jugements humains d’invalidation, notamment pour la partie Ibou Explorer, ne viendront qu’a posteriori.

Mais il y a des mécanismes algorithmiques en plus sur lesquels nous ne pouvons pas être transparents, sinon les gens pourraient savoir comment passer outre. Par contre, nous allons mettre en place une interface, un peu comme la Google Search Console, où les gens pourront demander pourquoi telle ou telle page n’est pas dans Ibou. Et nous donnerons la qualification que nous en faisons (« il n’est pas de qualité pour telle ou telle raison », par exemple), sans pour autant expliquer comment nous l’avons fait.

Nous avons un système, par exemple, qui donne la probabilité qu’un contenu soit écrit par un humain, une IA ou un humain assisté d’une IA. Bien sûr, ça se trompe : il y a souvent des contenus écrits par des humains qui sont détectés comme générés par des IA parce que les humains ont mal écrit. On se trompe davantage dans ce sens, car il y a assez peu de gens qui font de bons contenus IA. Nous donnerons aussi un outil qui analysera le texte et qui donnera notre conclusion.

>> Ciblez-vous l’indexation du web francophone, anglophone ou carrément tout le web ?

Aujourd’hui, nous crawlons tout le web, même si nous avons priorisé le francophone et quelques langues des pays limitrophes à la France. Nous ferons ensuite toutes les langues qu’on peut faire : pour des raisons algorithmiques, certaines langues (indépendamment des marchés) sont difficiles, comme les langues asiatiques ou le finlandais. Le russe, nous ne l’indexons pas. Même dans Babbar, nous ne le crawlons plus, en ce moment : ça ne sert à rien puisqu’il n’y a plus de marché.

Nous n’avons pas vocation à nous limiter à notre marché domestique. Mais on va mettre une priorité sur les contenus européens, car notre public sera probablement européen, mais ça ne veut pas dire qu’on ne traitera pas les autres langues. On va simplement favoriser des contenus susceptibles d’être cherchés par nos utilisateurs.

>> Concernant la souveraineté, quelle est votre position ? Où seront installés vos serveurs ?

Je n’aime pas cet axe de la souveraineté qui est utilisé par beaucoup de mes camarades. Nous sommes plus souverains que quiconque. Nous avons des machines qui nous appartiennent en propre, physiquement. Nous les maintenons avec nos équipes en France et elles sont à Marcoussis dans le 91.

Nous n’utilisons pas de solution de cloud : nos modèles tourneront « on premise », ne serait-ce que pour des raisons économiques et écologiques. Ça n’a aucun sens d’utiliser du cloud, surtout aux États-Unis, pour faire ça. Nos données sont stockées en France. Enfin, pour garantir notre service, nous avons des machines que nous administrons chez deux opérateurs : OVH (en France et aux Pays-Bas) et Scaleway (en France). Nos capitaux sont tous français. Mais je dis plutôt « made in France » plutôt que « souverain ». Pour nous, ça coule de source, puisqu’on vit et on travaille ici.

>> Quelles ressources en temps et en argent sont nécessaires pour crawler le web maintenant et le sauvegarder ?

Beaucoup moins qu’avant. Moins pour nous que pour d’autres, mais ça demande quand même beaucoup de ressources. Crawler le web, ce n’est pas ce qui va demander le plus de ressources, mais c’est le stocker et l’indexer ensuite. Aujourd’hui, le crawler historique à l’origine de la technologie mise en place pour Babbar tourne sur six à huit serveurs et doit nous coûter pas plus de 15 000 euros par mois pour crawler quatre milliards de pages par jour.

Ce qui coûte très cher, c’est le stockage. Mais avec une infrastructure qui coûte à la louche un million d’euros, on a une infrastructure qui se situe dans les 15 premiers crawlers mondiaux et qui est largement capable de scrawler un index qui peut servir toute l’Europe. On a créé une énorme base de données.

Mais un moteur de recherche, c’est aussi des millions d’utilisateurs et les infrastructures de services coutent cher aussi. Il faut donc faire « scaler » le service, ce qui est uniquement proportionnel au nombre d’utilisateurs.

Tout ça, ce sont quelques millions d’euros maintenant, là où c’étaient des dizaines de millions il y a quelques années.

>> Quelle est modèle économique du projet Ibou ?

C’est le même que tout le monde. Il ne sera pas mis en avant dans un premier temps, mais ce sera un modèle lié à de la monétisation. C’est un modèle B2C, avec monétisation B2C standard et un peu de publicité, un peu d’affiliation, des fiches entreprises… Le nerf de la guerre, pour financer les opérations, ce sera essentiellement d’avoir du trafic. Comme Google, Bing, etc. Pour l’affiliation, la logique ne sera pas d’avoir un deal exclusif avec un programme d’affiliation en particulier, mais de faire des deals avec plusieurs programmes.

« Quelqu’un qui fait 20 ou 30 millions d’euros par an en France peut faire un moteur de recherche très rentable »

Nous débutons et on sait que ça coute cher d’entretenir un moteur, il faut quelques millions par an, mais ça ne coute pas le prix auquel voudraient nous faire croire les GAFAM. Il n’y a pas besoin de faire 10 milliards de bénéfices pour faire tourner un moteur de recherche. Quelqu’un qui fait 20 ou 30 millions d’euros par an en France peut faire un moteur de recherche très rentable.

>> Est-ce que vous assurerez à vos utilisateurs que leurs données seront protégées ?

Ayant travaillé chez Qwant, je ne sais pas qui est capable de donner une telle garantie. Je pense que c’est littéralement impossible. La donnée utilisateur que nous allons garder qui pourra intéresser le plus le RGPD, ce sera la donnée de personnalisation du Ibou Explorer, à travers un compte utilisateur et le consentement pour l’utiliser.

Mais elle ne sera pas utilisée par les algorithmes de pub, car ceux-ci n’en ont finalement pas besoin. Ils ont besoin juste de savoir ce sur quoi ils s’affichent. Et quand une page s’affiche, maintenant avec les LLM, c’est extrêmement simple de comprendre le contexte de la page. Avec des éléments de contexte suffisant, on peut faire de la pub qui est aussi performante que celle qui utilise l’information utilisateur. Donc pour la pub que nous opérerons nous-mêmes, il n’y aura pas de données utilisateur conservées et utilisées. Après quand on envoie quelqu’un chez un tiers, on ignore ce qui s’y passe.

>> Donc pas de système de traqueurs dans le modèle économique de Ibou ?

Non. Déjà, ce n’est pas notre vision. Et je pense que si on fait ça, on devient un aspirateur de données et on ne fait plus le même moteur. Si on devait faire ça, actuellement, on ferait plus un réseau social.

>> Le copyright et les droits voisins sont des questions sensibles quand on parle de moteur de recherche avec IA générative. Comment envisagez-vous la question ?

Nous envisageons la question verticale par verticale. Sur la partie Ibou Explorer, qui est la plus touchy (80 % des contenus viennent de médias), nous n’allons pas faire de résumé IA. Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux.

Sur la partie search, il y aura aussi un mécanisme d’opt-out, car il y a des problématiques qu’on ne pourra jamais résoudre. Pour la partie présentation de l’information, nous voulons systématiquement renvoyer vers les sources. Par exemple, si quelqu’un demande « est-ce qu’il faut un visa pour aller dans tel pays ? », notre système va répondre « oui » ou « non », mais ne va pas donner plus d’informations. Il va, par exemple, répondre « Oui et tout est expliqué sur ce site » et c’est seulement si la personne demande d’aller plus loin sans passer par le site qu’on va donner plus d’informations. Nous voulons renvoyer au maximum vers les sources elles-mêmes.

Nous réfléchissons encore à un mécanisme pour reverser une partie des revenus associés aux réponses qui contiennent cette source, mais nous n’avons aucune idée encore de ce qu’on voudrait faire.

« La connaissance, c’est du ressort du moteur de recherche et des sources, pas du LLM »

>> Concernant la possibilité de régurgitation de contenus copyrightés, comment gérerez-vous ?

C’est un problème qui n’existera pas. Venant de l’IA, nous faisons partie des gens qui pensent que les LLM ne sont absolument pas autre chose qu’un outil d’écriture. Nous n’utiliserons pas d’information contenue dans le LLM. Ça change d’ailleurs tout pour nous, parce que nous n’avons pas besoin d’utiliser un LLM de très grande dimension comme ceux d’OpenAI ou à 500 milliards de paramètres. Ça n’a aucun intérêt de s’en servir, car s’ils ont autant de paramètres, c’est pour pouvoir s’en servir sur des questions qui nécessitent de la connaissance. C’est une profonde erreur.

La connaissance, c’est du ressort du moteur de recherche et des sources, pas du LLM. De tous les mastodontes qui existent devant nous, le seul qui est sur une approche à peu près similaire à la nôtre, c’est Perplexity. Mais ChatGPT et les autres font une profonde erreur : ils ne pourront jamais faire des bons outils de recherche, car ils sont persuadés que le LLM peut contenir du savoir et de l’information, ce qui n’est pas vrai. Ils n’ont pas été créés pour ça et on croit qu’ils en contiennent, car ils sont capables de broder un discours sur des bribes d’information qu’ils ont vues. Ce qui n’est pas du tout la même chose que d’avoir de l’information.

Tant qu’on ne va pas au-delà des transformers, la question est réglée par le fait qu’en réalité on a un moteur de recherche avec un index proche de ce qui se faisait avant, mais qui peut être facilement interfacé avec un LLM, qui lui va se contenter d’écrire les réponses. Chacun son rôle : le LLM comprend la langue, le moteur connaît l’information. Le LLM est un documentaliste qui sait utiliser un moteur de recherche et qui peut nous renvoyer vers les contenus pertinents.

C’est aussi le seul moyen de contrôler la véracité d’une information. Sinon, quand on fait confiance à un LLM pour donner une information, il y a toujours 5 à 10 % de taux d’erreur automatiquement.

>> Pourra-t-on utiliser les opérateurs de recherche comme site:, intitle: ou fileformat: ?

Le moteur grand public d’Ibou ne le permettra pas car c’est un moteur conversationnel et que nous n’indexons pas à proprement parler les pages web, mais les informations les plus importantes et une référence à la page. Ainsi, toute une partie des opérateurs devient inopérante, car on peut indexer le titre parce qu’on pense que c’est du contenu important sans pour autant stocker que c’est le titre.

Il y a aussi une API sur l’index qui existe et qu’on utilise pour faire le moteur. Ce n’est pas exclu qu’on permette à d’autres de pouvoir y accéder.

>> Pourquoi, maintenant, pensez-vous que c’est possible d’indexer le web alors que Qwant, pour lequel vous avez travaillé, a essuyé des problèmes pour le faire à l’époque ?

Dans Babbar, on indexe et on crawle déjà beaucoup plus que ce qui est nécessaire pour faire un moteur de recherche, car on vend de la data aux référenceurs. On doit vendre aussi de la data que les moteurs ne prennent pas en compte pour aider les SEO à comprendre pourquoi ils arrivent à se positionner et pourquoi ils n’y arrivent pas.

« Faire un index qui classe les bonnes pages dans les premières, c’est ça qui est difficile »

À Babbar, on a un index qui était de 2 000 milliards de pages, mais qui a beaucoup diminué pour lancer Ibou : on est maintenant à 1 400 milliards de pages sur la partie Babbar. Et même si ce n’est pas tout à fait les mêmes index puisqu’un moteur a besoin de plus de données mais sur moins de pages, on est sur des choses très similaires. Et faire un index, ce n’est pas un problème : on a déjà un index complet qui tourne avec des résultats de recherche. Mais même si on pense qu’on est déjà meilleurs que d’autres ne l’ont été précédemment, pour l’instant, on estime que notre projet n’est pas encore au niveau et on ne veut pas créer une mauvaise image alors qu’on est encore en train de travailler.

La seule vraie difficulté qu’il y avait avant, ce n’était pas la partie index – que nous avons résolue dans Babbar depuis longtemps –, mais qu’il fallait de la data utilisateur pour faire les choses. Faire un index qui contient les bonnes pages, ce n’est pas difficile, faire un index qui classe les bonnes pages dans les premières, c’est ça qui est difficile. Ce sont les fonctions de ranking.

Depuis 2005, ces fonctions n’étaient bonnes que s’il y avait une data utilisateur qui permettait de compenser tous les problèmes que les algorithmes ne sont pas capables d’arbitrer. C’est ce qu’on a vu dans le procès de Google : l’utilisation massive de la data comportementale des utilisateurs au niveau du moteur, c’est ça qui fait la qualité du moteur. Et Google est le plus fort, parce qu’il a beaucoup plus de données que Bing par exemple. Mais avec les LLM, il n’y a plus besoin de cette data pour faire quelque chose de bien, parce que le LLM peut simuler l’humain en grande partie et suffisamment bien pour faire les dernières étapes de tris.

Une fois que les algorithmes ont bien travaillé, il reste des scories : peut-être 10, 20 ou 30 % de l’index sont en tête et ne devraient pas, et c’est le LLM qui en enlève une grosse partie. Et en plus, quand on fait la synthèse des réponses, le LLM prenant plusieurs sources simultanément réussit à donner une réponse qui est bien meilleure que si on prenait chaque source indépendamment les unes des autres, en faisant comme l’être humain qui va lire plusieurs contenus pour faire sa propre opinion.

Pour en revenir à la question, cette dernière étape, qui était plus une étape de coût, est beaucoup plus facile à faire et la barrière de la data massive a complètement disparu.

>> Quelle est l’articulation entre Babbar et Ibou ?

C’est la même boite, les mêmes personnes. Nous espérons que tout va bien se passer pour nous, avec peut-être de l’aide de l’extérieur on ne sait pas encore, et qu’on va pouvoir recruter cette année. Par contre, ce sont des infrastructures techniques séparées parce que ce sont des outils qui n’ont pas du tout le même objectif. Donc algorithmiquement, c’est assez différent pour qu’il n’y ait aucun intérêt pour nous à ce que ce soient les mêmes plateformes.

Le crawler de Babbar est un crawler SEO, le crawler d’Ibou sera un moteur de recherche. Nous n’avons pas vocation à être autorisés à crawler de la même manière tous les sites selon le métier. Si on avait un crawler IA, ce serait encore une autre plateforme, car on ne peut pas mélanger les genres et que, pour être respectueux des gens, c’est ce qu’il faut faire. On veut aussi séparer parce que, aujourd’hui, notre activité est largement soutenue par notre activité SEO, mais on se doute qu’à un moment donné se posera la question de savoir si les deux activités doivent rester côte à côte ou pas.

>> Quand Ibou sera disponible ?

Pas avant un an. Pour les premières verticales, comme la partie Ibou Explorer (ndlr : l’équivalent de Google Discover), ça devrait arriver début 2026.

☕️ Une gardienne de la paix arrêtée pour avoir vendu des fichiers policiers sur Snapchat

22 décembre 2025 à 12:37

Une gardienne de la paix de 25 ans et son « petit ami » de 31 ans ont été arrêtés la semaine passée pour avoir vendu via Snapchat des informations émanant de fichiers policiers.

L’enquête aurait débuté en mai dernier, après que des enquêteurs de l’Office anti-cybercriminalité (OFAC) ont eu découvert une « story » Snapchat proposant d’acheter des accès à des fichiers policiers, rapportent BFMTV et Le Figaro.

Les investigations téléphoniques ont permis de remonter à une policière « affectée à la garde bâtimentaire et donc pas en charge d’enquêtes », précise le parquet de Paris. Depuis début 2024, elle aurait néanmoins effectué 94 consultations frauduleuses du fichier du traitement des antécédents judiciaires (TAJ) et 169 du fichier des personnes recherchées (FPR).

Son compte bancaire a par ailleurs permis d’identifier des virements de 15 à 5 000 euros émanant des personnes concernées, pour un bénéfice estimé à 12 000 euros.

Son petit ami, « très défavorablement connu des services de police » (expression désignant généralement le fait d’avoir été plusieurs fois « mis en cause » – MEC – dans le TAJ), se chargeait de trouver des clients. Les tarifs allaient de 30 euros pour une consultation du système d’immatriculation des véhicules (SIV), 150 euros pour le FPR, jusqu’à 250 euros pour une levée d’immobilisation d’un véhicule.

Les suspects ont été placés sous contrôle judiciaire avec interdiction d’entrer en contact et de quitter le territoire, et interdiction d’exercer toute fonction publique pour la policière, d’ici leur procès prévu pour le 15 juin 2026.

Le Figaro souligne par ailleurs que les affaires relatives aux « atteintes à la probité » dans la police nationale ont « pratiquement doublé en cinq ans », passant de 137 à 234 entre 2020 et l’année dernière. Cette « démocratisation » de la consultation des fichiers policiers résulterait du fait qu’ils sont accessibles à un plus grand nombre de fonctionnaires, ainsi qu’à la numérisation des procédures.

Le dernier rapport de l’Inspection générale de la Police nationale (IGPN, la « police des polices »), révèle que 93 enquêtes ont été ouvertes en 2024 pour « violation du secret professionnel » (soit le même nombre qu’en 2023), et 75 autres pour « détournement de fichiers » (93 en 2023). Ces violations ont donné lieu à 24 enquêtes ouvertes pour « corruption active » et 42 pour corruption passive, soit le double qu’en 2023.

L’IGPN avait alors annoncé vouloir renforcer le contrôle d’accès aux fichiers policiers, précisant qu’un chef de projet et deux « data scientists » travaillaient au développement d’un algorithme capable de détecter les usages « anormaux ».

Microsoft va apporter l’accélération matérielle à son chiffrement BitLocker, mais…

22 décembre 2025 à 11:19
Disponible, mais pas vraiment
Microsoft va apporter l’accélération matérielle à son chiffrement BitLocker, mais…

BitLocker, la technologie de chiffrement intégral du disque chez Microsoft, recevra en 2026 une évolution majeure : le support de l’accélération matérielle. Les gains attendus sont significatifs, mais ce support sera très restreint dans un premier temps. En outre, des questions restent en suspens sur l’implémentation.

BitLocker est une technologie de Microsoft permettant de chiffrer intégralement le disque. Elle existe depuis longtemps, mais a surtout pris son envol avec Windows 10. Elle est présente dans Windows 11 et est même censée être active par défaut sur les installations neuves du système, à condition qu’elles se fassent avec la version 24H2. Un test récent sur un ordinateur portable, depuis une image ISO de Windows 11 25H2 (récupérable sur le site de Microsoft), nous a cependant montré que cette activation n’était toujours pas systématique.

Le chiffrement utilisé aujourd’hui est entièrement logiciel. Le gros avantage de cette approche est qu’elle rend BitLocker compatible avec toutes les configurations. Elle a pourtant deux inconvénients : le coût en performances et le niveau de sécurité.

Pour remédier à ces problèmes, Microsoft a annoncé ce 19 décembre l’arrivée de l’accélération matérielle. Malheureusement, aucune configuration n’a ce qu’il faut actuellement, et il faudra peut-être attendre fin 2026 pour en profiter, sur un nombre très limité de configurations.

Approche logicielle : un coût croissant en performances

Dans son billet, Microsoft indique que le coût en performances de BitLocker aurait dû continuer à s’exprimer via un pourcentage à un seul chiffre. Ce n’est plus possible aujourd’hui, à cause du niveau élevé de performances offert par les SSD NVMe.

Le constat peut paraitre contre-intuitif, mais l’explication est simple : certains disques sont si rapides que le processus galope pour suivre l’explosion du nombre d’opérations entrée/sortie (I/O) et répercuter les opérations de chiffrement attenantes.

« À mesure que les disques NVMe continuent d’évoluer, leur capacité à délivrer des débits de transfert de données extrêmement rapides a créé de nouvelles attentes en matière de réactivité système et de performance des applications. Bien que cela représente un avantage majeur pour les utilisateurs, cela signifie aussi que tout traitement supplémentaire — comme le chiffrement et le déchiffrement en temps réel par BitLocker — peut devenir un goulot d’étranglement s’il n’est pas correctement optimisé », explique Microsoft.

Le problème n’est pas nouveau : Tom’s Hardware en parlait par exemple en octobre 2023. Nos confrères avaient mesuré l’impact de BitLocker via plusieurs tests, qui avaient montré une chute de performances sur SSD pouvant atteindre 45 %. Dans sa communication, Microsoft ne donne pas de chiffres, mais évoque des baisses sensibles de performances dans des cas courants comme les chargements de gros fichiers vidéo, de grandes bases de code ou même dans certains jeux, où une latence peut se faire sentir. Et plus les SSD progressent, plus le problème est manifeste.

Décharger le CPU

L’arrivée de l’accélération matérielle pour BitLocker a été annoncée initialement durant la conférence Ignite, qui s’est tenue du 18 au 21 novembre. Microsoft est même déjà prête pour ce changement, puisque les bases en ont été posées dans la mise à jour de septembre pour Windows 11.

Comme toujours avec l’accélération matérielle, l’objectif est de décharger le processeur central (CPU) de certaines opérations, pour en finir avec les goulots d’étranglement. Dans le nouveau fonctionnement, tout sera ainsi traité par une nouvelle partie dédiée dans des processeurs à venir, de la même manière que le NPU (Neural Process Unit) prend en charge les opérations liées à l’IA dans certaines puces.

L’accélération matérielle se servira de l’algorithme XTS-AES-256 pour ses opérations, qui comprendront le chiffrement intégral, l’activation manuelle, l’activation pilotée par des politiques d’entreprise ainsi que celle basée sur des scripts. Microsoft ne donne pas de détails sur son protocole de test, mais dit avoir observé des performances équivalentes entre un disque NVMe avec chiffrement matériel et un autre sans chiffrement « sur les charges de travail courantes ». Des améliorations ont également été constatées sur les « écritures et lectures séquentielles et aléatoires ». L’entreprise dit aussi avoir constaté une baisse de 70 % des cycles CPU requis pour les opérations de chiffrement en moyenne.

Cette hausse des performances permettrait aussi une meilleure autonomie des ordinateurs portables concernés, puisque les opérations consomment moins d’énergie.

Le chiffrement matériel est en outre présenté comme bénéfique pour la sécurité, car les clés utilisées pour le chiffrement de masse sont soustraites du périmètre logiciel pour être encapsulées matériellement, « ce qui aide à accroître la sécurité en réduisant leur exposition aux vulnérabilités CPU et mémoire ». Ce fonctionnement vient alors compléter celui de la puce TPM, qui s’occupe des clés intermédiaires de chiffrement.

Problèmes à l’horizon

La publication de Microsoft soulève un certain nombre de questions et de problèmes. Plusieurs cas ne seront par exemple pas pris en charge : si un algorithme ou une taille de clé non pris en charge a été spécifié manuellement, si la politique d’entreprise impose un algorithme incompatible, ou encore si la politique FIPS 140 est active dans l’organisation.

Microsoft indique que des solutions vont être apportées pour aider les entreprises à transiter vers le chiffrement matériel pour BitLocker. Au printemps, Windows 11 va ainsi être mis à jour pour procéder automatiquement à une augmentation de la taille de la clé quand c’est possible, mais le système ne pourra changer l’algorithme lui-même. En clair, il passera automatiquement de AES-XTS-128 à AES-XTS-256 quand le contexte s’y prêtera.

Rappelons également que BitLocker a bénéficié un temps d’un chiffrement matériel avec les disques auto-chiffrés eDrive. Le support avait été supprimé après la découverte de plusieurs vulnérabilités, qui avaient notamment affecté Dell. Un chiffrement logiciel avait l’avantage pour Microsoft de permettre la maitrise de toute la chaine. Le retour de l’accélération matérielle réintroduit une dépendance sur les implémentations matérielles, qui peuvent comporter des vulnérabilités (BitLocker lui-même n’est pas une protection absolue). On ne sait rien du processus qui conduira à d’éventuelles certifications.

Surtout, la question du support matériel est intrigante. Pour l’instant, seuls les processeurs Core Ultra Series 3 d’Intel (Panther Lake) sont présentés comme compatibles. Et encore, Microsoft ne parle que d’un « support initial ». Or, ces puces sont attendues pour le second semestre 2026, sans plus de précisions. Aucune mention d’AMD et des puces Arm (qui équipent l’immense majorité des PC Copilot+ via les Snapdragon X Elite de Qualcomm), Microsoft n’évoquant qu’un support prévu « pour d’autres fabricants et plateformes », sans plus de détails.

☕️ Airbus cherche à migrer ses applications critiques vers un cloud souverain

22 décembre 2025 à 09:49

Airbus s’apprête à publier un appel d’offres pour migrer son ERP (progiciel de gestion intégré), ses systèmes d’exécution de la production, son CRM (système de gestion de la relation client) et la gestion du cycle de vie de ses produits vers le cloud. 


« J’ai besoin d’un cloud souverain car certaines informations sont extrêmement sensibles d’un point de vue national et européen », explique la vice-présidente exécutive du numérique d’Airbus Catherine Jestin à The Register. « Nous voulons garantir que ces informations restent sous contrôle européen. »

Dans ce cadre, Airbus devrait lancer début janvier un appel d’offres pour un contrat d’un montant de 50 millions d’euros sur 10 ans. 
La dimension européenne, qui impliquera probablement une collaboration entre divers fournisseurs de l’Union, pousse la dirigeante d’Airbus à la prudence sur sa probabilité de trouver les bons fournisseurs.

La préoccupation d’Airbus vient néanmoins rejoindre celle d’un nombre croissant d’entreprises, plus ouvertement soucieuses de souveraineté depuis le début de l’année 2025 et le retour de Donald Trump au pouvoir. 


Quand bien même Microsoft, AWS et Google proposent leurs propres solutions dites « souveraines » – un terme qui désigne ici plus la localisation des données stockées, sur le territoire européen, que d’autres dimensions de la souveraineté numérique –, la capacité états-unienne à accéder aux informations des entreprises clientes reste une préoccupation.

En septembre 2025, Catherine Jestin déclarait observer « avec intérêt les solutions de type S3ns et Bleu » qui, si elles n’étaient pas encore mûres, cochaient notamment « les cases en termes d’immunité aux lois extraterritoriales et protection des données ».

☕️ Microsoft diffuse en urgence un patch pour MSMQ sur Windows 10

22 décembre 2025 à 09:28

Windows 10 n’a officiellement plus de support technique depuis le 14 octobre dernier. Dans l’ensemble des marchés, il est d’ordinaire possible de payer pour obtenir une année de support supplémentaire. Ce programme, nommé Extended Security Updates (ESU), est cependant gratuit en Europe. Il est limité à la première année et prendra fin (en théorie) en octobre 2026.

Dans le cadre de cette extension, des correctifs sont publiés pour les failles importantes ou critiques. Or, le dernier « Patch Tuesday » comportait une mise à jour spécifique, KB5071546, qui a entrainé de sérieux problèmes pour la fonction Message Queuing (MSMQ). Son installation a ainsi entrainé un arrêt de la fonction sur les machines Windows 10, Windows Server 2019 et Windows Server 2016.

Microsoft a rapidement publié une fiche technique pour résumer les symptômes : les files d’attente MSMQ deviennent inactives, les sites IIS ne fonctionnent plus et affichent des erreurs « Ressources insuffisantes pour effectuer l’opération », les applications ne peuvent plus écrire dans les files d’attente, des journaux (logs) affichent de faux messages « Il n’y a pas assez d’espace disque ou de mémoire », etc.

L’éditeur en profitait pour indiquer la source du souci : « Ce problème est causé par les récents changements introduits dans le modèle de sécurité MSMQ et les permissions NTFS sur le dossier C:\Windows\System32\MSMQ\storage. Les utilisateurs MSMQ doivent désormais accéder en écriture à ce dossier, qui est normalement réservé aux administrateurs. En conséquence, les tentatives d’envoi de messages via les API MSMQ peuvent échouer avec des erreurs de ressources. »

Dans la nuit du 18 au 19 décembre, Microsoft a donc publié en urgence un patch pour rétablir la fonction. L’entreprise ajoute d’ailleurs que ce problème peut aussi affecter un « environnement MSMQ clusterisé sous charge ». Les administrateurs sont invités à diffuser la mise à jour dans les parcs concernés.

Les pirates informatiques nord-coréens n’ont jamais été aussi actifs, et voraces

22 décembre 2025 à 08:40
Crypto Bros
Les pirates informatiques nord-coréens n’ont jamais été aussi actifs, et voraces

Plus de 1 800 « agents présumés » de la Corée du Nord ont cherché à être recrutés chez les sous-traitants d’Amazon en un an, en progression de 27 %. Les pirates informatiques nord-coréens ont en outre volé 2,02 milliards de dollars en cryptoactifs en 2025, soit 51 % de plus que l’an passé, pour un total de 6,75 milliards de dollars depuis 2016.

Amazon a « empêché plus de 1 800 agents présumés » de la République populaire démocratique de Corée du Nord (RPDC) de rejoindre leur entreprise depuis avril 2024, et « détecté 27 % de candidatures supplémentaires liées à la RPDC » en un an, indique Stephen Shmidt, le responsable sécurité (CSO) d’Amazon, sur LinkedIn.

La Corée du Nord cherche en effet depuis des années à obtenir des emplois en télétravail dans des entreprises d’informatique afin de reverser leurs salaires pour financer les programmes d’armement du régime, ou encore d’obtenir des accès privilégiés leur permettant d’insérer des malwares, d’exfiltrer des données et plus particulièrement de voler des cryptoactifs.

Stephen Shmidt précise qu’Amazon utilise des systèmes de détection combinant un filtrage basé sur l’IA et une vérification humaine, des vérifications des antécédents et références, à la recherche d’anomalies dans les candidatures et d’incohérences géographiques, et partage plusieurs des techniques, tactiques et procédures (TTP) des pirates nord-coréens :

  • leurs usurpations d’identité sont devenues plus sophistiquées, ils piratent aussi désormais des comptes LinkedIn inactifs grâce à des identifiants compromis, voire soudoient des comptes actifs contre rémunération ;
  • ils ciblent de plus en plus les postes liés à l’IA et à l’apprentissage automatique, « probablement parce que ceux-ci sont très demandés à mesure que les entreprises adoptent l’IA » ;
  • ils travaillent souvent avec des facilitateurs qui gèrent des « fermes d’ordinateurs portables », notamment aux États-Unis, qui font croire aux employeurs qu’ils sont dans le même pays alors qu’ils opèrent à distance depuis l’étranger ;
  • après avoir initialement prétendu être passés par des universités d’Asie de l’Est, ils tendent désormais à faire croire avoir été formés dans des établissements états-uniens.

« Ce sont les petits détails qui les trahissent. Par exemple, ces candidats indiquent souvent les numéros de téléphone américains avec « + 1 » au lieu de « 1 ». Pris isolément, cela ne signifie rien. Mais combiné à d’autres indicateurs, cela donne une image plus claire. »

Un décalage « à peine perceptible » de quelques dizaines de millisecondes

« Si nous n’avions pas cherché les travailleurs nord-coréens, nous ne les aurions pas trouvés », explique Stephen à Bloomberg, d’autant que ces vrais-faux employés ne sont pas recrutés directement par Amazon, mais par ses sous-traitants.

Amazon a surveillé la vitesse de transmission des frappes sur le clavier de l’ordinateur portable de l’un d’entre eux, censé se trouver aux États-Unis, qui « auraient dû mettre quelques dizaines de millisecondes pour atteindre le siège social d’Amazon à Seattle ». Or, le temps de transmission depuis cet ordinateur était « supérieur à 110 millisecondes », un décalage « à peine perceptible » mais suggérant que son utilisateur se trouvait à l’autre bout du monde, en Chine.

Un porte-parole d’Amazon a déclaré à Bloomberg News que les pirates nord-coréens passaient par des ordinateurs localisés aux États-Unis et administrés par une femme originaire d’Arizona. En juillet dernier, cette dernière a été condamnée à 8 ans et demi de prison pour les avoir aidés à travailler pour plus de 300 entreprises américaines, générant « plus de 17 millions de dollars de revenus illicites » pour la RPDC.

Des salaires pouvant aller jusqu’à 100 000 dollars par mois

Fin octobre, Chainalysis relevait que « ce qui n’était au départ qu’un simple programme d’emploi s’est transformé en une opération mondiale sophistiquée », mais également que « les informaticiens nord-coréens gagnent désormais entre 3 500 et 10 000 dollars par mois, les plus performants pouvant atteindre 100 000 dollars par mois » :

« Opérant principalement depuis la Chine et la Russie, ces travailleurs utilisent plusieurs fausses identités (parfois jusqu’à 12 par personne) et ciblent spécifiquement des entreprises dans des secteurs stratégiques tels que l’intelligence artificielle (IA), la blockchain et la défense. En outre, il semble que la Corée du Nord cible de plus en plus les entreprises en Allemagne, au Portugal et au Royaume-Uni. »

Un butin cumulé de 6,75 milliards de dollars de cryptoactifs

Un rapport de Chainalysis consacré aux vols de cryptoactifs en 2025 souligne de son côté que la Corée du Nord « continue de représenter la menace la plus importante pour la sécurité des cryptomonnaies, avec une année record en termes de fonds volés, malgré une réduction spectaculaire de la fréquence des attaques ».

En 2025, les attaques des pirates informatiques nord-coréens ont en effet représenté « un record de 76 % de toutes les compromissions de services » (contre 61 % en 2024), et permis de dérober « au moins 2,02 milliards de dollars » en cryptomonnaies, soit 681 millions (et 51 %) de plus qu’en 2024.

Chainalysis rappelle que le groupe nord-coréen Lazarus, responsable d’une majorité des attaques contre des cryptoactifs dans le monde, avait en effet réussi à dérober 1,5 milliard de dollars à la bourse d’échange Bybit en février 2025.

Depuis 2016, ces braquages à répétition leur auraient permis de voler un montant cumulé de 6,75 milliards de dollars de cryptoactifs.

Évolution des montants volés par les pirates nord-coréens – Chainalysis

Chainalysis précise que les montants escroqués seraient les plus importants jamais enregistrés, notamment parce qu’ils parviennent à infiltrer des informaticiens dans des entreprises de cryptos, de l’IA et de la blockchain, « ou en utilisant des tactiques sophistiquées d’usurpation d’identité visant les cadres supérieurs ».

Les pirates nord-coréens chercheraient de plus en plus à infiltrer les entreprises liées aux cryptoactifs afin d’obtenir des accès privilégiés, et de maximiser les montants de leurs braquages, note Chainalysis : « une partie de cette année record reflète probablement une dépendance accrue à l’égard de l’infiltration d’informaticiens dans les bourses, les dépositaires et les entreprises web3, ce qui peut accélérer l’accès initial et les mouvements latéraux avant un vol à grande échelle ».

Des stratégies d’ingénierie sociale ciblant des cadres supérieurs

De plus, et non contents de simplement postuler à des postes afin d’être recrutés en tant qu’employés, « ils se font de plus en plus passer pour des recruteurs de grandes entreprises du web3 et de l’IA, orchestrant de faux processus de recrutement qui aboutissent à des « tests techniques » conçus pour récolter les identifiants, le code source et l’accès VPN ou SSO à l’employeur actuel de la victime ».

Chainalysis évoque également une stratégie similaire d’ingénierie sociale ciblant des cadres supérieurs, et prenant la forme de « fausses prises de contact de la part de prétendus investisseurs ou acquéreurs stratégiques », qui profitent de réunions de présentation et de pseudo-vérifications préalables pour « obtenir des informations sensibles sur les systèmes et des voies d’accès potentielles à des infrastructures de grande valeur ».

À l’instar de ce que Chainalysis avait déjà constaté ces dernières années, « la Corée du Nord continue de mener des attaques d’une valeur nettement supérieure à celles des autres acteurs malveillants ». Entre 2022 et 2025, les piratages qui lui ont été attribués « occupent les fourchettes de valeur les plus élevées, tandis que les piratages non attribués à la Corée du Nord présentent des distributions plus normales pour toutes les tailles de vols », comme le montre le graphique qui suit : « Cette tendance confirme que lorsque les pirates nord-coréens frappent, ils ciblent les grands services et visent un impact maximal ».

Les braquages de cryptos des pirates nord-coréens surclassent les autres – Chainalysis

« La capacité de cet État-nation à mener des attaques moins nombreuses mais beaucoup plus destructrices témoigne d’une sophistication et d’une patience croissantes », conclut Chainalysis.

Air France aura déployé Starlink sur l’ensemble de sa flotte d’ici fin 2026

22 décembre 2025 à 08:07
Qui a remis une pièce dans la machine ?
Air France aura déployé Starlink sur l’ensemble de sa flotte d’ici fin 2026

Air France indique avoir déjà équipé 30 % de sa flotte d’une connexion à très haut débit Starlink et promet que la totalité de ses avions le seront d’ici fin 2026. Ce qui devait n’être qu’un simple point d’étape a relancé la polémique : Air France aurait-elle pu, ou dû, opter pour une solution européenne de type Eutelsat ?

Les communicants d’Air France ne s’attendaient probablement pas à un tel engagement. Jeudi 18 décembre, la compagnie aérienne a diffusé sur son compte X une petite séquence de 27 secondes illustrant la pose d’un module de connexion satellitaire Starlink sur le dos d’un Airbus A220. Quatre jours plus tard, le message d’origine affiche plus de 11 millions de vues, sans sponsorisation.

Sa visibilité a notamment été dopée par un retweet d’Elon Musk, patron de SpaceX (maison-mère de Starlink), qui l’a saluée d’un « très bon » en français dans le texte. Elle a aussi profité de commentaires nettement plus négatifs, dénonçant une erreur au regard des enjeux de souveraineté.

Starlink sur toute la flotte Air France d’ici fin 2026

« Nous poursuivons l’installation du wifi très haut débit à bord de nos avions, permettant de profiter gratuitement d’une qualité de service stable, rapide et sécurisée. En cette fin d’année, déjà 30% de notre flotte est équipée et la totalité le sera fin 2026 », écrit Air France.

La sélection de Starlink comme fournisseur d’accès, destiné à la fourniture d’une connexion Wi-Fi haut débit à destination des passagers, n’est pas précisément un scoop. Air France avait fait part de son projet en septembre 2024.

La compagnie expliquait alors que la constellation de satellites en orbite basse de Starlink allait lui permettre de proposer « une qualité de service de connectivité en très haut débit » à tous ses passagers, avec une structure de coût lui permettant d’envisager la gratuité pour les passagers, et ce « dans toutes les cabines de voyage ».

Avant cette annonce, Air France disposait déjà d’offres de connectivité à bord de certains de ses appareils, mais le service était payant pour l’utilisateur final, limité en bande passante, et fragmenté d’un point de vue industriel. La compagnie recourait en effet à des solutions différentes selon les appareils et le type de ligne, avec des contrats IFC (In-flight connectivity) passés chez Anuvu (ex Global Eagle), Panasonic Avionics (qui s’appuie en partie sur les capacités d’Eutelsat) ou Intelsat.

Starlink, sélectionnée en 2024 à l’issue d’un appel d’offres, présentait dans ce contexte l’intérêt d’offrir une solution à la fois intégrée et performante. « Nous avons consulté de nombreux acteurs et l’offre de Starlink est actuellement, de loin, la plus attractive du marché. Elle constitue une nette rupture en termes de qualité et de compétitivité. C’est une révolution », illustrait Alexandre Groshenny, responsable du projet dédié chez Air France, auprès de l’Usine Nouvelle. À l’époque, l’annonce du choix de Starlink n’avait pas particulièrement provoqué de réaction politique.

« Choisir Starlink plutôt qu’Eutelsat n’est pas acceptable »

Le point d’étape du 18 décembre a quant à lui suscité quelques commentaires ouvertement désapprobateurs. « Voir Air France choisir Starlink plutôt qu’Eutelsat n’est pas acceptable. Les entreprises européennes doivent comprendre qu’il s’agit désormais d’un enjeu majeur de souveraineté. Pour ma part je limiterai dorénavant mon usage de cette compagnie », a par exemple déclaré samedi Gilles Babinet, ancien coprésident du conseil national du numérique (CNNum).

« Air France, entreprise française historique, confie l’échange de données de ses voyageurs aux US et à Musk. À quand une véritable politique de souveraineté ? », s’interrogeait dès vendredi Cyprien Ronze-Spilliaert, chercheur associé au Centre de recherches de la gendarmerie nationale.

Le sujet a également ému plusieurs élus LFI dans le week-end, jusqu’à Jean-Luc Mélenchon, qui s’est exprimé dimanche soir, lui aussi sur X. « Air France choisit Starlink de Musk pour ses connexions Wi-Fi en vol plutôt que l’entreprise française et sa liaison géostationnaire plus écologique et aussi sûre. Le grand patronat de ce type n’a pas de patrie. Sauf pour les subventions et les aides sans contreparties. L’assistanat des très grandes sociétés doit cesser. »

Air France avait-elle le choix ? En réponse à ces critiques, plusieurs internautes rappellent que la fourniture d’un Wi-Fi performant est un enjeu de compétitivité commerciale pour la compagnie nationale. Or, Starlink dispose de sérieux atouts concurrentiels, notamment face à Eutelsat.

Au dernier décompte (non officiel), la constellation de SpaceX dispose en effet de plus de 9 000 satellites en orbite basse (LEO, pour low earth orbit) à environ 550 km de la Terre. Ils offrent une latence réduite, des débits conséquents et une couverture virtuellement mondiale.

Le leader européen dispose quant à lui d’une offre hybride qui associe ses satellites géostationnaires à une flotte récente d’environ 600 satellites en orbite basse (1 200 km), la constellation OneWeb LEO d’Eutelsat. L’opérateur vient justement de lever 1,5 milliard d’euros pour renforcer ses ressources en orbite basse, mais aussi préparer la future constellation européenne souveraine IRIS².

Une longueur d’avance pour Starlink

En attendant que ces investissements programmés portent leurs fruits, Starlink conserve une longueur d’avance, autant sur les capacités disponibles que sur l’accessibilité tarifaire. C’est d’ailleurs ce qui explique que François Bayrou, alors Premier ministre, avait annoncé recourir à la solution d’Elon Musk fin 2024 à Mayotte pour rétablir en urgence les communications sur l’archipel après la tempête Chido. Une décision vertement critiquée par Orange, dont le responsable des affaires publiques estimait qu’elle laissait « pantois sur le terrain de la souveraineté numérique ».

Remise sur le devant de la scène cette semaine avec Air France, la question de la souveraineté des accès et la bataille commerciale sous-jacente entre Starlink et Eutelsat pourraient bientôt connaître un nouveau rebondissement. La SNCF préparerait en effet son propre appel d’offres en vue d’équiper les TGV d’une liaison satellitaire, et l’entreprise d’Elon Musk semble déjà bien placée.

Une société de droit américain… et Elon Musk aux manettes

Au-delà du patriotisme économique, pourquoi le choix de Starlink soulève-t-il la question de la souveraineté ? SpaceX a son siège à Hawthorne en Californie. L’entreprise est de ce fait soumise aux lois des États-Unis, et plus particulièrement aux textes à dimension extraterritoriale (dont le Cloud Act et le FISA), qui ouvrent une possibilité d’accès, par l’administration ou les agences fédérales américaines, aux données des utilisateurs finaux. Difficile enfin de ne pas prendre en compte l’identité du dirigeant de SpaceX, particulièrement quand ce dernier multiplie, sur son réseau social, les attaques contre l’Europe, allant jusqu’à appeler au démantèlement de l’Union européenne.

☕️ Steam est désormais 64 bits sur Windows, les versions 32 bits abandonnées le 1er janvier

22 décembre 2025 à 07:23

Le mois dernier, nous évoquions l’arrivée du 64 bits dans la version Windows de Steam via une bêta. Dans la mise à jour stable du 19 décembre, Steam est officiellement 64 bits sur l’ensemble des machines Windows fonctionnant sur ce type d’architecture (soit la quasi-totalité des ordinateurs aujourd’hui).

Dans les notes de version, Valve confirme que les versions 32 bits de Steam ne recevront des mises à jour que jusqu’au 1ᵉʳ janvier, ne laissant plus que quelques jours. Le client continuera de fonctionner pendant un temps, mais les bugs ne seront plus corrigés.

Les mêmes notes contiennent d’autres apports, comme la possibilité de déclarer directement un message comme suspect ou de type harcèlement depuis un clic droit sur le pseudo dans une conversation de groupe. La même fenêtre permet de bloquer l’utilisateur ciblé.

On remarque aussi que cette mise à jour ajoute le support des contrôleurs Switch 2 par l’USB sur Windows, et celui des adaptateurs GameCube en mode Wii-U avec vibration sous Windows. Plusieurs bugs ont été corrigés, notamment en lien avec les gyroscopes de plusieurs manettes.

Reçu avant avant-hierNext.ink

#Flock : le Noël le plus chaud du siècle

Par :Flock
20 décembre 2025 à 12:37
Ho Ho Ho !
#Flock : le  Noël le plus chaud du siècle

Ho ho ho ! Mais qu’avons nous sous le sapin en cette merveilleuse fin d’année 2025 ? Mis à part les grands mouvements des ploucs tech toniques de par le monde, qui foutent les boules tellement ils sont têtes de nœuds ? Des bouquins pour stabiliser l‘armoire normande dans la cave mal isolée, des jouets toujours plus ébouriffants, de la chaleur et de l’intimité premium (ou pas), des petits riens avec beaucoup d’amour, c’est pas rien par les temps qui courent. Bonnes fêtes à vous ! La rubrique se met en pause, mais on se retrouve tout de même pendant les fêtes avec des petits biscuits !


Il reste 62% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Fuite de données confirmée chez SFR, liée au raccordement fibre

19 décembre 2025 à 17:34
« Gérer les interventions de raccordement »
Fuite de données confirmée chez SFR, liée au raccordement fibre

SFR alerte depuis mercredi certains de ses clients au sujet d’un accès non autorisé à l’un de ses outils informatiques ayant permis l’export de données personnelles. L’opérateur indique que cet outil est lié aux interventions de raccordement fibre, mais ne précise pas le volume de clients concernés.

Le sujet du mail annonce la couleur : « Information importante concernant vos données personnelles ». Depuis mercredi, l’opérateur SFR informe certains de ses clients d’un accès non autorisé survenu au niveau de l’un de ses systèmes informatiques.

État civil et coordonnées exposés

L’intrusion aurait permis d’accéder aux informations relatives à l’identité du détenteur du compte ainsi qu’à ses coordonnées, sans qu’on sache à ce stade si des données ont été téléchargées :

« Les données personnelles suivantes ont pu être concernées par cet incident : votre nom, prénom, adresse électronique, adresse postale, numéro de téléphone de contact, ainsi que certaines données
d’identification (référence client, identifiant, mot de passe de première connexion au Compte Client généré automatiquement par SFR).
 »

Confirmée mercredi 17 décembre par l’opérateur aux Échos, l’intrusion aurait été circonscrite : « Grâce à la mobilisation rapide de nos équipes internes, l’incident a pu être maîtrisé et rapidement clos ».

Dans son courrier, l’opérateur précise que l’accès non autorisé a concerné un outil « utilisé pour
gérer les interventions de raccordement de nos clients sur le réseau fixe
 ».

Un échantillon intrigant

S’agit-il d’un pot de miel opportuniste destiné à piéger des pirates en herbe ou des conséquences de cette fuite ? Sur le tristement célèbre Breachforums, dont une émanation a repris du service depuis quelques jours, un internaute affirme détenir un fichier de 17,4 millions de lignes émanant de SFR. La présentation qui en est faite liste des variables dont certaines évoquent directement des paramètres liés à une opération de raccordement chez un particulier.

L’auteur affirme avoir décidé de proposer son fichier à la vente faute d’avoir pu négocier les conditions d’une rançon auprès de SFR. L’échantillon mis à disposition, que nous n’avons pas pu directement contrôler, laisse imaginer une extraction issue d’un logiciel métier utilisée par les équipes terrain en charge des raccordements.

Les opérateurs toujours dans le viseur des pirates

SFR avait déjà connu une fin d’année mouvementée sur le plan des données personnelles fin 2024, période où Free avait lui aussi fait l’objet d’un vol à rebondissements. Ce nouvel incident rappelle que les opérateurs constituent des cibles de choix pour les attaquants, du fait de leurs très importants parcs clients. Les acteurs plus confidentiels n’échappent cependant pas à la vague.

D’après nos informations, l’opérateur d’infrastructures Altitude Infra a lui aussi été récemment « victime d’un vol de données sur un extranet permettant d’échanger avec ses clients opérateurs ». L’incident, survenu le 1er décembre dernier, aurait permis d’accéder à des données personnelles de clients finaux.

« Les mesures de sécurité nécessaires pour prévenir tout nouvel accès frauduleux ont été immédiatement mises en place. Altitude Infra a déclaré l’incident à la CNIL, notifié l’ANSSI et porté plainte. Les équipes sont pleinement mobilisées pour accompagner ses clients concernés par ce vol », a déclaré Altitude Infra à Next vendredi.

La justice rejette les demandes de suspension de Shein et Kick formulées par l’État

19 décembre 2025 à 16:04
Bis repetita
La justice rejette les demandes de suspension de Shein et Kick formulées par l’État

Deux dossiers très différents mais une issue commune : le tribunal judiciaire de Paris a rejeté vendredi les demandes de blocage provisoire formulées par l’État. Dans les deux cas, la justice a estimé que la mesure envisagée porterait une atteinte disproportionnée à la liberté d’expression dans le cas de Kick, et à la liberté d’entreprendre dans l’affaire Shein. L’État interjette appel de ces deux décisions.

Mise à jour, 20 décembre, 13h45 :

Le gouvernement a réagi vendredi en fin d’après-midi à ces deux décisions. Dans un communiqué, diffusé par l’intermédiaire de Bercy, il se dit convaincu du risque systémique du modèle lié à Shein, et annonce qu’il « fera appel de cette décision dans les prochains jours » à la demande du Premier ministre.


Publication initiale, 19 décembre à 17h04 :

La mesure serait « disproportionnée » au regard de ventes problématiques qui restent « ponctuelles » chez Shein et contre lesquelles la plateforme chinoise aurait déjà pris des mesures, a estimé le tribunal judiciaire de Paris.

Suite à une audience organisée le 5 décembre dernier, il a de ce fait rejeté, dans une décision communiquée vendredi à l’AFP et partagée par notre confrère Marc Rees sur LinkedIn, la demande de suspension pour trois mois des activités de Shein en France, réclamée par le gouvernement.

Dans le même temps, il a tout de même fait injonction à Shein de ne pas reprendre la vente de « produits sexuels pouvant caractériser un contenu à caractère pornographique » avant la mise en place d’un dispositif de contrôle de l’âge.

Shein a déjà pris les mesures qui s’imposaient

Rappelons que suite au scandale des poupées enfantines à caractère sexuel référencées sur sa plateforme, Shein a pris la décision, début novembre, de suspendre les activités de sa marketplace en France. « Cette suspension nous permet de renforcer nos mécanismes de responsabilité et de garantir que chaque produit proposé respecte nos standards et nos obligations légales », avait déclaré un porte-parole.

Le géant chinois argue par ailleurs qu’il n’a pas vendu directement les produits concernés, puisque ces derniers passaient par sa place de marché, et qu’il est directement intervenu dès que le problème lui a été signalé.

Shein a suspendu sa marketplace en France

Une défense jugée un peu légère par l’État français, qui a donc lancé plusieurs offensives, notamment judiciaires, à l’encontre de Shein. « Au regard des risques systémiques du fonctionnement et du modèle de Shein, l’État confirme sa demande de blocage du site pour une durée de 3 mois, ou a minima le maintien de la suspension de sa marketplace », résumait-il le 5 décembre dernier suite à l’audience.

Le ministère public avait de son côté prévenu fin novembre que la suspension pour trois mois risquait d’être considérée comme une mesure disproportionnée si aucune preuve de nouveau manquement n’était apportée.

Un avis suivi par la cour. Dans sa décision, le juge estime en effet que le blocage « porterait une atteinte injustifiée au droit à la liberté d’entreprendre », dans la mesure où « seuls certains produits de la marketplace » ont été identifiés comme illicites, sur un catalogue de plusieurs centaines de milliers d’articles.

« Si l’État français soutient que la mise en vente de ces produits est révélatrice d’un défaut systémique de contrôle, de surveillance et de régulation des produits proposés à la vente sur la plateforme, il échoue à en rapporter la preuve », note le tribunal.

Il profite enfin de sa décision pour affirmer, comme l’a souligné l’avocat Alexandre Archambault, que l’État fait fausse route en saisissant le tribunal judiciaire sur le fondement de la LCEN française, alors qu’il cherche à faire sanctionner de supposés manquements au DSA européen.

Kick maintenu, mais la chaîne de Jean Pormanove reste suspendue

Également diffusée par Marc Rees, la décision relative à la plateforme de streaming Kick suit sans surprise une logique similaire, même si cette fois c’est l’absence de modération de contenus considérés comme illicites qui est dénoncée.

Faute de preuve relative à de nouveaux manquements et compte tenu des mesures mises en place par la plateforme australienne, le tribunal rejette la demande principale de suspension de l’accès à Kick en France :

« Il n’est pas démontré que la plateforme opérée par la société Kick, qui n’est pas elle-même éditrice ou créatrice des contenus, serait dans son ensemble, par sa structure même et sa ligne éditoriale, porteuse, de manière systémique, de contenus dommageables ».

La donne est en revanche différente concernant le retour en ligne du canal par lequel diffusait le streamer décédé. « S’agissant de la salle officielle « Jean Pormanove », les éléments déjà énoncés quant aux contenus qui y ont été diffusés démontrent un dommage grave, qui serait nécessairement réactivé, si la réouverture de la salle permettait la rediffusion des anciens contenus », estime la cour.

La justice s’est en revanche prononcée ce même jour en faveur du blocage dans le cas du site Watchpeopledie.

❌