Vue normale

Reçu aujourd’hui — 6 février 2026 Next - Articles gratuits

☕️ Cerveau en « pilote automatique » : l’Europe dénonce la conception addictive de TikTok

6 février 2026 à 16:52

Dans un communiqué publié ce vendredi, la Commission européenne « a conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Toujours selon la Commission, le réseau social n’aurait pas « évalué de manière adéquate » les conséquences des « caractéristiques addictives » de sa plateforme et de la manière dont elles « pourraient nuire au bien-être physique et mental de ses utilisateurs, y compris les mineurs et les adultes vulnérables ».

Ce ne sont pas les seuls griefs ; la plateforme aurait dû considérer l’utilisation compulsive, le temps que les mineurs passent la nuit sur le réseau social, la fréquence d’ouverture, etc. Pour la Commission, les fonctionnalités de TikTok « alimentent l’envie de continuer à défiler et de déplacer le cerveau des utilisateurs en “mode pilote automatique” ».

Dessin satirique de Flock

De plus, « TikTok semble ne pas mettre en œuvre des mesures raisonnables, proportionnées et efficaces pour atténuer les risques découlant de sa conception addictive ». Cela concerne aussi bien les outils de gestion du temps que les fonctions de contrôle parental.

Bref, la Commission estime que « TikTok doit modifier la conception de base de son service ». Plusieurs pistes sont proposées : désactiver le scroll infini, mettre en place des temps d’interruption, revoir le système de recommandation, etc.

Henna Virkkunen, la responsable technologique de l’UE, attend « maintenant, après la publication de ces conclusions préliminaires, que TikTok prenne des mesures et modifie la conception de son service en Europe afin de protéger nos mineurs », comme le rapporte Reuters.

Ce ne sont pour le moment que des conclusions préliminaires qui « ne préjugent pas de l’issue de l’enquête », mais elles donnent le ton pour la suite des opérations de la Commission. La balle est maintenant dans le camp de TikTok qui a la possibilité de consulter les documents de la Commission pour répondre et se défendre. Si par contre la vision de la Commission était confirmée, TikTok risquerait « jusqu’à 6 % du chiffre d’affaires annuel mondial ».

Bien évidemment, TikTok a déjà fait savoir son profond désaccord : « Les conclusions préliminaires de la Commission présentent une description catégoriquement fausse et totalement infondée de notre plateforme, et nous prendrons toutes les mesures nécessaires pour contester ces conclusions par tous les moyens à notre disposition », comme le rapporte Reuters.

La Commission a pour rappel ouvert une procédure formelle contre TikTok en février 2024, après une enquête préliminaire. D’autres inquiétudes ont été soulevées par l’Europe, notamment sur l’accès des chercheurs aux données et la transparence de la publicité.

Sur ce dernier point, l’affaire est clôturée puisque la Commission « a obtenu l’engagement de TikTok de fournir des répertoires publicitaires qui garantissent une transparence totale des publicités sur ses services ». Les engagements sont contraignants et « répondent à toutes les préoccupations ».

Interdire les jeux vidéo violents ? La profession s’indigne de l’idée d’Emmanuel Macron

6 février 2026 à 15:53
Happy Tree Friends
Interdire les jeux vidéo violents ? La profession s’indigne de l’idée d’Emmanuel Macron

Dans une interview à Brut, Emmanuel Macron a annoncé qu’il allait confier à des experts le soin de conduire une étude pour mesurer l’effet que les jeux vidéo peuvent avoir sur les enfants, afin d’éventuellement décider s’il faut prendre des mesures visant à limiter l’impact des jeux violents sur le jeune public. Bien que très hypothétique à ce stade, l’idée a fait réagir les deux principaux syndicats de la profession vendredi.

Le télescopage n’avait probablement pas été anticipé. Vendredi matin, le jeu vidéo était à l’honneur rue de Valois, dans le Ier arrondissement de Paris. Rachida Dati y a reçu les 28 membres de l’équipe responsable de Clair-Obscur : Expédition 33, primé jeu de l’année aux Games Awards 2025, afin de les élever au rang de chevaliers des Arts et des Lettres.

« Ce succès dit quelque chose de très simple : le jeu vidéo n’est plus réservé à un âge, à une génération, à un milieu. Il a trouvé sa place, naturellement, dans nos vies culturelles. Par cette distinction, la République salue la diversité des talents de la filière du jeu vidéo et affirme que le jeu vidéo est une industrie essentielle et un art majeur, qui ont toute leur place au cœur de notre politique culturelle », a déclaré à cette occasion la ministre de la Culture, accompagnant son message sur les réseaux sociaux d’une photo souvenir.

Les membres de Sandfall Interactive ont été reçus rue de Valois par la ministre de la Culture – capture d’écran

La violence des jeux vidéo appellerait-elle la violence ?

Quelques heures plus tôt, Emmanuel Macron s’est lui aussi exprimé au sujet du jeu vidéo, mais en des termes moins flatteurs. Invité de Brut pour une longue interview (50 minutes) calibrée pour une audience plus jeune que celle des journaux télévisés, le président de la République a notamment eu l’occasion de réitérer sa volonté d’instaurer l’interdiction des réseaux sociaux aux moins de 15 ans, quitte à ce qu’il soit nécessaire, pour les publics concernés, de justifier leur âge à chaque connexion.

Plus loin dans l’interview, le président a également été amené à réagir à la vidéo d’une femme blâmant les enfants « à la dérive » qu’on laisse jouer à Fortnite dès « 7 ou 8 ans », en réaction à la récente attaque de Sanary-sur-Mer, où un adolescent de 14 ans a poignardé sa professeure.

Pour Emmanuel Macron, « il est clair que la violence, qui s’installe dans la société et chez les plus jeunes, est aussi liée au fait que les enfants, les adolescents, sont beaucoup plus exposés à de la violence dans des vidéos qu’ils vont voir sur les réseaux sociaux. Ou dans les jeux vidéo qu’ils vont faire ».

Faut-il dans ce cas interdire les jeux vidéo violents ? « C’est trop tôt pour le dire », répond le chef de l’État, avant d’indiquer qu’il souhaite disposer d’un éclairage scientifique avant de se prononcer sur l’éventualité d’une mesure nationale. « Si on voit que l’impact sur les jeunes et les ados est très mauvais, on est légitimes à se poser la question, et c’est une bonne question ».

Tout en prenant soin d’affirmer qu’il ne souhaite pas tout mettre dans le même sac, il ajoute : « il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Rappelant aux familles leur responsabilité sur le sujet, il dit nécessaire d’« objectiver la question ».

Une étude devrait de ce fait être confiée « à des experts et au Conseil national du numérique et de l’IA » et réalisée sous deux mois, ce qui permettrait d’obtenir des conclusions aux alentours de mai ou juin.

Les deux principaux syndicats du secteur vent debout contre l’idée

En attendant cette nouvelle étude, sur un sujet déjà largement débattu, le syndicat national du jeu vidéo (SNJV), qui réunit les entreprises du secteur s’est insurgé vendredi après-midi dans un communiqué.

« Le SNJV rappelle que les études scientifiques existent, et que le consensus scientifique est aujourd’hui extrêmement clair : aucune corrélation n’existe entre jeu vidéo et violence. Les raccourcis ne peuvent plus être acceptés en 2026. Mettre en cause notre filière d’une telle façon est un signal préoccupant envoyé à l’ensemble des entreprises et des professionnels de notre secteur », écrit le syndicat, qui « déplore une si grande méconnaissance de notre industrie ».

Communiqué du SNJV diffusé vendredi 6 février

Même son de cloche du côté du Syndicat des éditeurs de logiciels de loisirs (SELL), qui défend les intérêts des éditeurs. « On ne peut pas se féliciter des succès du jeu vidéo français le matin, décorer le secteur le midi, pour mieux le dénigrer le soir », proteste son délégué général.

« Depuis plus de 25 ans, le jeu vidéo déploie des outils extrêmement sophistiqués aussi bien sur les équipements à travers les dispositifs de contrôle parental, que sur les jeux vidéo eux-mêmes à travers PEGI, pour apporter des informations aux parents sur les jeux vidéo adaptés à l’âge de leurs enfants. Des millions de familles les utilisent chaque jour, mais nous pouvons encore faire mieux avec le soutien des pouvoirs publics », affirme le syndicat.

Health Data Hub : le gouvernement promet une bascule sur SecNumCloud d’ici fin 2026

6 février 2026 à 14:15
Ça ne fait que 7 ans de retard
Health Data Hub : le gouvernement promet une bascule sur SecNumCloud d’ici fin 2026

En juillet dernier, le gouvernement a lancé un appel d’offres « intercalaire » pour la migration de la Plateforme des données de santé (autrement appelée Health Data Hub) vers un hébergement autre que Microsoft Azure. Alors que certaines réponses étaient prêtes, il a choisi finalement d’enjamber cette étape et de passer à une solution dite « cible » qui se veut plus complète, mais qui devra repasser par un nouvel appel d’offres.

Les données médicales françaises stockées dans le Health Data Hub devraient bientôt être hébergées ailleurs que sur Microsoft Azure, à travers une solution plus pérenne que ce qui avait été imaginé il y a six mois. C’est en tout cas ce que promet le gouvernement.

La polémique sur la souveraineté des données stockées dans le Health Data Hub date de sa création. Officiellement permise par une loi de juillet 2019, le choix Microsoft Azure pour l’hébergement a été critiqué dès mars 2020. Après plusieurs épisodes, en 2024, la CNIL a autorisé le stockage des données de santé chez Microsoft.

Une décision que certains qualifient de contrainte par le droit : « La CNIL met extrêmement bien les formes dans sa délibération. Quand elle nous dit “Je suis obligée de le faire”, elle le pense vraiment et elle n’a pas le choix », réagissait le député Renaissance Philippe Latombe. Il n’était alors pas tendre envers l’agence du numérique en santé, la DINUM et le HDH : « Ils se foutent de la gueule du monde ! ». Au moins le message est clair.

La solution « intercalaire » finalement abandonnée

En juillet 2025, le gouvernement de l’époque avait lancé un appel d’offres pour copier le Health Data Hub (HDH) vers une solution « intercalaire ». « L’idée consiste à anticiper en hébergeant une copie de la base principale du Système national des données de santé (SDSN) – aujourd’hui maintenue par l’Assurance maladie – dans une solution souveraine placée sous la maîtrise directe du HDH », expliquait à l’époque la directrice générale du Health Data Hub Stéphanie Combes (qui a maintenant quitté ses fonctions).

Cette solution semblait suivre son bonhomme de chemin encore récemment puisque nos confrères de l’Informé expliquaient qu’« une première sélection des candidats est intervenue en fin d’année dernière et la deuxième phase avec la parution du cahier des charges doit s’ouvrir d’ici peu ». Selon leurs informations, OVHCloud s’était positionné en s’associant avec Docaposte, filiale de La Poste. Cloud Temple et le groupe Atos allaient s’allier pour faire une proposition. Et Orange Business devait lui aussi concourir.

Si S3NS (partenariat entre Google et Thales, qualifié SecNumCloud depuis peu) ne pipait mot sur ses intentions à ce sujet, Scaleway expliquait à nos confrères préférer attendre le lancement du futur marché cible. À rebours, Scaleway a donc fait le bon choix puisque le gouvernement actuel a donc décidé finalement de faire l’impasse sur la solution « intercalaire ».

Le ministère de la Santé explique dans un communiqué que « la mission d’expertise mobilisée par le Gouvernement a confirmé qu’il est techniquement possible d’engager dès à présent la migration complète vers cette solution “cible” sécurisée, résiliente, non soumise aux législations extra-communautaires, délaissant les solutions extra-européennes actuellement utilisées ». En d’autres termes, une plateforme avec une qualification SecNumCloud de l’ANSSI. À l’AFP, le gouvernement a expliqué que la procédure sera lancée dès lundi 9 février.

Une attribution du marché fin mars 2026

Selon le ministère, cette solution « permettra d’héberger une copie complète de la base principale du Système national des données de santé d’ici fin 2026, rendant la solution intercalaire inutile ». En plus, elle doit ensuite permettre l’« hébergement d’autres bases de données et [la] mise à disposition d’environnements de traitement sécurisés pour les porteurs de projets », mais le ministère ne donne pas encore de date de livraison prévue pour ces fonctionnalité. Le communiqué assure que « l’attribution de ce marché interviendra fin mars 2026 ».

Les candidats devront scruter le marché « Nuage Public » porté par la Direction interministérielle du numérique et l’Agence des achats de l’État « qui permet de mobiliser rapidement un large catalogue de solutions d’hébergement souveraines dans le respect des règles de la commande publique », explique encore le ministère.

☕️ Pour éviter les 404 dans WordPress avec un plugin, Automattic s’allie à Internet Archive

6 février 2026 à 13:52

Les liens morts pourrissent le web depuis longtemps. Toujours aussi frustrant de cliquer sur un lien et de tomber sur une page d’erreur. Selon une étude du Pew Research Center publiée en mai 2024, « 38 % des pages web qui existaient en 2013 ne sont plus accessibles dix ans plus tard ». Une solution souvent utilisée est de s’appuyer sur la Wayback Machine d’Internet Archive. Firefox a eu l’idée en 2016, Internet Archive a créé une extension pour Chrome en 2017, Brave en 2020.

C’est au tour d’Automattic, l’entreprise du co-créateur de WordPress Matthew Mullenweg et éditeur de WordPress.com, d’utiliser l’astuce.

En collaboration avec Internet Archive, comme l’organisation à but non lucratif l’explique, elle a créé le plugin Link Fixer.

Celui-ci ne fait pas que rediriger vers l’archive quand la page n’existe plus. « Il analyse automatiquement le contenu de vos publications (lors de leur enregistrement et dans les publications déjà existantes) afin de détecter les liens sortants. Pour chacun d’entre eux, il vérifie la présence d’une version archivée dans la Wayback Machine d’Internet Archive et crée un snapshot si aucune n’est disponible », explique la notice.

GPT-5.3 Codex, Claude Opus 4.6 : OpenAI et Anthropic se tirent la bourre

6 février 2026 à 13:38
Quelqu’un pour siffler la fin de la récré ?
GPT-5.3 Codex, Claude Opus 4.6 : OpenAI et Anthropic se tirent la bourre

Hier en fin de journée, en l’espace de quelques minutes, Anthropic et OpenAI ont annoncé deux nouveaux modèles : Claude Opus 4.6 pour le premier, GPT-5.3 Codex pour le second. Dans les deux cas, avec la promesse d’être « toujours plus mieux ». Anthropic met aussi en avant une inférence aux États-Unis, avec un surcoût.

Selon TechCrunch, les deux concurrents « avaient initialement prévu de sortir leurs deux outils de codage agent exactement en même temps : à 10 h PST [soit 19 h, heure française, ndlr]. Cependant, peu de temps avant la sortie initiale, Anthropic a avancé sa date de sortie de 15 minutes, devançant légèrement OpenAI dans la course à la promotion des modèles ».

Le torchon brûle publiquement entre les deux entreprises qui s’écharpent par vidéos et déclarations interposées sur la question de la publicité, OpenAI en ajoute, Anthropic s’y refuse. La guerre de communication se transforme maintenant en course à l’échalote à celui qui dégainera le premier.

Opus 4.6 fait tout mieux, avec une fenêtre contextuelle d’un million de jetons

Mais de quoi parle-t-on précisément ? Chez Anthropic, de Claude 4.6 qui « améliore les compétences en codage ». Le nouveau modèle est capable de maintenir les agents plus longtemps, de fonctionner avec des bases de code plus volumineuses, détecte mieux ses propres erreurs, etc. La société annonce aussi « une première pour les modèles Opus » : une fenêtre contextuelle d’un million de jetons, en bêta pour l’instant. En sortie, il est question de 128 000 tokens.

Dans son communiqué, Anthropic annonce que, sur le test GDPval-AA, « Opus 4.6 surpasse le deuxième meilleur modèle du secteur (GPT-5.2 d’OpenAI) d’environ 144 points »… ouf, à 15 minutes près, GTP-5.3 Codex aurait du rendre ce test caduque.

Anthropic propose aussi toute une série de mesures des performances d’Opus 4.6 face à Opus 4.5, Sonnet 4.5 (Anthropic également), Gemini 3 Pro de Google et GPT-5.2 d’OpenAI. L’entreprise est évidemment en tête dans une majorité des cas.

D’autres nouveautés sont mises en avant, notamment la gestion des équipes d’agents, la « pensée adaptative » pour permettre au modèle de mieux comprendre le contexte, plus de liberté aux développeurs pour avoir « un meilleur contrôle sur l’intelligence, la vitesse et le coût », des améliorations sur la prise en charge des documents Excel et PowerPoint, etc. Comme à chaque fois ou presque, c’est le modèle le plus puissant de l’entreprise.

GPT-5.3 Codex promet d’être « 25 % plus rapide »

Claude Opus 4.6 n’aura gardé le titre de dernier modèle que pendant un quart d’heure avant que GPT-5.3 Codex n’arrive. OpenAI aussi montre ses muscles et annonce que son modèle « repousse les limites des performances en programmation de GPT-5.2-Codex, tout en intégrant les capacités de raisonnement et de connaissances professionnelles de GPT-5.2, réunies au sein d’un seul modèle, avec en plus une exécution 25 % plus rapide ».

Dans son communiqué, OpenAI affirme que son modèle « établit de nouveaux records sur SWE-Bench Pro et Terminal Bench, et affiche d’excellents résultats sur OSWorld et GDPVal ». OpenAI ne compare toutefois pas son nouveau modèle à celui d’Anthropic, mais on peut voir que GPT-5.3 Codex est exactement au niveau de GPT-5.2 sur GDPval. Attention, cela concerne GDPVal alors qu’Anthropic parle de GDPVal-AA. GDPval est pour rappel un benchmark des IA génératives lancé par OpenAI en septembre dernier.

GPT-5.3-Codex à « contribué de manière décisive à sa propre création »

La société de Sam Altman affirme au passage que « GPT-5.3-Codex est le premier modèle d’OpenAI à avoir contribué de manière décisive à sa propre création ». « L’équipe Codex a utilisé des versions préliminaires pour déboguer son entraînement, gérer son déploiement et analyser les résultats des tests et d’évaluations », explique OpenAI.

Il est aussi intéressant de noter que le communiqué d’Anthropic parle à plusieurs reprises de GPT-5.2 et d’OpenAI, là où celui d’OpenAI ne fait aucune mention de son concurrent. GPT-5.3 Codex est mis en face de GPT 5.2 et 5.2 Codex.

De l’inférence « US-only » chez Anthropic

OpenAI en profite pour brosser NVIDIA dans le sens du poil : « GPT-5.3-Codex a été conçu pour fonctionner avec les systèmes NVIDIA GB200 NVL72, a été entraîné dessus et fonctionne sur ces mêmes systèmes. Nous remercions NVIDIA pour son partenariat ».

Du côté d’Anthropic, on met en avant la production locale avec l’US-only inference : « Pour les charges de travail qui doivent s’exécuter aux États-Unis, l’inférence aux États-Unis est disponible à 1,1x par jeton », soit 10 % de plus. Rien pour les autres pays du monde.

☕️ TrueNAS 26 se prépare, avec OpenZFS 2.4 et Linux 6.18 LTS

6 février 2026 à 12:59

Suivre la numérotation chez TrueNAS n’est pas une mince affaire. Il y a eu des chiffres classiques jusqu’à la version 13, puis une séparation en deux avec TrueNAS Core (basé sur FreeBSD, comme les versions historiques) et TrueNAS Scale (basé sur Debian).

Les deux branches ont alors évolué en parallèle avant la réunification avec TrueNAS 25.04 (Fangtooth). TrueNAS 25.10 est ensuite arrivé en version finale en octobre 2025, c’est la dernière mouture stable. Voilà qu’iXsystems, qui développe TrueNAS, parle de la prochaine version, avec une numérotation encore différente : TrueNAS 26, avec juste 26 pour 2026.

Les mises à jour suivront ensuite un cycle classique avec TrueNAS 26.1, 26.2, etc. Puis ce sera normalement au tour de TrueNAS 27 en 2027… si iXsystems ne décide pas encore une fois de changer d’avis. C’est également la fin des « noms de code sur le thème des poissons ». Enfin à voir, car dans sa documentation, iXsystems associe TrueNAS 26 au nom de code Halfmoon qui est aussi un poisson.

Il n’est pas encore question à ce stade d’une bêta de TrueNAS 26 qui n’arrivera qu’en avril, mais simplement de donner quelques lignes directrices.

Première nouveauté mise en avant : TrueNAS Webshare pour une « recherche intégrée afin de vous aider à trouver rapidement ce dont vous avez besoin sur votre stockage ». TrueNAS 26 proposera aussi une « détection et une protection contre les ransomwares », le passage à OpenZFS 2.4 (disponible depuis mi-décembre 2025), une prise en charge complète des conteneurs LXC, le passage au kernel Linux 6.18 LTS, etc.

☕️ Le Raspberry Pi 4 sans dessus dessous avec la mémoire vive

6 février 2026 à 12:18

Il y a quelques jours, la fondation Rasbperry Pi annonçait une nouvelle hausse de tarif quasi généralisée sur les micro-ordinateurs. La cause n’est pas à chercher bien loin : la pénurie sur la mémoire vive.

Via la PCN 45 (Product Change Notification) mise en ligne le 3 février et repérée par CNX (pdf), Raspberry Pi annonce une « Dual RAM variant » de son Raspberry Pi 4 Model B. Toutes les variantes de 1 à 4 Go peuvent en profiter. Une autre PCN 30 (pdf) ajoute de nouvelles références de puces pour la mémoire des Raspberry Pi 4.

Désormais, deux puces de mémoire peuvent prendre place sur le PCB (une dessus, une dessous), à la place d’une seule jusqu’à présent. Afin de laisser la place nécessaire, « certains petits composants passifs ont été déplacés ».

L’ancien PCB était en révision 9, le nouveau en révision 13a. Le software model number est désormais 1.5. Cela veut dire qu’une commande cat /proc/cpuinfo dans un terminal affichera « Raspberry Pi 4 Model B Rev 1.5 ».

Selon la fondation, cela permet une « plus grande flexibilité de la chaîne d’approvisionnement », avec au passage une « amélioration du processus de fabrication (cette nouvelle version utilise le soudage par refusion) ».

Seul le Raspberry Pi 4 Model B est concerné et les nouvelles cartes arriveront à partir de ce mois de février, le temps d’écouler les stocks chez les revendeurs évidemment.

Pour rappel, nous avons récemment comparé les performances du Raspberry Pi 4 à celles du Pi 5 et de l’Arduino Uno Q, tous en version avec 4 Go de mémoire vive.

☕️ L’Europe entend les arguments d’Apple et ne soumet pas Ads et Maps au DMA

6 février 2026 à 10:56

Fin novembre, la Commission européenne recevait une notification d’Apple expliquant que « ses services Apple Ads et Apple Maps ont atteint les seuils du Digital Markets Act (DMA) ». Sans surprise, Apple était contre le fait de désigner officiellement ses deux services comme des gatekeepers. L’Europe avait alors 45 jours pour se décider.

Les arguments ont visiblement fait mouche puisque la Commission vient d’annoncer que Ads et Maps « ne devaient pas être désignés en vertu de la législation sur les marchés numériques. Un argument retenu par l’Europe est qu’« aucun de ces services ne constitue un point d’accès important permettant aux entreprises utilisatrices d’atteindre les utilisateurs finaux ».

La Commission prend notamment en compte le fait « qu’Apple Maps a un taux d’utilisation global relativement faible dans l’UE et qu’Apple Ads a une échelle très limitée dans le secteur de la publicité en ligne dans l’UE ».

Apple se félicite évidemment de cette décision : « Ces services font face à une concurrence importante en Europe, et nous sommes heureux que la Commission ait reconnu qu’ils ne remplissent pas les critères de désignation prévus par la loi sur les marchés numériques », explique-t-elle à Reuters.

Côté publicité, Google, Amazon et Meta sont désignés comme gatekeepers, comme Google Maps sur les services. Apple reste soumis au DMA pour ses services App Store, iOS et iPadOS, ainsi que Safari. La liste complète des gatekeepers se trouve par ici.

Fake news sur Macron dans les Epstein files : le Quai d’Orsay dénonce une ingérence russe

6 février 2026 à 10:34
Le diable s'habille en Pravda
Fake news sur Macron dans les Epstein files : le Quai d’Orsay dénonce une ingérence russe

Publié jeudi 4 février sur un site usurpant l’apparence de France Soir, un article affirmait révéler une correspondance compromettante pour Emmanuel Macron au sein des millions de documents de l’affaire Epstein. Le gouvernement a rapidement dénoncé une fake news qu’il attribue, via son compte French Response, à une tentative d’ingérence russe.

S’il y a bien des mentions du président de la République française dans les millions de documents qui constituent les fameux Epstein files (environ 200), celles-ci ne revêtent, d’après nos constatations, aucun caractère compromettant. Elles ne témoignent d’ailleurs d’aucune correspondance directe entre Emmanuel Macron et le pédocriminel mort dans sa cellule en 2019.

Un faux France Soir clame révéler un scandale sexuel

Un article aux accents nettement plus scandaleux a toutefois fait surface, jeudi 4 février. Publié sur un site baptisé France Soir, il affirmait, avec des visuels, qu’Emmanuel Macron était évoqué dans une correspondance de mai 2017 entre Jeffrey Epstein et l’ancien agent de mannequins français Jean-Luc Brunel, lui aussi retrouvé mort dans sa cellule en 2022. Captures d’écran à l’appui, les propos rapportés laissaient entendre que le président allait organiser une soirée avenue Foch (adresse de l’appartement parisien d’Epstein), et qu’il fallait amener de jeunes garçons…

Le site, faussement baptisé France Soir, s’appuie sur des fichiers qui n’existent pas au sein des Epstein Files pour étayer son propos – capture d’écran Next

Problème : comme l’a signalé vendredi matin le site Les Surligneurs, les fichiers PDF dont auraient été extraits cette soi-disant conversation n’existent pas sur le dépôt dédié à l’affaire Epstein du ministère de la Justice américain. Le site en question (voir archive) se présente par ailleurs sous le nom France Soir, mais contrefait l’image et le nom de domaine de l’ancien quotidien français (qui n’est plus aujourd’hui reconnu comme un titre de presse).

Le « vrai » France Soir a d’ailleurs lui-même dénoncé ce parasitisme dès jeudi sur X, et s’est félicité, vendredi matin vers 4 heures, d’avoir obtenu la suspension du site en question, qui exploitait le nom de domaine france-soir.net.

French Response attribue la fake news à la Russie

Le Quai d’Orsay a lui aussi réagi sans tarder, par l’intermédiaire du compte French Response, que la diplomatie française exploite, sur X, pour essayer de dénoncer ou de désamorcer les opérations d’influence. Jeudi vers 15 heures, il a ainsi commenté le message d’une certaine Loetitia Halàsz, qui se présente comme une Hongroise, et relayait l’article du faux France Soir, accompagné d’une vidéo en résumant les soi-disant révélations. « Il s’est avéré que Macron était un invité fréquent de la résidence d’Epstein à Paris, 22 avenue Foch. », attaquait le compte Loetitia Halàsz.

« Il s’est avéré que Loetitia détient des secrets mondiaux. Il s’est avéré que l’IA les met en images. Il s’est avéré que l’article de France Soir n’existe pas. Il s’est avéré que des réseaux russes amplifient direct », a pour sa part retweeté French Response.

D’après BFM, une source gouvernementale aurait rapproché cette action du mode opératoire informationnel (MOI) du groupe russe ou pro-russe Storm1516, dont les actions avaient été expliquées et dénoncées en détail par Viginum, le service dédié à la lutte contre la désinformation du Secrétariat général de la défense et de la sécurité nationale (SGDSN). Ce dernier indiquait à l’époque avoir recensé 77 opérations informationnelles visant la France entre le mois d’août 2023 et le 5 mars 2025.

☕️ Substack indique avoir découvert une intrusion survenue en octobre dernier

6 février 2026 à 09:25

Le calendrier décrit risque d’être perçu comme un facteur aggravant par les utilisateurs concernés. La plateforme de newsletters Substack a alerté cette semaine certains de ses utilisateurs au sujet d’une intrusion découverte dans son système informatique le 3 février. Cet accès non autorisé serait survenu en octobre dernier.

« Le 3 février, nous avons identifié une faille dans nos systèmes qui a permis à un tiers non autorisé d’accéder à certaines données utilisateur sans autorisation, notamment les adresses e-mail, les numéros de téléphone et d’autres métadonnées internes », décrit Chris Best, CEO de Substack dans ce courrier reproduit par plusieurs utilisateurs.

La page d'accueil de Substack, qui indique
Capture d’écran de la page d’accueil de Substack

« Nous avons corrigé la faille de sécurité qui a permis cet incident. Nous menons une enquête approfondie et prenons des mesures pour améliorer nos systèmes et procédures afin d’éviter que ce type de problème ne se reproduise », promet-il encore, tout en présentant ses excuses aux concernés. Il assure par ailleurs qu’aucune donnée de paiement ou élément financier n’a été exfiltré de la plateforme.

Substack joue en effet un rôle important dans la fameuse « creator’s economy », en offrant aux créateurs et créatrices la possibilité de commercialiser directement leurs contenus auprès de leur audience via une logique d’abonnement. « Aujourd’hui, le réseau d’abonnements de Substack compte plus de 50 millions d’abonnements actifs, dont 5 millions d’abonnements payants à l’échelle mondiale », revendique l’entreprise, un temps critiquée pour son laxisme en matière de modération.

Reste à connaître la portée exacte de la fuite de données. La coïncidence pourrait n’être que fortuite mais une annonce proposant à la vente un fichier de près de 700 000 lignes, soi-disant extraits des systèmes de Substack, a été mise en ligne le 2 février dernier sur un forum spécialisé.

Reçu hier — 5 février 2026 Next - Articles gratuits

L’ICE veut multiplier ses sources de données auprès des publicitaires et des Big Tech

5 février 2026 à 16:20
Juste pour voir
L’ICE veut multiplier ses sources de données auprès des publicitaires et des Big Tech

Les services de l’immigration et des douanes s’intéressent aux données collectées par les sociétés de technologies publicitaires pour renforcer leurs pratiques d’enquête.

Les données sensibles récupérées par l’industrie publicitaire peuvent-elles servir des enquêtes menées par les autorités gouvernementales ? Si l’on en croit le service de l’immigration et des douanes (Immigration and Customs Enforcement, ICE) des États-Unis, la réponse pourrait être : oui.

L’émanation de son ministère de l’Intérieur (DHS, Department of Homeland Security) cherche en effet à mettre la main sur les vastes sommes de données de localisation que s’échangent des courtiers de données publicitaires. Présentée comme une étude de marché plutôt qu’un appel d’offres, une récente Request for Information (RFI) de l’entité indique en effet rechercher des renseignements « d’entreprises conformes aux normes de l’AdTech et de services de données de localisation ».

En parallèle, le DHS a tenté à plusieurs reprises d’obtenir des informations sur des comptes de réseaux sociaux critiquant le gouvernement Trump. De manière moins publique, rapporte TechCrunch, ses services se sont adressés à Meta, Google et d’autres pour obtenir des informations sur les comptes d’opposants au président des États-Unis, ou le contenu de leurs échanges en ligne – des requêtes contestées en justice par des ONG, dont l’American Civil Liberties Union (ACLU).

Évaluation de marché

Le document a été émis par le service des enquêtes du ministère de l’Intérieur (Homeland Security Investigations) des États-Unis, relève Biometric Update, ce qui souligne un intérêt actif des services de l’ICE pour des démonstrations de plateformes et d’outils permettant d’accéder à ce type de données.

Comme toutes les RFI, elle précise néanmoins, en majuscule : « IL S’AGIT UNIQUEMENT D’UNE DEMANDE D’INFORMATIONS. Il ne s’agit pas d’un appel d’offres. Cette demande d’informations est uniquement destinée à des fins d’étude de marché, de planification et de collecte d’informations. »

Plus loin, l’ICE explique travailler avec un « volume croissant de dossiers criminels, civils, légaux et administratifs venus de multiples sources internes et externes ». Et déclare chercher à estimer si le marché de l’adtech (technologies publicitaires) propose « des solutions commerciales prêtes à l’emploi existantes et émergentes comparables à celles proposées par les grands fournisseurs de données d’enquête et d’analyses juridiques/de risques ».

L’ADINT, investigation via données publicitaires

L’écosystème de l’ « adtech » est composé d’une multitude de sociétés aussi bien spécialisées dans le logiciel, les plateformes d’analyse de données, que des courtiers de données. Des sociétés comme Gravy Analytics, Datastream, ou l’américain Xander ont ainsi pour activité de réunir des données publicitaires de multiples origines en de vastes jeux de données qu’elles redistribuent ensuite à leurs clients, souvent pour leur permettre de viser plus précisément des « segments d’audience ».

Comme l’ont montré de multiples enquêtes, leurs pratiques de collectes de données de localisation, d’identifiants d’équipements, d’adresses IP ou autres peuvent se révéler très invasives, y compris dans des pays protégés par le Règlement Général sur la Protection des Données (RGPD), comme en Union européenne, ou par des textes similaires.

L’ICE est d’ailleurs loin d’être le premier service à s’intéresser à ce type de jeu de données. En 2022, l’Electronic Frontier Foundation constatait qu’un petit courtier nommé Fog Reveal (Dissipation de brouillard) revendait aux forces de l’ordre locales des milliards de données géolocalisées. Concrètement, ce type d’outil permet de géolocaliser un téléphone portable, sans que les autorités n’aient nécessairement les mandats de perquisition appropriés.

Dans un colloque organisé en 2024 par la CNIL et la Commission nationale de contrôle des techniques de renseignement (CNCTR), le directeur général de la Sécurité extérieure (DGSE) Nicolas Lerner avait évoqué le boom de ce que les professionnels du renseignement qualifient d’ADINT (pour Advertising Intelligence). Une pratique qui peut d’ailleurs aussi bien compromettre la sécurité des personnels des armées ou de services de renseignement que celle des citoyens, comme l’ont démontré des journalistes allemands de Bayerischer Rundfunk et netzpolitik.org.

En un simple coup de téléphone, l’un d’eux avait en effet obtenu un fichier de 3,6 milliards de points de localisation via la plateforme Datarade, ce qui avait notamment permis de repérer des dizaines d’appareils (et leurs mouvements) dans des établissements soupçonnés d’accueillir des membres de la NSA, ou encore dans une base aérienne cruciale dans les opérations de drones américaines.

Dans le cas présent, cela dit, l’intérêt exprimé par l’ICE ne peut se lire sans évoquer le croisement de jeux de données sensibles déjà réalisé par l’éphémère ministère de l’efficacité gouvernementale (DOGE) dans les premiers mois du second mandat de Donald Trump. Ni sans être rapproché des actions violentes de l’ICE contre des citoyens des États-Unis comme des ressortissants d’autres pays présents sur le territoire.

Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

5 février 2026 à 14:43
Qui c'est qu'a la plus Grok ?
Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

En 2025, le nombre de signalements par X de contenus à caractère pédosexuel a chuté de 81 % après que l’entreprise en ait internalisé la détection. Dans le même temps, Musk poussait les équipes de Grok à entraîner son chatbot débridé à reproduire des contenus à caractère sexuel.

Réagissant à la polémique autour de la vague massive de deepfakes en bikinis générés par Grok, le compte @Safety de X.com précisait le 14 janvier dernier : « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à appliquer une politique de tolérance zéro envers toute forme d’exploitation sexuelle des enfants, de nudité non consentie et de contenu sexuel non désiré ».

« Nous prenons des mesures pour supprimer les contenus violents hautement prioritaires, notamment les contenus pédopornographiques (CSAM) et la nudité non consentie, et prenons les mesures appropriées à l’encontre des comptes qui enfreignent nos règles X. Nous signalons également aux autorités compétentes les comptes qui recherchent des contenus liés à l’exploitation sexuelle des enfants, si nécessaire. »

X.com n’a pas mis à jour son rapport de transparence depuis son rachat par Elon Musk en 2022. Et le parquet de Paris explique au Monde que X aurait commencé, l’an passé, à utiliser une technologie « maison », en remplacement du système Safer de détection de contenus pédopornographiques de l’organisation Thorn, qui avait elle-même été accusée de lobbying intense en faveur du projet #ChatControl de surveillance des messageries chiffrées.

Le 18 juin 2025, @Safety avait en effet annoncé « une mise à jour importante concernant notre travail continu de détection des contenus pédopornographiques (CSAM) et […] que nous avons lancé des efforts supplémentaires de correspondance de hachage CSAM […] grâce au travail incroyable de notre équipe d’ingénieurs en sécurité, qui a mis au point des systèmes de pointe pour renforcer encore nos capacités d’application de la loi ».

En 2024, précisait @Safety, « X a envoyé 686 176 signalements au National Center for Missing and Exploited Children (NCMEC) et suspendu 4 572 486 comptes. Entre juillet et octobre 2024, @NCMEC
a obtenu 94 arrestations et 1 condamnation grâce à ce partenariat
 ».

Or, le parquet précise au Monde qu’« entre juin et octobre 2025, il a été constaté une baisse de 81,4 % des signalements concernant la France adressés par X au National Center for Missing & Exploited Children en matière de pédopornographie ».

Ce qui a entraîné les magistrats à étoffer leur enquête sur des faits de « complicité de détention d’images de mineurs représentant un caractère pédopornographique », de « complicité de diffusion, offre ou mise à disposition en bande organisée » de ces contenus.

« Faire progresser notre compréhension collective de l’univers »

Une enquête de trois journalistes du Washington Post intitulée « Dans les coulisses du pari de Musk pour attirer les utilisateurs qui a transformé Grok en générateur de porno » permet de mieux comprendre comment X et Grok en sont arrivés là.

Quelques semaines avant qu’Elon Musk ne quitte officiellement le DOGE du gouvernement de Donald Trump au printemps dernier, les employés de l’équipe chargée d’aider à définir la manière dont le chatbot Grok de xAI répond à ses utilisateurs reçurent en effet une « dérogation surprenante » de leur employeur, raconte le Post.

Elle leur demandait en effet de s’engager à travailler sur du « contenu vulgaire [profane en anglais], y compris sexuel ». La note les prévenait que leur travail les exposerait dès lors à « des contenus sensibles, violents, sexuels et/ou autres contenus choquants » qui, précisait la décharge, « peuvent être perturbants, traumatisants et/ou causer un stress psychologique ».

Peu après le retour de Musk chez xAI, une note des ressources humaines a demandé à l’équipe qui supervise des centaines de « tuteurs IA », chargés d’étiqueter les résultats de Grok afin de les améliorer, de demander aux candidats à un poste s’ils seraient à l’aise pour travailler avec du contenu « explicite ».

L’entreprise modifia également certains protocoles relatifs aux contenus à caractère sexuel. À l’origine, xAI conseillait à ses employés d’éviter d’examiner ce type de contenus sensibles, afin d’éviter d’apprendre au chatbot à pouvoir les reproduire, selon trois des personnes interrogées par le Post.

Mais le protocole fut modifié durant l’été 2025, de sorte qu’il soit acceptable d’étiqueter les images de personnes nues générées par l’IA. L’un des employés qui travaillait avec le générateur d’images de Grok raconte même avoir « souvent » reçu des demandes pour que Grok « déshabille » des gens depuis le printemps 2025, et estime que le bot s’y conformait environ 90 % du temps.

Des employés évoquent « une nouvelle orientation inquiétante » pour une entreprise qui demande explicitement à être présentée comme « une entreprise qui travaille à la mise au point d’une intelligence artificielle visant à accélérer les découvertes scientifiques humaines, dont la mission est de faire progresser notre compréhension collective de l’univers ». Une dérive leur laissant penser que l’entreprise était désormais prête à produire tout type de contenu susceptible d’attirer et de fidéliser les utilisateurs.

Accroître la popularité de Grok avec des contenus à caractère sexuel

Dans les mois qui ont suivi, ces employés ont ainsi été exposés à ce que le Post qualifie de « flot d’enregistrements audio à caractère sexuel », émanant notamment de « conversations obscènes » entre des occupants de Tesla et le chatbot de leur voiture, ainsi que des interactions à caractère sexuel d’autres utilisateurs avec Grok.

Après avoir quitté le DOGE en mai, Musk a maintenu une « présence constante » dans les bureaux de xAI, jusqu’à y passer parfois la nuit, souligne le Post. Certains employés ont été invités à ne pas prendre de vacances à la fin du printemps ou au début de l’été, mais également, et régulièrement, à y travailler la nuit et pendant des week-ends.

L’objectif assigné par Musk était d’accroître la popularité de Grok. Au fil de nombreuses réunions, il défendait une nouvelle mesure, les « secondes d’activité de l’utilisateur », censée mesurer de manière précise le temps passé par les gens à converser avec le chatbot.

À cet effet, xAI s’est mis à créer du contenu à caractère sexuel et des compagnes IA sexy. L’entreprise a aussi levé les restrictions préalablement mises en place en ignorant les avertissements internes au sujet des risques juridiques et éthiques liés à la production de tels contenus, selon des documents obtenus par le Post et des entretiens menés auprès de plus d’une demi-douzaine d’anciens employés de X et xAI, et plusieurs personnes proches de M. Musk.

Les équipes de X chargées de la sécurité avaient pourtant averti à plusieurs reprises la direction que ses outils d’IA pouvaient permettre aux utilisateurs de créer des images sexuelles d’enfants ou de célébrités à l’aide de l’IA, ce qui pourrait enfreindre la loi, selon deux de ces personnes.

Les sources du Post précisent qu’au sein de xAI, l’équipe chargée de la sécurité de l’IA de l’entreprise ne comptait en outre que deux ou trois personnes pendant la majeure partie de l’année 2025, contre des dizaines d’employés dans les équipes similaires chez OpenAI ou d’autres concurrents.

Le Post relève aussi que trois cadres supérieurs du petit groupe chargé de superviser la sécurité des produits, la sécurité de l’IA et le comportement des modèles avaient annoncé leur départ début décembre.

+ 72 % de téléchargements grâce aux deepfakes en bikinis

« La stratégie de Musk a porté ses fruits pour l’entreprise », relève le Post. Alors que Grok était autrefois classé plusieurs dizaines de places derrière ChatGPT dans le classement des applications gratuites de l’App Store d’Apple, il figure désormais dans le top 5, aux côtés du chatbot d’OpenAI et de Gemini de Google.

Selon la société d’études de marché Sensor Tower, le nombre moyen quotidien de téléchargements de l’application Grok dans le monde a bondi de 72 % entre le 1er et le 19 janvier par rapport à la même période en décembre.

Le 15 janvier, xAI publiait une offre de recrutement d’un superviseur de la sécurité chargé de « superviser la modération du contenu et le service client afin de lutter contre le spam, la fraude et les contenus préjudiciables, en appliquant les politiques de manière impartiale » afin de « faire de X un espace plus sûr et plus fiable pour les utilisateurs du monde entier ».

Le Post précise que ni Musk, ni xAI ni X n’ont répondu à sa demande détaillée de commentaires.

Nitasha Tiku, l’une des trois signataires de l’enquête du Post, fait partie de la centaine de journalistes à avoir appris leur licenciement hier. Les deux autres, Faiz Siddiqui et Elizabeth Dwoskin, semblent avoir été épargnés.

Anthropic et OpenAI se clashent sur l’introduction de la pub dans les chatbots IA

5 février 2026 à 13:21
Don't be evil?
Anthropic et OpenAI se clashent sur l’introduction de la pub dans les chatbots IA

Alors que mi-janvier OpenAI a confirmé l’arrivée de la publicité dans ChatGPT, Anthropic tient publiquement une position antipublicité dans les chatbots et promet que Claude n’en contiendra pas. L’entreprise de Dario Amodei va jusqu’à troller OpenAI en prévoyant de diffuser une publicité sur le sujet lors du Super Bowl.

La publicité est un modèle économique qui a envahi le web notamment avec son adoption massive par Google. La question de son introduction dans les chatbots d’IA générative était dans toutes les têtes depuis la sortie de ChatGPT mais elle est exposée au grand jour depuis qu’OpenAI teste sa mise en place. C’est l’occasion pour Anthropic, outsider des startups du milieu, de jouer le rôle de l’entreprise éthique en argumentant contre.

Les conversations avec les assistants IA, contexte différent du moteur de recherche et des réseaux sociaux

L’entreprise de Dario Amodei a d’abord annoncé dans un billet de blog ce mercredi que son chatbot IA restera sans pub. « Il existe de nombreux endroits propices à la publicité. Une conversation avec Claude n’en fait pas partie », affirme-t-elle. « Inclure des publicités dans les conversations avec Claude serait incompatible avec ce que nous voulons que Claude soit : un assistant véritablement utile pour le travail et la réflexion approfondie », ajoute Anthropic.

Et d’argumenter que si on a l’habitude de voir des pubs sur les moteurs de recherche et les réseaux sociaux, « les conversations avec les assistants IA sont très différentes ». « Le format est conçu pour permettre des réponses ouvertes ; les utilisateurs partagent souvent le contexte et en révèlent davantage qu’ils ne le feraient dans une requête de recherche. Cette ouverture contribue à rendre les conversations avec l’IA précieuses, mais elle les rend également susceptibles d’être influencées d’une manière que les autres produits numériques ne sont pas », affirme encore Anthropic. Bref, elle assure vouloir « se concentrer sur les entreprises, les développeurs et l’épanouissement de ses utilisateurs » et ce, sans introduire de publicité.

Des pubs d’Anthropic sur le sujet, avec diffusion lors du Super Bowl

Mais Anthropic a aussi été plus loin que ce billet de blog. L’entreprise a mis en ligne sur son profil YouTube quatre publicités qui mettent en scène des situations où l’introduction de la pub dans une conversation avec un chatbot IA semble étrange.

« Infraction », « trahison », « déception », « tricherie », les quatre pubs d’Anthropic commencent avec l’un de ces mots clairement tournés vers son concurrent direct, OpenAI.

Selon le Washington Post, l’une d’entre elles sera diffusée en version 30 secondes lors du Super Bowl. Elle met en scène un jeune homme dans un parc qui demande à un autre plus musclé comment obtenir des abdos en tablette de chocolat. Celui-ci commence à lui répondre avec une voix un peu robotique avant d’ajouter une publicité pour les semelles « StepBoost Max ».

Une offensive qui a du mal à passer pour Sam Altman

Sur X, Sam Altman s’est fendu d’un long post pour répondre à cette campagne. Reconnaissant sur le bout du clavier que ces pubs d’Anthropic sont drôles. « Mais je me demande pourquoi Anthropic opte pour quelque chose d’aussi clairement malhonnête. Notre principe le plus important en matière de publicité stipule que nous ne ferions pas exactement cela ; nous ne diffuserions évidemment jamais de publicités de la manière dont Anthropic les décrit. Nous ne sommes pas stupides et nous savons que nos utilisateurs rejetteraient cela », affirme-t-il, faisant comme si ces publicités n’assumaient pas d’être des caricatures.

« Je suppose que c’est dans la lignée de la double rhétorique d’Anthropic d’utiliser une publicité trompeuse pour critiquer des publicités théoriques trompeuses qui ne sont pas réelles, mais je ne m’attendais pas à voir cela dans une publicité diffusée pendant le Super Bowl », ajoute le CEO d’OpenAI.

En 2024 à l’école de business d’Harvard, il avait assuré « détester les pubs » et affirmé : « Je pense que les publicités ont joué un rôle important dans la mise en place d’un modèle économique pour les débuts d’Internet. Mais je pense aussi qu’elles créent en quelque sorte un décalage fondamental entre les motivations des utilisateurs et celles des entreprises qui fournissent les services ».

Et Sam Altman d’ajouter : « Je trouve que la combinaison des publicités et de l’IA est particulièrement dérangeante. Quand je pense à GPT qui me rédige une réponse, si je devais déterminer exactement qui paie pour influencer ce qui m’est présenté, je ne pense pas que cela me plairait ». Cette déclaration rejoint finalement la position actuelle d’Anthropic et montre que les affirmations des uns et des autres peuvent fluctuer au gré de leurs intérêts.

Propriété de Jeff Bezos, le Washington Post licencie plus de 300 employés

5 février 2026 à 10:45
The Washington Post dies in darkness
Propriété de Jeff Bezos, le Washington Post licencie plus de 300 employés

Le Washington Post licencie plus de 300 personnes, principalement dans sa rédaction, après plusieurs années de résultats en déclin. L’influence croissante de son propriétaire Jeff Bezos a, ces derniers mois, participé directement au mécontentement d’une partie des abonnés.

Propriété du fondateur d’Amazon Jeff Bezos, le Washington Post a procédé au licenciement de 30 % de ses effectifs le 4 février, se séparant de fait plus de 300 personnes.

Cette saignée se traduit par la fermeture des pages sports et livres du journal, par la fin de son podcast quotidien d’actualité « Post Reports », et par diverses autres réductions du côté de la couverture des actualités internationales et locales. Des employés des activités commerciales sont aussi touchés.

Difficultés accrues depuis 2020

Créé en 1877, média emblématique aux États-Unis, connu notamment pour les révélations du scandale du Watergate, le Washington Post lutte depuis plusieurs années contre de difficultés économiques similaires à celles que rencontrent de nombreux autres médias. Le média a été racheté par Jeff Bezos en 2013, époque à laquelle le magnat des technologies avait aussi pris 3 % des parts du journal spécialisé dans les informations économiques et financières Business Insider (racheté deux ans plus tard par le groupe média allemand Axel Springer SE).

Pendant les premières années,le Washington Post a continué de s’étendre, jusqu’à ce que ses difficultés économiques s’accroissent au tournant de la pandémie. Fin 2023, Jeff Bezos a embauché Will Lewis comme directeur de la rédaction pour que ce dernier trouve une manière de rendre le Washington Post rentable. En 2024, ce dernier avait indiqué aux rédactions que le journal avait perdu la moitié de son audience en quatre ans et 77 millions de dollars en 2023 (pour comparaison, Amazon a dépensé 40 millions de dollars pour obtenir les droits sur le documentaire Melania et 35 millions de dollars supplémentaires pour en faire le marketing).

Remettre le média à flot reste une gageure dans un environnement médiatique où les chiffres de circulation papier continuent de chuter, concurrencés par les pratiques numériques. L’écosystème s’est par ailleurs vu capter l’essentiel de ses revenus publicitaires par les géants numériques, tandis que l’émergence des réseaux sociaux, puis l’explosion récente des systèmes d’IA générative sont venus concurrencer directement les productions journalistiques dans les tentatives d’obtenir l’attention du public. Pour certains observateurs, le choix de l’ancien cadre de médias britanniques Will Lewis était aussi une décision de Jeff Bezos questionnable, ne serait-ce que pour sa méconnaissance de l’écosystème médiatique américain.

Ingérences éditoriales

Depuis les candidatures à la présidence des États-Unis, en 2024, le multi-milliardaire a par ailleurs agi de manière toujours plus évidente dans la ligne éditoriale du média, initialement relativement centriste. Alors que les journaux d’ampleur nationale ont, aux États-Unis, pour tradition de soutenir l’un ou l’autre des candidats, Jeff Bezos a d’abord interdit au journal de publier son article de soutien à Kamala Harris, une décision directement sanctionnée par la perte de centaines de milliers d’abonnés.

Dans les mois qui ont suivi, la dessinatrice et prix Pulitzer Ann Telnaes démissionnait après s’être vue refuser la publication d’un dessin. Ce dernier représentait Jeff Bezos ployant le genou devant Donald Trump. Les pages opinion du journal ont ensuite dû s’adapter pour ne plus accueillir que des points de vue défendant « deux piliers : les libertés personnelles et les marchés libres », selon les instructions de Jeff Bezos. Cette décision a conduit à la démission du chef de la rubrique, David Shipley.

Un an après les premiers signes de cette reprise en main, le tirage du Washington Post atteignait en octobre 2025 un seuil de faible tirage, passant sous la barre des 100 000 exemplaires quotidiens tirés pour sa version papier pour la première fois en 55 ans (contre 600 000 pour son concurrent le New-York Times en août 2025). Le journal s’est par ailleurs trouvé directement pris dans la promotion d’outils d’intelligence artificielle que son propriétaire participe à promouvoir.

Effets directs sur la qualité de l’information

En décembre, le journal déployait l’outil « Your Personal Podcast », qui devrait permettre au public de créer « leur propre briefing » et notamment de faire lire les articles par deux agents IA. Dès les premiers épisodes, les journalistes avaient demandé des comptes, le résultat multipliant des erreurs allant de problématiques de prononciation à de larges modifications du contenu des articles, de la mauvaise attribution voire de l’invention de citations, ou encore des éléments laissant entendre que certains propos de sources relevaient de la position du journal.

En réduisant les équipes chargées de fabriquer l’information de 800 à moins de 500 personnes, les licenciements annoncés ce 4 février amoindriront de même la capacité du journal à fournir de l’information de qualité. Auprès des équipes, son directeur exécutif Matt Murray a indiqué que le journal avait perdu trop d’argent, trop longtemps, rapporte The New-York Times. Il a expliqué qu’il faudrait repositionner le titre pour le rendre « plus essentiel dans la vie des gens dans ce qui devient un paysage médiatique plus bondé, plus compétitif et compliqué ».

Le plan de licenciement se fait dans un contexte plus large au sein des entreprises de Jeff Bezos. Fin janvier, Amazon annonçait en effet la suppression de 16 000 emplois. Caroline O’Donovan, la journaliste du Post en charge de suivre Amazon, fait d’ailleurs partie des personnes qui se sont vues remercier.

☕️ Mistral sort des modèles pour de la traduction vocale vers le texte instantanée

5 février 2026 à 08:03

La startup française d’IA générative vient de sortir la version 2 de sa famille Voxtral Transcribe, des modèles pour faire de la traduction vocale vers le texte (speech-to-text).

Dans son annonce, Mistral mentionne en fait deux modèles :

  • l’un en open source, Voxtral Mini 4B Realtime 2602, sous licence Apache 2.0, et via son API à 0,006 $ par minute ;
  • l’autre, Voxtral Transcribe 2, est disponible seulement via API à 0,003 $ par minute et sur les services de Mistral comme Mistral Studio et Le Chat.

Voxtral Realtime est « conçu spécialement pour la transcription en direct avec une latence configurable à moins de 200 ms, permettant l’utilisation d’agents vocaux et d’applications en temps réel », explique l’entreprise.

Quant à Voxtral Transcribe 2, il est plus fait pour transcrire des fichiers audio par lots.

Les deux modèles sont utilisables pour la traduction en treize langues : anglais, chinois, hindi, espagnol, arabe, français, portugais, russe, allemand, japonais, coréen, italien et néerlandais.

Pierre Stock, le responsable R&D chez Mistral, met en avant la taille relativement petite des modèles de son entreprise comparée à ceux des leaders américains. «Franchement, trop de GPU vous rend paresseux », affirme-t-il à Wired. « Vous testez aveuglément beaucoup de choses, mais vous ne réfléchissez pas à la voie la plus courte vers le succès ». Cette taille des modèles de Mistral peut permettre de bâtir des outils de traduction qui s’exécutent directement sur les smartphones.

L’entreprise donne plus d’explications pour l’utilisation de ses modèles dans sa documentation.

Reçu — 4 février 2026 Next - Articles gratuits

Deezer démonétise 85 % des écoutes de morceaux générés par IA

4 février 2026 à 15:42
♬ Slop ♬
Deezer démonétise 85 % des écoutes de morceaux générés par IA

Deezer a détecté que 39 % de toute la musique diffusée quotidiennement était générée par IA, et que les écoutes de ces morceaux pouvaient être boostées artificiellement jusqu’à 85 %. L’entreprise de streaming a donc décidé de démonétiser ces musiques à cette hauteur.

Deezer veut réguler l’utilisation de l’IA pour la génération de morceaux diffusés sur les plateformes de streaming. En juin dernier, l’entreprise expliquait avoir mis au point outil de détection et d’étiquetage automatique des contenus musicaux produits à 100 % par des modèles d’intelligence artificielle générative. Elle veut maintenant s’en servir pour décider de démonétiser une partie des vues des musiques que cet outil détecte.

Six mois après, l’entreprise revient avec des chiffres. Son outil lui a permis de détecter et d’étiqueter plus de 13,4 millions de titres IA. Et, « en janvier 2026, environ 60 000 titres générés par l’IA ont été diffusés chaque jour, soit environ 39 % de toute la musique diffusée quotidiennement », explique-t-elle.

« On ne pense pas que cela soit une très bonne chose pour l’industrie, car cela va entraîner une perte de confiance dans la valeur de la musique », affirme le directeur général de Deezer, Alexis Lanternier, au Figaro.

De la musique générée par IA pour créer de fausses écoutes

Mais surtout, pour l’entreprise, « la génération de faux streams reste la principale raison pour laquelle de la musique générée par l’IA est mise en ligne ». C’est-à-dire que pour Deezer, la plupart de la musique générée par IA n’est pas produite pour être vraiment écoutée mais pour engendrer des « écoutes » sur les plateformes de stream et les monétiser. Ainsi, elle explique que sur sa plateforme ce genre de fraude au stream ne représenterait que 8 % des écoutes en 2025, mais que sur les morceaux générés 100 % par IA, ce taux atteindrait jusqu’à 85 % la même année.

« La nouvelle technique des fraudeurs est de créer plein de chansons avec de l’IA, et de les faire écouter par des comptes utilisateurs qu’ils auront créés », explique toujours au Figaro Alexis Lanternier : « leur but est de comprendre comment les algorithmes de recommandation de musique fonctionnent. Ils cherchent à fabriquer un buzz artificiel afin que l’algorithme décide de mettre ces musiques dans ses playlists et dans ses recommandations d’écoute ».

Deezer se lance dans la vente de son outil de détection auprès des autres acteurs

« Bien sûr, chaque stream frauduleux que nous détectons est démonétisé afin que les redevances des artistes, auteurs-compositeurs et autres titulaires de droits humains ne soient pas affectées », explique-t-il dans le communiqué de l’entreprise. Ainsi, ces fameux 85 % de fausses écoutes de musiques générées par IA sont retirés de la monétisation par l’entreprise.

En juin, elle expliquait déjà qu’elle avait enlevé toutes ces musiques entièrement générées par IA de ses recommandations algorithmiques.

L’entreprise espère convaincre les autres acteurs de la musique en ligne de s’aligner sur ses pratiques. Si, dans son communiqué, elle dit « ouvrir » « sa technologie de détection à l’industrie musicale », le terme n’est pas utilisé comme dans le monde du libre.

Ici Deezer se lance « dans la vente de sa technologie de détection de l’IA, offrant ainsi à l’ensemble du secteur musical une option pour favoriser la transparence dans le streaming musical et réduire les incitations à la fraude musicale par l’IA ». Elle espère convaincre des acteurs de la distribution comme CD Baby ou DistroKid, glisse-t-elle à nos consœurs du Figaro en ajoutant que la Sacem a déjà signé un contrat avec la plateforme.

☕️ Texas Instruments rachète Silicon Labs pour 7,5 milliards de dollars

4 février 2026 à 15:15

Poids lourd des semiconducteurs analogiques (17,68 milliards de dollars de chiffre d’affaires en 2025), Texas Instruments ajoute une corde à son arc en formalisant, mercredi 4 février, un projet d’acquisition de son concurrent et compatriote Silicon Labs.

L’opération, réalisée intégralement en cash, est annoncée à 231 dollars par titre Silicon Labs, soit une valorisation globale d’environ 7,5 milliards de dollars pour cette entreprise de semiconducteurs dédiés aux problématiques de connectivité sans fil, notamment dans l’univers de l’Internet des objets (IoT).

« Le portefeuille de solutions de connectivité sans fil embarquées de pointe de Silicon Labs renforce notre technologie et notre propriété intellectuelle, nous permettant d’accroître notre capacité de production et de mieux servir nos clients », commente l’acquéreur.

Les produits sans fil de Silicon Labs trouvent des débouchés dans le grand public et au sein de produits industriels – capture d’écran

Texas Instruments précise par ailleurs que ses capacités industrielles sont tout à fait adaptées à la production des puces brevetées par Silicon Labs. L’entreprise (784,8 millions de dollars de chiffre d’affaires), cotée au Nasdaq et détenue principalement par de grands fonds institutionnels américains, opère en effet principalement sur un mode fabless : elle conçoit et commercialise des puces, mais en sous-traite la fabrication à des fondeurs spécialisés.

La synergie a d’autant plus de sens que Texas Instruments a, en partie pour répondre aux souhaits de l’administration Trump et conserver le bénéfice de certaines aides financières, engagé un plan d’investissement dans ses usines aux États-Unis à l’été 2025.

Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

4 février 2026 à 13:37
Total Recall
Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

D’après Windows Central, Microsoft aurait enfin accepté de tenir compte des nombreuses réactions négatives visant à démultiplier des agents IA Copilot dans son « système d’exploitation agentique » Windows 11.

En déclarant, en novembre dernier, que « Windows évolue vers un système d’exploitation agentique, connectant appareils, cloud et IA pour une productivité accrue et un travail sécurisé où que vous soyez », Pavan Davuluri, responsable de la division Windows chez Microsoft, ne s’attendait apparemment pas à recevoir l’accueil glacial que nous avions déjà chroniqué.

L’entreprise avait, dans la foulée, cherché à se justifier en expliquant comment on pourrait lancer et manipuler des agents depuis la barre des tâches, demander des résumés depuis un survol de la souris dans l’Explorateur, trouver plus efficacement ce que l’on cherche avec la nouvelle recherche sémantique, ou encore profiter de nombreux connecteurs pour presque tous les scénarios. Un Windows 365 for Agents était même prévu pour que des agents puissent créer des sessions distantes complètes pour réaliser leurs tâches… sans vraiment convaincre.

« Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11 »

« Au cours de l’année dernière, Microsoft a saisi toutes les occasions pour détériorer Windows 11 en plaçant des boutons Copilot partout où cela était possible dans les applications intégrées telles que l’Explorateur de fichiers et le Bloc-notes, même si leur implémentation était médiocre ou inutile », résume Zac Bowden de Windows Central dans un article intitulé « Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11, en réduisant Copilot et en repensant Recall dans le cadre d’un changement majeur ».

D’après notre confrère, cette vague de réactions négatives a été, au moins en partie, entendue : « selon des personnes proches des projets de Microsoft, la société est en train de réévaluer sa stratégie en matière d’IA sur Windows 11 et prévoit des changements visant à rationaliser, voire à supprimer certaines fonctionnalités d’IA qui ne sont pas pertinentes ».

Microsoft aurait ainsi suspendu, « du moins pour l’instant », le développement de boutons Copilot supplémentaires pour les applications intégrées, et aurait l’intention d’adopter une « approche plus prudente et réfléchie » quant à l’emplacement de ces boutons Copilot et à leur intégration à l’avenir, avance Windows Central.

Recall, « dans sa forme actuelle, a échoué »

Windows Recall serait lui aussi « en cours d’examen ». Des sources ont indiqué à notre confrère que Microsoft estime que Recall, « dans sa forme actuelle, a échoué », et que la société explorerait des moyens de faire évoluer le concept plutôt que de l’abandonner complètement, « en supprimant peut-être le nom Recall dans le processus, bien que cela ne soit pas confirmé ».

« La bonne nouvelle, c’est qu’il est clair que Microsoft a pris en compte les commentaires concernant son approche trop autoritaire en matière de boutons Copilot dans les applications Windows », conclut Windows Central :

« L’entreprise prend du recul pour réajuster la meilleure façon d’implémenter ces intégrations d’IA dans le système d’exploitation, dans l’espoir d’offrir une expérience d’IA plus significative et utile sur la plateforme, plutôt que d’ajouter de manière aléatoire l’icône Copilot à toutes les interfaces utilisateur possibles. »

Soutenir les utilisateurs finaux, ou les agents IA effectuant des travaux ?

Une évolution qui tranche avec le discours tenu par le CEO de Microsoft, Satya Nadella qui, en novembre, avait déclaré :  « Notre activité, qui aujourd’hui est une activité d’outils pour les utilisateurs finaux, deviendra essentiellement une activité d’infrastructure pour soutenir les agents effectuant des travaux ».

Début janvier, il avançait que le débat sur le « slop » (bouillie) n’aurait plus lieu d’être et comparait l’IA à « un échafaudage pour l’esprit humain ». Il reconnaissait cela dit que  « nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». 

Et ce, d’autant plus que, fin décembre, l’entreprise décidait de forcer de plus en plus l’intégration de Copilot à sa suite bureautique Microsoft 365, tout en augmentant les prix, afin de rentabiliser les milliards investis dans OpenAI en particulier et l’IA en général.

Le vibe coding met en danger l’open-source selon des économistes

4 février 2026 à 12:58
Aux sources de la vibe
Le vibe coding met en danger l’open-source selon des économistes

En générant du code à partir de multiples sources des logiciels libres, le vibe coding détourne en même temps nombre d’utilisateurs des personnes qui ont créé ces logiciels. Les financements, les rapports de bugs et les discussions s’amenuisent en parallèle à la destruction des communautés d’utilisateurs, constatent des chercheurs en économie.

« Dans le modèle commercial traditionnel [de l’open source], où les revenus des développeurs dépendent entièrement de l’engagement direct des utilisateurs, l’écosystème open source ne peut survivre à l’adoption généralisée de l’IA », affirment quatre chercheurs en économie.

Dans une étude mise en ligne sur la plateforme de preprint arXiv et non relue par leurs pairs, Miklós Koren, Gábor Békés, Julian Hinz et Aaron Lohmann, constatent que l’arrivée du vibe coding sur le marché du logiciel a eu des conséquences importantes sur les logiciels libres.

Les deux premiers sont chercheurs en économie à l’Université de Centre Europe (située à Budapest, cofondée et financée par George Soros). Julian Hinz est pour sa part à l’université allemande de Bielefeld et comme Aaron Lohmann, il travaille aussi pour le think tank allemand Kiel Institute.

En suivant le déclin de Stack Overflow ?

Les plateformes de discussions autour du code sur lesquelles les IA génératives ont aussi été entrainées, ont été touchées avant, à l’image de Stack Overflow. Si les volte-face de Stack Overflow à propos de l’IA ont sans doute eu des effets, en 2024, des chercheurs montraient les liens entre l’arrivée massive des LLM dans les outils de développement et la baisse de partage de connaissance sur la plateforme.

Pour illustrer un effet similaire sur les projets open-source, ces quatre chercheurs citent un message récent d’Adam Wathan, responsable de l’entreprise Tailwind Labs qui édite le projet Tailwindcss. Ce dernier explique que son entreprise a licencié 75 % de son équipe en raison de « l’impact brutal » de l’IA.

« Le trafic vers notre documentation a baissé d’environ 40 % depuis début 2023, malgré la popularité croissante de Tailwind », explique-t-il suite à une pull request qui demandait l’ajout d’une fonctionnalité permettant l’optimisation de l’utilisation de cette documentation par les modèles de langage. « Cette documentation est le seul moyen pour les gens de découvrir nos produits commerciaux, et sans clients, nous ne pouvons pas nous permettre de maintenir le framework ».

La monétisation sur la découverte du projet menacée

Les économistes expliquent dans leur étude que tous les projets open-source qui veulent monétiser leur logiciel ne s’appuient pas sur la même stratégie : « Une grande partie des activités monétisées liées aux logiciels libres concerne les services aux entreprises : le segment des grandes entreprises représentait plus de 69,0 % du marché des services open source en 2022 ».

Mais ils ajoutent qu’ « en revanche, une grande partie de l’utilisation des logiciels libres concerne la production en petites équipes et individuelle, où l’adoption peut être élevée, mais où la monétisation repose sur la découverte par le biais des canaux communautaires plutôt que sur des achats formels ». Et ce sont notamment ces projets, comme Tailwind, qui selon eux se trouvent menacés par le vibe coding.

Un détournement des utilisateurs par l’IA

Dans cet article, les économistes modélisent mathématiquement cet écosystème de l’open source reliant l’adoption des logiciels par les utilisateurs aux gains des développeurs. Puis ils ajoutent à leur modélisation l’arrivée du vibe coding. Ils regardent ensuite comment le marché évolue au sein de cette modélisation, et si les développeurs ne monétisent leur travail que via l’engagement direct et non via des alternatives s’appuyant sur l’IA (par exemple en faisant payer l’accès à des API), des dons ou autres.

De cette modélisation, les quatre chercheurs concluent qu’ avec le vibe coding, « les utilisateurs peuvent adopter plus facilement les paquets, et les développeurs peuvent s’appuyer plus efficacement sur le code existant » et la productivité augmente.

Mais « le canal de détournement de la demande fait passer les utilisateurs d’une interaction directe (lecture de la documentation, dépôt de rapports de bogues, collaboration avec les responsables de la maintenance) à une utilisation médiatisée par l’IA ». Dans les modèles commerciaux open source traditionnels basés sur la visibilité et l’engagement, ce détournement érode la base de revenus qui soutient la contribution.

Un changement de modèle économique plutôt qu’un ralentissement de l’adoption de l’IA ?

Dans leurs remarques, ces quatre chercheurs se positionnent contre un ralentissement de l’adoption de l’IA, car « les avantages sont trop importants et la technologie trop utile », mais ils plaident plutôt pour une adaptation des modèles économiques des petites entreprises d’open-source qui ne s’appuient actuellement que sur les interactions directes. Transferts directs, modes de monétisation alternatifs mais aussi et surtout « la redistribution au niveau des plateformes » sous forme de « Spotify de l’open source », seraient, selon eux, des solutions viables.

Encore faut-il, pour cette dernière solution évoquée, que la communauté de l’open-source accepte de lier directement une grande partie de ses revenus à un ou des acteurs centraux qui dirigeraient ces plateformes.

❌