Vue lecture

☕️ Cerveau en « pilote automatique » : l’Europe dénonce la conception addictive de TikTok

Dans un communiqué publié ce vendredi, la Commission européenne « a conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Toujours selon la Commission, le réseau social n’aurait pas « évalué de manière adéquate » les conséquences des « caractéristiques addictives » de sa plateforme et de la manière dont elles « pourraient nuire au bien-être physique et mental de ses utilisateurs, y compris les mineurs et les adultes vulnérables ».

Ce ne sont pas les seuls griefs ; la plateforme aurait dû considérer l’utilisation compulsive, le temps que les mineurs passent la nuit sur le réseau social, la fréquence d’ouverture, etc. Pour la Commission, les fonctionnalités de TikTok « alimentent l’envie de continuer à défiler et de déplacer le cerveau des utilisateurs en “mode pilote automatique” ».

Dessin satirique de Flock

De plus, « TikTok semble ne pas mettre en œuvre des mesures raisonnables, proportionnées et efficaces pour atténuer les risques découlant de sa conception addictive ». Cela concerne aussi bien les outils de gestion du temps que les fonctions de contrôle parental.

Bref, la Commission estime que « TikTok doit modifier la conception de base de son service ». Plusieurs pistes sont proposées : désactiver le scroll infini, mettre en place des temps d’interruption, revoir le système de recommandation, etc.

Henna Virkkunen, la responsable technologique de l’UE, attend « maintenant, après la publication de ces conclusions préliminaires, que TikTok prenne des mesures et modifie la conception de son service en Europe afin de protéger nos mineurs », comme le rapporte Reuters.

Ce ne sont pour le moment que des conclusions préliminaires qui « ne préjugent pas de l’issue de l’enquête », mais elles donnent le ton pour la suite des opérations de la Commission. La balle est maintenant dans le camp de TikTok qui a la possibilité de consulter les documents de la Commission pour répondre et se défendre. Si par contre la vision de la Commission était confirmée, TikTok risquerait « jusqu’à 6 % du chiffre d’affaires annuel mondial ».

Bien évidemment, TikTok a déjà fait savoir son profond désaccord : « Les conclusions préliminaires de la Commission présentent une description catégoriquement fausse et totalement infondée de notre plateforme, et nous prendrons toutes les mesures nécessaires pour contester ces conclusions par tous les moyens à notre disposition », comme le rapporte Reuters.

La Commission a pour rappel ouvert une procédure formelle contre TikTok en février 2024, après une enquête préliminaire. D’autres inquiétudes ont été soulevées par l’Europe, notamment sur l’accès des chercheurs aux données et la transparence de la publicité.

Sur ce dernier point, l’affaire est clôturée puisque la Commission « a obtenu l’engagement de TikTok de fournir des répertoires publicitaires qui garantissent une transparence totale des publicités sur ses services ». Les engagements sont contraignants et « répondent à toutes les préoccupations ».

  •  

Interdire les jeux vidéo violents ? La profession s’indigne de l’idée d’Emmanuel Macron

Happy Tree Friends
Interdire les jeux vidéo violents ? La profession s’indigne de l’idée d’Emmanuel Macron

Dans une interview à Brut, Emmanuel Macron a annoncé qu’il allait confier à des experts le soin de conduire une étude pour mesurer l’effet que les jeux vidéo peuvent avoir sur les enfants, afin d’éventuellement décider s’il faut prendre des mesures visant à limiter l’impact des jeux violents sur le jeune public. Bien que très hypothétique à ce stade, l’idée a fait réagir les deux principaux syndicats de la profession vendredi.

Le télescopage n’avait probablement pas été anticipé. Vendredi matin, le jeu vidéo était à l’honneur rue de Valois, dans le Ier arrondissement de Paris. Rachida Dati y a reçu les 28 membres de l’équipe responsable de Clair-Obscur : Expédition 33, primé jeu de l’année aux Games Awards 2025, afin de les élever au rang de chevaliers des Arts et des Lettres.

« Ce succès dit quelque chose de très simple : le jeu vidéo n’est plus réservé à un âge, à une génération, à un milieu. Il a trouvé sa place, naturellement, dans nos vies culturelles. Par cette distinction, la République salue la diversité des talents de la filière du jeu vidéo et affirme que le jeu vidéo est une industrie essentielle et un art majeur, qui ont toute leur place au cœur de notre politique culturelle », a déclaré à cette occasion la ministre de la Culture, accompagnant son message sur les réseaux sociaux d’une photo souvenir.

Les membres de Sandfall Interactive ont été reçus rue de Valois par la ministre de la Culture – capture d’écran

La violence des jeux vidéo appellerait-elle la violence ?

Quelques heures plus tôt, Emmanuel Macron s’est lui aussi exprimé au sujet du jeu vidéo, mais en des termes moins flatteurs. Invité de Brut pour une longue interview (50 minutes) calibrée pour une audience plus jeune que celle des journaux télévisés, le président de la République a notamment eu l’occasion de réitérer sa volonté d’instaurer l’interdiction des réseaux sociaux aux moins de 15 ans, quitte à ce qu’il soit nécessaire, pour les publics concernés, de justifier leur âge à chaque connexion.

Plus loin dans l’interview, le président a également été amené à réagir à la vidéo d’une femme blâmant les enfants « à la dérive » qu’on laisse jouer à Fortnite dès « 7 ou 8 ans », en réaction à la récente attaque de Sanary-sur-Mer, où un adolescent de 14 ans a poignardé sa professeure.

Pour Emmanuel Macron, « il est clair que la violence, qui s’installe dans la société et chez les plus jeunes, est aussi liée au fait que les enfants, les adolescents, sont beaucoup plus exposés à de la violence dans des vidéos qu’ils vont voir sur les réseaux sociaux. Ou dans les jeux vidéo qu’ils vont faire ».

Faut-il dans ce cas interdire les jeux vidéo violents ? « C’est trop tôt pour le dire », répond le chef de l’État, avant d’indiquer qu’il souhaite disposer d’un éclairage scientifique avant de se prononcer sur l’éventualité d’une mesure nationale. « Si on voit que l’impact sur les jeunes et les ados est très mauvais, on est légitimes à se poser la question, et c’est une bonne question ».

Tout en prenant soin d’affirmer qu’il ne souhaite pas tout mettre dans le même sac, il ajoute : « il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Rappelant aux familles leur responsabilité sur le sujet, il dit nécessaire d’« objectiver la question ».

Une étude devrait de ce fait être confiée « à des experts et au Conseil national du numérique et de l’IA » et réalisée sous deux mois, ce qui permettrait d’obtenir des conclusions aux alentours de mai ou juin.

Les deux principaux syndicats du secteur vent debout contre l’idée

En attendant cette nouvelle étude, sur un sujet déjà largement débattu, le syndicat national du jeu vidéo (SNJV), qui réunit les entreprises du secteur s’est insurgé vendredi après-midi dans un communiqué.

« Le SNJV rappelle que les études scientifiques existent, et que le consensus scientifique est aujourd’hui extrêmement clair : aucune corrélation n’existe entre jeu vidéo et violence. Les raccourcis ne peuvent plus être acceptés en 2026. Mettre en cause notre filière d’une telle façon est un signal préoccupant envoyé à l’ensemble des entreprises et des professionnels de notre secteur », écrit le syndicat, qui « déplore une si grande méconnaissance de notre industrie ».

Communiqué du SNJV diffusé vendredi 6 février

Même son de cloche du côté du Syndicat des éditeurs de logiciels de loisirs (SELL), qui défend les intérêts des éditeurs. « On ne peut pas se féliciter des succès du jeu vidéo français le matin, décorer le secteur le midi, pour mieux le dénigrer le soir », proteste son délégué général.

« Depuis plus de 25 ans, le jeu vidéo déploie des outils extrêmement sophistiqués aussi bien sur les équipements à travers les dispositifs de contrôle parental, que sur les jeux vidéo eux-mêmes à travers PEGI, pour apporter des informations aux parents sur les jeux vidéo adaptés à l’âge de leurs enfants. Des millions de familles les utilisent chaque jour, mais nous pouvons encore faire mieux avec le soutien des pouvoirs publics », affirme le syndicat.

  •  

Sur le dark web, plusieurs hommes ont tenté de commanditer des féminicides en France

Till death do us part
Sur le dark web, plusieurs hommes ont tenté de commanditer des féminicides en France

Se présentant comme des places de marché pour tueurs à gage, la galaxie de sites « Hitman Scam » dissimulait une vaste escroquerie opérée depuis la Roumanie. Toutefois, ses utilisateurs ont formulé de véritables projets d’assassinats, ciblant notamment des femmes en France. Next a pu accéder aux échanges glaçants entre les commanditaires et les faux assassins, alors que la justice tarde à se saisir du dossier. 

4 000 euros pour assassiner une ex-petite amie à Nancy. 1 000 euros pour frapper une femme et lui faire perdre son bébé à Paris. 575 euros pour en brûler une autre vive dans l’incendie de son appartement parisien. Voici quelques-uns des projets de féminicides, ciblant des victimes françaises, que Next dévoile pour la première fois.

Nous avons pu accéder à l’intégralité des données de plusieurs sites hébergés sur le dark web, se présentant comme des plateformes permettant d’embaucher des tueurs à gage, aux noms et adresses changeantes : Hire a hitman, Besa Mafia, #1 Hitman marketplace, Internet Killers, Hydra Hitmen, The Sinaloa Cartel Marketplace

Ces noms ronflants cachaient en réalité une arnaque simple mais lucrative, opérée depuis la Roumanie, qui délestait de leurs bitcoins des individus prêts à payer le prix fort pour, pensaient-ils, faire éliminer ou tabasser quelqu’un. Nombre d’utilisateurs français étaient des hommes cherchant à éliminer des femmes, par vengeance ou appât du gain.

Après une première interpellation en avril 2022, les administrateurs du site, qui avaient par la suite été libérés, ont été à nouveau interpellés en Roumanie le mois dernier dans le cadre d’une enquête pilotée par la police britannique, en partenariat avec Europol. Depuis, l’activité y a considérablement diminué.

« Bien qu’aucun des services proposés [n’ait été] authentique, des poursuites fructueuses ont déjà été engagées par les forces de police contre des individus qui tentaient de l’utiliser pour nuire à autrui, et des victimes potentielles ont été protégées dans le monde entier », indique le communiqué de la police britannique.

De 2016 à 2023, le chercheur britannique Chris Monteiro, spécialiste du cybercrime, est parvenu à pirater le site et à scraper (extraire de façon automatisée) l’intégralité de son contenu, c’est-à-dire son forum public mais aussi sa messagerie interne et ses relevés de transactions. Depuis, au moins 46 personnes ont été arrêtées pour avoir tenté de commanditer des assassinats ou des agressions via Besa Mafia. Lorsque des enquêtes ont été ouvertes, les suspects ont souvent été trahis par leurs transactions en bitcoins : guère familiers du concept de blockchain, ils croyaient la cryptomonnaie intraçable.

« Les administrateurs demandent aux utilisateurs de déposer 5 000 ou 10 000 euros [en bitcoins] dans l’escrow du site [un compte séquestre, NDR], soi-disant pour montrer qu’ils sont sérieux », explique Chris Monteiro à Next. « Une fois qu’ils ont trouvé un pigeon, les administrateurs inventent alors des histoires pour tenter de lui soutirer encore plus d’argent, ce qui marche une fois sur deux : le tueur s’est fait arrêter donc il faut en embaucher un autre, on doit faire appel à un assassin expert pour cette mission, etc. Néanmoins, les utilisateurs sont dangereux et veulent vraiment tuer des gens. »


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Health Data Hub : le gouvernement promet une bascule sur SecNumCloud d’ici fin 2026

Ça ne fait que 7 ans de retard
Health Data Hub : le gouvernement promet une bascule sur SecNumCloud d’ici fin 2026

En juillet dernier, le gouvernement a lancé un appel d’offres « intercalaire » pour la migration de la Plateforme des données de santé (autrement appelée Health Data Hub) vers un hébergement autre que Microsoft Azure. Alors que certaines réponses étaient prêtes, il a choisi finalement d’enjamber cette étape et de passer à une solution dite « cible » qui se veut plus complète, mais qui devra repasser par un nouvel appel d’offres.

Les données médicales françaises stockées dans le Health Data Hub devraient bientôt être hébergées ailleurs que sur Microsoft Azure, à travers une solution plus pérenne que ce qui avait été imaginé il y a six mois. C’est en tout cas ce que promet le gouvernement.

La polémique sur la souveraineté des données stockées dans le Health Data Hub date de sa création. Officiellement permise par une loi de juillet 2019, le choix Microsoft Azure pour l’hébergement a été critiqué dès mars 2020. Après plusieurs épisodes, en 2024, la CNIL a autorisé le stockage des données de santé chez Microsoft.

Une décision que certains qualifient de contrainte par le droit : « La CNIL met extrêmement bien les formes dans sa délibération. Quand elle nous dit “Je suis obligée de le faire”, elle le pense vraiment et elle n’a pas le choix », réagissait le député Renaissance Philippe Latombe. Il n’était alors pas tendre envers l’agence du numérique en santé, la DINUM et le HDH : « Ils se foutent de la gueule du monde ! ». Au moins le message est clair.

La solution « intercalaire » finalement abandonnée

En juillet 2025, le gouvernement de l’époque avait lancé un appel d’offres pour copier le Health Data Hub (HDH) vers une solution « intercalaire ». « L’idée consiste à anticiper en hébergeant une copie de la base principale du Système national des données de santé (SDSN) – aujourd’hui maintenue par l’Assurance maladie – dans une solution souveraine placée sous la maîtrise directe du HDH », expliquait à l’époque la directrice générale du Health Data Hub Stéphanie Combes (qui a maintenant quitté ses fonctions).

Cette solution semblait suivre son bonhomme de chemin encore récemment puisque nos confrères de l’Informé expliquaient qu’« une première sélection des candidats est intervenue en fin d’année dernière et la deuxième phase avec la parution du cahier des charges doit s’ouvrir d’ici peu ». Selon leurs informations, OVHCloud s’était positionné en s’associant avec Docaposte, filiale de La Poste. Cloud Temple et le groupe Atos allaient s’allier pour faire une proposition. Et Orange Business devait lui aussi concourir.

Si S3NS (partenariat entre Google et Thales, qualifié SecNumCloud depuis peu) ne pipait mot sur ses intentions à ce sujet, Scaleway expliquait à nos confrères préférer attendre le lancement du futur marché cible. À rebours, Scaleway a donc fait le bon choix puisque le gouvernement actuel a donc décidé finalement de faire l’impasse sur la solution « intercalaire ».

Le ministère de la Santé explique dans un communiqué que « la mission d’expertise mobilisée par le Gouvernement a confirmé qu’il est techniquement possible d’engager dès à présent la migration complète vers cette solution “cible” sécurisée, résiliente, non soumise aux législations extra-communautaires, délaissant les solutions extra-européennes actuellement utilisées ». En d’autres termes, une plateforme avec une qualification SecNumCloud de l’ANSSI. À l’AFP, le gouvernement a expliqué que la procédure sera lancée dès lundi 9 février.

Une attribution du marché fin mars 2026

Selon le ministère, cette solution « permettra d’héberger une copie complète de la base principale du Système national des données de santé d’ici fin 2026, rendant la solution intercalaire inutile ». En plus, elle doit ensuite permettre l’« hébergement d’autres bases de données et [la] mise à disposition d’environnements de traitement sécurisés pour les porteurs de projets », mais le ministère ne donne pas encore de date de livraison prévue pour ces fonctionnalité. Le communiqué assure que « l’attribution de ce marché interviendra fin mars 2026 ».

Les candidats devront scruter le marché « Nuage Public » porté par la Direction interministérielle du numérique et l’Agence des achats de l’État « qui permet de mobiliser rapidement un large catalogue de solutions d’hébergement souveraines dans le respect des règles de la commande publique », explique encore le ministère.

  •  

☕️ Pour éviter les 404 dans WordPress avec un plugin, Automattic s’allie à Internet Archive

Les liens morts pourrissent le web depuis longtemps. Toujours aussi frustrant de cliquer sur un lien et de tomber sur une page d’erreur. Selon une étude du Pew Research Center publiée en mai 2024, « 38 % des pages web qui existaient en 2013 ne sont plus accessibles dix ans plus tard ». Une solution souvent utilisée est de s’appuyer sur la Wayback Machine d’Internet Archive. Firefox a eu l’idée en 2016, Internet Archive a créé une extension pour Chrome en 2017, Brave en 2020.

C’est au tour d’Automattic, l’entreprise du co-créateur de WordPress Matthew Mullenweg et éditeur de WordPress.com, d’utiliser l’astuce.

En collaboration avec Internet Archive, comme l’organisation à but non lucratif l’explique, elle a créé le plugin Link Fixer.

Celui-ci ne fait pas que rediriger vers l’archive quand la page n’existe plus. « Il analyse automatiquement le contenu de vos publications (lors de leur enregistrement et dans les publications déjà existantes) afin de détecter les liens sortants. Pour chacun d’entre eux, il vérifie la présence d’une version archivée dans la Wayback Machine d’Internet Archive et crée un snapshot si aucune n’est disponible », explique la notice.

  •  

GPT-5.3 Codex, Claude Opus 4.6 : OpenAI et Anthropic se tirent la bourre

Quelqu’un pour siffler la fin de la récré ?
GPT-5.3 Codex, Claude Opus 4.6 : OpenAI et Anthropic se tirent la bourre

Hier en fin de journée, en l’espace de quelques minutes, Anthropic et OpenAI ont annoncé deux nouveaux modèles : Claude Opus 4.6 pour le premier, GPT-5.3 Codex pour le second. Dans les deux cas, avec la promesse d’être « toujours plus mieux ». Anthropic met aussi en avant une inférence aux États-Unis, avec un surcoût.

Selon TechCrunch, les deux concurrents « avaient initialement prévu de sortir leurs deux outils de codage agent exactement en même temps : à 10 h PST [soit 19 h, heure française, ndlr]. Cependant, peu de temps avant la sortie initiale, Anthropic a avancé sa date de sortie de 15 minutes, devançant légèrement OpenAI dans la course à la promotion des modèles ».

Le torchon brûle publiquement entre les deux entreprises qui s’écharpent par vidéos et déclarations interposées sur la question de la publicité, OpenAI en ajoute, Anthropic s’y refuse. La guerre de communication se transforme maintenant en course à l’échalote à celui qui dégainera le premier.

Opus 4.6 fait tout mieux, avec une fenêtre contextuelle d’un million de jetons

Mais de quoi parle-t-on précisément ? Chez Anthropic, de Claude 4.6 qui « améliore les compétences en codage ». Le nouveau modèle est capable de maintenir les agents plus longtemps, de fonctionner avec des bases de code plus volumineuses, détecte mieux ses propres erreurs, etc. La société annonce aussi « une première pour les modèles Opus » : une fenêtre contextuelle d’un million de jetons, en bêta pour l’instant. En sortie, il est question de 128 000 tokens.

Dans son communiqué, Anthropic annonce que, sur le test GDPval-AA, « Opus 4.6 surpasse le deuxième meilleur modèle du secteur (GPT-5.2 d’OpenAI) d’environ 144 points »… ouf, à 15 minutes près, GTP-5.3 Codex aurait du rendre ce test caduque.

Anthropic propose aussi toute une série de mesures des performances d’Opus 4.6 face à Opus 4.5, Sonnet 4.5 (Anthropic également), Gemini 3 Pro de Google et GPT-5.2 d’OpenAI. L’entreprise est évidemment en tête dans une majorité des cas.

D’autres nouveautés sont mises en avant, notamment la gestion des équipes d’agents, la « pensée adaptative » pour permettre au modèle de mieux comprendre le contexte, plus de liberté aux développeurs pour avoir « un meilleur contrôle sur l’intelligence, la vitesse et le coût », des améliorations sur la prise en charge des documents Excel et PowerPoint, etc. Comme à chaque fois ou presque, c’est le modèle le plus puissant de l’entreprise.

GPT-5.3 Codex promet d’être « 25 % plus rapide »

Claude Opus 4.6 n’aura gardé le titre de dernier modèle que pendant un quart d’heure avant que GPT-5.3 Codex n’arrive. OpenAI aussi montre ses muscles et annonce que son modèle « repousse les limites des performances en programmation de GPT-5.2-Codex, tout en intégrant les capacités de raisonnement et de connaissances professionnelles de GPT-5.2, réunies au sein d’un seul modèle, avec en plus une exécution 25 % plus rapide ».

Dans son communiqué, OpenAI affirme que son modèle « établit de nouveaux records sur SWE-Bench Pro et Terminal Bench, et affiche d’excellents résultats sur OSWorld et GDPVal ». OpenAI ne compare toutefois pas son nouveau modèle à celui d’Anthropic, mais on peut voir que GPT-5.3 Codex est exactement au niveau de GPT-5.2 sur GDPval. Attention, cela concerne GDPVal alors qu’Anthropic parle de GDPVal-AA. GDPval est pour rappel un benchmark des IA génératives lancé par OpenAI en septembre dernier.

GPT-5.3-Codex à « contribué de manière décisive à sa propre création »

La société de Sam Altman affirme au passage que « GPT-5.3-Codex est le premier modèle d’OpenAI à avoir contribué de manière décisive à sa propre création ». « L’équipe Codex a utilisé des versions préliminaires pour déboguer son entraînement, gérer son déploiement et analyser les résultats des tests et d’évaluations », explique OpenAI.

Il est aussi intéressant de noter que le communiqué d’Anthropic parle à plusieurs reprises de GPT-5.2 et d’OpenAI, là où celui d’OpenAI ne fait aucune mention de son concurrent. GPT-5.3 Codex est mis en face de GPT 5.2 et 5.2 Codex.

De l’inférence « US-only » chez Anthropic

OpenAI en profite pour brosser NVIDIA dans le sens du poil : « GPT-5.3-Codex a été conçu pour fonctionner avec les systèmes NVIDIA GB200 NVL72, a été entraîné dessus et fonctionne sur ces mêmes systèmes. Nous remercions NVIDIA pour son partenariat ».

Du côté d’Anthropic, on met en avant la production locale avec l’US-only inference : « Pour les charges de travail qui doivent s’exécuter aux États-Unis, l’inférence aux États-Unis est disponible à 1,1x par jeton », soit 10 % de plus. Rien pour les autres pays du monde.

  •  

☕️ TrueNAS 26 se prépare, avec OpenZFS 2.4 et Linux 6.18 LTS

Suivre la numérotation chez TrueNAS n’est pas une mince affaire. Il y a eu des chiffres classiques jusqu’à la version 13, puis une séparation en deux avec TrueNAS Core (basé sur FreeBSD, comme les versions historiques) et TrueNAS Scale (basé sur Debian).

Les deux branches ont alors évolué en parallèle avant la réunification avec TrueNAS 25.04 (Fangtooth). TrueNAS 25.10 est ensuite arrivé en version finale en octobre 2025, c’est la dernière mouture stable. Voilà qu’iXsystems, qui développe TrueNAS, parle de la prochaine version, avec une numérotation encore différente : TrueNAS 26, avec juste 26 pour 2026.

Les mises à jour suivront ensuite un cycle classique avec TrueNAS 26.1, 26.2, etc. Puis ce sera normalement au tour de TrueNAS 27 en 2027… si iXsystems ne décide pas encore une fois de changer d’avis. C’est également la fin des « noms de code sur le thème des poissons ». Enfin à voir, car dans sa documentation, iXsystems associe TrueNAS 26 au nom de code Halfmoon qui est aussi un poisson.

Il n’est pas encore question à ce stade d’une bêta de TrueNAS 26 qui n’arrivera qu’en avril, mais simplement de donner quelques lignes directrices.

Première nouveauté mise en avant : TrueNAS Webshare pour une « recherche intégrée afin de vous aider à trouver rapidement ce dont vous avez besoin sur votre stockage ». TrueNAS 26 proposera aussi une « détection et une protection contre les ransomwares », le passage à OpenZFS 2.4 (disponible depuis mi-décembre 2025), une prise en charge complète des conteneurs LXC, le passage au kernel Linux 6.18 LTS, etc.

  •  

☕️ Le Raspberry Pi 4 sans dessus dessous avec la mémoire vive

Il y a quelques jours, la fondation Rasbperry Pi annonçait une nouvelle hausse de tarif quasi généralisée sur les micro-ordinateurs. La cause n’est pas à chercher bien loin : la pénurie sur la mémoire vive.

Via la PCN 45 (Product Change Notification) mise en ligne le 3 février et repérée par CNX (pdf), Raspberry Pi annonce une « Dual RAM variant » de son Raspberry Pi 4 Model B. Toutes les variantes de 1 à 4 Go peuvent en profiter. Une autre PCN 30 (pdf) ajoute de nouvelles références de puces pour la mémoire des Raspberry Pi 4.

Désormais, deux puces de mémoire peuvent prendre place sur le PCB (une dessus, une dessous), à la place d’une seule jusqu’à présent. Afin de laisser la place nécessaire, « certains petits composants passifs ont été déplacés ».

L’ancien PCB était en révision 9, le nouveau en révision 13a. Le software model number est désormais 1.5. Cela veut dire qu’une commande cat /proc/cpuinfo dans un terminal affichera « Raspberry Pi 4 Model B Rev 1.5 ».

Selon la fondation, cela permet une « plus grande flexibilité de la chaîne d’approvisionnement », avec au passage une « amélioration du processus de fabrication (cette nouvelle version utilise le soudage par refusion) ».

Seul le Raspberry Pi 4 Model B est concerné et les nouvelles cartes arriveront à partir de ce mois de février, le temps d’écouler les stocks chez les revendeurs évidemment.

Pour rappel, nous avons récemment comparé les performances du Raspberry Pi 4 à celles du Pi 5 et de l’Arduino Uno Q, tous en version avec 4 Go de mémoire vive.

  •  

[Tuto] Auto-héberger son gestionnaire de mots de passe avec Vaultwarden (Bitwarden)

C’était mon Last Pass
[Tuto] Auto-héberger son gestionnaire de mots de passe avec Vaultwarden (Bitwarden)

Et si vous repreniez possession de vos mots de passe avec un gestionnaire auto-hébergé, qui fonctionne aussi bien sur les navigateurs que les smartphones ? Voici un tuto pour installer Vaultwarden (compatible Bitwarden) sur un VPS, c’est-à-dire un serveur virtuel privé que l’on trouve à moins de 5 euros par mois.

Bitwarden est un gestionnaire de mot de passe freemium, disponible en auto-hébergement. L’application officielle est par contre relativement lourde (surtout pour un usage individuel), nous allons donc passer par Vaultwarden, une alternative « écrite en Rust et compatible avec les clients officiels Bitwarden, parfaite pour un déploiement auto-hébergé où exécuter l’application officielle gourmande en ressources pourrait ne pas être idéal ».

Vaultwarden : une alternative open source à Bitwarden, en plus light

Vaultwarden est open source sous licence AGPL-3.0 disponible sur GitHub. Il n’est « pas associé à Bitwarden » même si, selon la page GitHub, « l’un des mainteneurs actifs de Vaultwarden est employé par Bitwarden et est autorisé à contribuer au projet sur son temps libre. Ces contributions sont indépendantes de Bitwarden et examinées par d’autres mainteneurs ». Si Bitwarden est régulièrement audité, ce n’est pas le cas du projet Vaultwarden.

Pour installer Vaultwarden sur un Virtual Private Serveur (VPS), il y a quelques étapes à suivre. Nous avons utilisé le VPS-1 d’OVHcloud (lire notre test). Vous aurez besoin de l’adresse IP de votre serveur, du nom d’utilisateur et du mot de passe pour s’y connecter en SSH, via un logiciel comme PuTTY par exemple. Ces informations peuvent se trouver dans l’interface de votre hébergeur ou bien dans un email qu’il vous a envoyé.

Première étape Docker, puis Vaultwarden

Il faut télécharger Docker, l’installer puis donner les droits d’utiliser Docker à l’utilisateur pour éviter de devoir toujours saisir un « sudo » avant une commande. Voici les commandes à saisir (cela fonctionne aussi sur d’autres VPS avec un Linux) :


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ L’Europe entend les arguments d’Apple et ne soumet pas Ads et Maps au DMA

Fin novembre, la Commission européenne recevait une notification d’Apple expliquant que « ses services Apple Ads et Apple Maps ont atteint les seuils du Digital Markets Act (DMA) ». Sans surprise, Apple était contre le fait de désigner officiellement ses deux services comme des gatekeepers. L’Europe avait alors 45 jours pour se décider.

Les arguments ont visiblement fait mouche puisque la Commission vient d’annoncer que Ads et Maps « ne devaient pas être désignés en vertu de la législation sur les marchés numériques. Un argument retenu par l’Europe est qu’« aucun de ces services ne constitue un point d’accès important permettant aux entreprises utilisatrices d’atteindre les utilisateurs finaux ».

La Commission prend notamment en compte le fait « qu’Apple Maps a un taux d’utilisation global relativement faible dans l’UE et qu’Apple Ads a une échelle très limitée dans le secteur de la publicité en ligne dans l’UE ».

Apple se félicite évidemment de cette décision : « Ces services font face à une concurrence importante en Europe, et nous sommes heureux que la Commission ait reconnu qu’ils ne remplissent pas les critères de désignation prévus par la loi sur les marchés numériques », explique-t-elle à Reuters.

Côté publicité, Google, Amazon et Meta sont désignés comme gatekeepers, comme Google Maps sur les services. Apple reste soumis au DMA pour ses services App Store, iOS et iPadOS, ainsi que Safari. La liste complète des gatekeepers se trouve par ici.

  •  

Fake news sur Macron dans les Epstein files : le Quai d’Orsay dénonce une ingérence russe

Le diable s'habille en Pravda
Fake news sur Macron dans les Epstein files : le Quai d’Orsay dénonce une ingérence russe

Publié jeudi 4 février sur un site usurpant l’apparence de France Soir, un article affirmait révéler une correspondance compromettante pour Emmanuel Macron au sein des millions de documents de l’affaire Epstein. Le gouvernement a rapidement dénoncé une fake news qu’il attribue, via son compte French Response, à une tentative d’ingérence russe.

S’il y a bien des mentions du président de la République française dans les millions de documents qui constituent les fameux Epstein files (environ 200), celles-ci ne revêtent, d’après nos constatations, aucun caractère compromettant. Elles ne témoignent d’ailleurs d’aucune correspondance directe entre Emmanuel Macron et le pédocriminel mort dans sa cellule en 2019.

Un faux France Soir clame révéler un scandale sexuel

Un article aux accents nettement plus scandaleux a toutefois fait surface, jeudi 4 février. Publié sur un site baptisé France Soir, il affirmait, avec des visuels, qu’Emmanuel Macron était évoqué dans une correspondance de mai 2017 entre Jeffrey Epstein et l’ancien agent de mannequins français Jean-Luc Brunel, lui aussi retrouvé mort dans sa cellule en 2022. Captures d’écran à l’appui, les propos rapportés laissaient entendre que le président allait organiser une soirée avenue Foch (adresse de l’appartement parisien d’Epstein), et qu’il fallait amener de jeunes garçons…

Le site, faussement baptisé France Soir, s’appuie sur des fichiers qui n’existent pas au sein des Epstein Files pour étayer son propos – capture d’écran Next

Problème : comme l’a signalé vendredi matin le site Les Surligneurs, les fichiers PDF dont auraient été extraits cette soi-disant conversation n’existent pas sur le dépôt dédié à l’affaire Epstein du ministère de la Justice américain. Le site en question (voir archive) se présente par ailleurs sous le nom France Soir, mais contrefait l’image et le nom de domaine de l’ancien quotidien français (qui n’est plus aujourd’hui reconnu comme un titre de presse).

Le « vrai » France Soir a d’ailleurs lui-même dénoncé ce parasitisme dès jeudi sur X, et s’est félicité, vendredi matin vers 4 heures, d’avoir obtenu la suspension du site en question, qui exploitait le nom de domaine france-soir.net.

French Response attribue la fake news à la Russie

Le Quai d’Orsay a lui aussi réagi sans tarder, par l’intermédiaire du compte French Response, que la diplomatie française exploite, sur X, pour essayer de dénoncer ou de désamorcer les opérations d’influence. Jeudi vers 15 heures, il a ainsi commenté le message d’une certaine Loetitia Halàsz, qui se présente comme une Hongroise, et relayait l’article du faux France Soir, accompagné d’une vidéo en résumant les soi-disant révélations. « Il s’est avéré que Macron était un invité fréquent de la résidence d’Epstein à Paris, 22 avenue Foch. », attaquait le compte Loetitia Halàsz.

« Il s’est avéré que Loetitia détient des secrets mondiaux. Il s’est avéré que l’IA les met en images. Il s’est avéré que l’article de France Soir n’existe pas. Il s’est avéré que des réseaux russes amplifient direct », a pour sa part retweeté French Response.

D’après BFM, une source gouvernementale aurait rapproché cette action du mode opératoire informationnel (MOI) du groupe russe ou pro-russe Storm1516, dont les actions avaient été expliquées et dénoncées en détail par Viginum, le service dédié à la lutte contre la désinformation du Secrétariat général de la défense et de la sécurité nationale (SGDSN). Ce dernier indiquait à l’époque avoir recensé 77 opérations informationnelles visant la France entre le mois d’août 2023 et le 5 mars 2025.

  •  

☕️ Substack indique avoir découvert une intrusion survenue en octobre dernier

Le calendrier décrit risque d’être perçu comme un facteur aggravant par les utilisateurs concernés. La plateforme de newsletters Substack a alerté cette semaine certains de ses utilisateurs au sujet d’une intrusion découverte dans son système informatique le 3 février. Cet accès non autorisé serait survenu en octobre dernier.

« Le 3 février, nous avons identifié une faille dans nos systèmes qui a permis à un tiers non autorisé d’accéder à certaines données utilisateur sans autorisation, notamment les adresses e-mail, les numéros de téléphone et d’autres métadonnées internes », décrit Chris Best, CEO de Substack dans ce courrier reproduit par plusieurs utilisateurs.

La page d'accueil de Substack, qui indique
Capture d’écran de la page d’accueil de Substack

« Nous avons corrigé la faille de sécurité qui a permis cet incident. Nous menons une enquête approfondie et prenons des mesures pour améliorer nos systèmes et procédures afin d’éviter que ce type de problème ne se reproduise », promet-il encore, tout en présentant ses excuses aux concernés. Il assure par ailleurs qu’aucune donnée de paiement ou élément financier n’a été exfiltré de la plateforme.

Substack joue en effet un rôle important dans la fameuse « creator’s economy », en offrant aux créateurs et créatrices la possibilité de commercialiser directement leurs contenus auprès de leur audience via une logique d’abonnement. « Aujourd’hui, le réseau d’abonnements de Substack compte plus de 50 millions d’abonnements actifs, dont 5 millions d’abonnements payants à l’échelle mondiale », revendique l’entreprise, un temps critiquée pour son laxisme en matière de modération.

Reste à connaître la portée exacte de la fuite de données. La coïncidence pourrait n’être que fortuite mais une annonce proposant à la vente un fichier de près de 700 000 lignes, soi-disant extraits des systèmes de Substack, a été mise en ligne le 2 février dernier sur un forum spécialisé.

  •  

OpenScholar, un système d’IA générative peut faire des citations scientifiques correctes

Une bibliographie sur les baleines à bec ? Tout de suite !
OpenScholar, un système d’IA générative peut faire des citations scientifiques correctes

Les chercheurs peuvent-ils utiliser les modèles de langages pour faire la synthèse de la littérature scientifique sur un sujet, alors que les modèles comme GPT-4o « hallucinent » les citations d’articles scientifiques dans 78 à 90 % des cas ? Des chercheurs ont mis en place OpenScholar, un système couplant un modèle de langage avec une base de données importantes de référence. Ainsi, ils obtiennent, selon eux, des résultats comparables à des chercheurs humains.

Dans un article publié dans la revue scientifique Nature ce mercredi 4 février, des chercheurs et chercheuses de l’Université de Washington à Seattle mais aussi d’autres universités comme Stanford décrivent leur système, OpenScholar, qui répond à des questions scientifiques.

Rappelons-nous que, quelques jours avant la sortie de ChatGPT en 2022, Meta a dû dépublier au bout de trois jours Galactica, son projet qui devait permettre de générer « un article avec des références, des formules et tout », dixit Yann LeCun.

Ici, les chercheurs expliquent que OpenScholar identifie les passages pertinents parmi 45 millions d’articles en libre accès et synthétise des réponses étayées par des citations. Il s’agit de donner le titre et le lien d’articles scientifiques, pas de citer le texte de la publication directement.

Le problème de Galactica et, de fait, d’une bonne partie des outils qui s’appuient sur des modèles de langage, c’est qu’ils ne peuvent pas éviter les « hallucinations ».

Limiter les hallucinations en s’appuyant sur une base de données de 45 millions d’articles

Ainsi, selon le benchmark qu’ont créé les chercheurs qui ont mis en place OpenScholar, GPT-4o « hallucine les citations d’articles scientifiques dans 78 à 90 % des cas ». C’est néanmoins un modèle qui a déjà deux ans, retiré par OpenAI. Cela peut paraître court, mais les modèles évoluent à vitesse grand V en l’espace de quelques mois et deux ans c’est presque une éternité.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Je choisis la French Tech… mais la French Tech doit faire attention à ce qu’elle choisit !

Le choix n'est rien qu'une illusion (ou pas)
Je choisis la French Tech… mais la French Tech doit faire attention à ce qu’elle choisit !

Hier soir se tenait à Bercy une conférence pour l’annonce d’une doctrine pour les achats numériques de l’État accompagnée d’une nouvelle phase de déploiement pour le programme « Je Choisis La French Tech ». C’était aussi l’occasion de rappeler à la French Tech de faire attention à ses choix, qui peuvent avoir de lourdes conséquences (financières et stratégiques) des années plus tard.

Le programme Je choisis la French Tech s’est lancé en 2023. Cette année, Julie Huguet, directrice de la mission French Tech, annonce en grande pompe depuis Bercy un « renforcement du programme » afin de créer « un environnement favorable au passage à l’échelle de ses startups ». Le but est toujours le même : les entreprises du privé et du public sont invitées à renforcer leur participation dans l’écosystème des startups françaises.

Pierre Pelouzet, médiateur des entreprises et président de l’Observatoire des relations entre start‑ups et grands comptes) donne quelques chiffres à cette occasion : 2 % des investissements des grands comptes vont dans les startups. Cela peut paraître peu, mais dit autrement cela représente déjà 2,4 milliards d’euros. Pour l’État par contre, c’est moins avec 1,42 % seulement. Les ministres délégués présents à la conférence annoncent des mesures pour faire mieux.

« L’État n’a pas pour mission de concevoir des produits »


Il reste 86% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

L’ICE veut multiplier ses sources de données auprès des publicitaires et des Big Tech

Juste pour voir
L’ICE veut multiplier ses sources de données auprès des publicitaires et des Big Tech

Les services de l’immigration et des douanes s’intéressent aux données collectées par les sociétés de technologies publicitaires pour renforcer leurs pratiques d’enquête.

Les données sensibles récupérées par l’industrie publicitaire peuvent-elles servir des enquêtes menées par les autorités gouvernementales ? Si l’on en croit le service de l’immigration et des douanes (Immigration and Customs Enforcement, ICE) des États-Unis, la réponse pourrait être : oui.

L’émanation de son ministère de l’Intérieur (DHS, Department of Homeland Security) cherche en effet à mettre la main sur les vastes sommes de données de localisation que s’échangent des courtiers de données publicitaires. Présentée comme une étude de marché plutôt qu’un appel d’offres, une récente Request for Information (RFI) de l’entité indique en effet rechercher des renseignements « d’entreprises conformes aux normes de l’AdTech et de services de données de localisation ».

En parallèle, le DHS a tenté à plusieurs reprises d’obtenir des informations sur des comptes de réseaux sociaux critiquant le gouvernement Trump. De manière moins publique, rapporte TechCrunch, ses services se sont adressés à Meta, Google et d’autres pour obtenir des informations sur les comptes d’opposants au président des États-Unis, ou le contenu de leurs échanges en ligne – des requêtes contestées en justice par des ONG, dont l’American Civil Liberties Union (ACLU).

Évaluation de marché

Le document a été émis par le service des enquêtes du ministère de l’Intérieur (Homeland Security Investigations) des États-Unis, relève Biometric Update, ce qui souligne un intérêt actif des services de l’ICE pour des démonstrations de plateformes et d’outils permettant d’accéder à ce type de données.

Comme toutes les RFI, elle précise néanmoins, en majuscule : « IL S’AGIT UNIQUEMENT D’UNE DEMANDE D’INFORMATIONS. Il ne s’agit pas d’un appel d’offres. Cette demande d’informations est uniquement destinée à des fins d’étude de marché, de planification et de collecte d’informations. »

Plus loin, l’ICE explique travailler avec un « volume croissant de dossiers criminels, civils, légaux et administratifs venus de multiples sources internes et externes ». Et déclare chercher à estimer si le marché de l’adtech (technologies publicitaires) propose « des solutions commerciales prêtes à l’emploi existantes et émergentes comparables à celles proposées par les grands fournisseurs de données d’enquête et d’analyses juridiques/de risques ».

L’ADINT, investigation via données publicitaires

L’écosystème de l’ « adtech » est composé d’une multitude de sociétés aussi bien spécialisées dans le logiciel, les plateformes d’analyse de données, que des courtiers de données. Des sociétés comme Gravy Analytics, Datastream, ou l’américain Xander ont ainsi pour activité de réunir des données publicitaires de multiples origines en de vastes jeux de données qu’elles redistribuent ensuite à leurs clients, souvent pour leur permettre de viser plus précisément des « segments d’audience ».

Comme l’ont montré de multiples enquêtes, leurs pratiques de collectes de données de localisation, d’identifiants d’équipements, d’adresses IP ou autres peuvent se révéler très invasives, y compris dans des pays protégés par le Règlement Général sur la Protection des Données (RGPD), comme en Union européenne, ou par des textes similaires.

L’ICE est d’ailleurs loin d’être le premier service à s’intéresser à ce type de jeu de données. En 2022, l’Electronic Frontier Foundation constatait qu’un petit courtier nommé Fog Reveal (Dissipation de brouillard) revendait aux forces de l’ordre locales des milliards de données géolocalisées. Concrètement, ce type d’outil permet de géolocaliser un téléphone portable, sans que les autorités n’aient nécessairement les mandats de perquisition appropriés.

Dans un colloque organisé en 2024 par la CNIL et la Commission nationale de contrôle des techniques de renseignement (CNCTR), le directeur général de la Sécurité extérieure (DGSE) Nicolas Lerner avait évoqué le boom de ce que les professionnels du renseignement qualifient d’ADINT (pour Advertising Intelligence). Une pratique qui peut d’ailleurs aussi bien compromettre la sécurité des personnels des armées ou de services de renseignement que celle des citoyens, comme l’ont démontré des journalistes allemands de Bayerischer Rundfunk et netzpolitik.org.

En un simple coup de téléphone, l’un d’eux avait en effet obtenu un fichier de 3,6 milliards de points de localisation via la plateforme Datarade, ce qui avait notamment permis de repérer des dizaines d’appareils (et leurs mouvements) dans des établissements soupçonnés d’accueillir des membres de la NSA, ou encore dans une base aérienne cruciale dans les opérations de drones américaines.

Dans le cas présent, cela dit, l’intérêt exprimé par l’ICE ne peut se lire sans évoquer le croisement de jeux de données sensibles déjà réalisé par l’éphémère ministère de l’efficacité gouvernementale (DOGE) dans les premiers mois du second mandat de Donald Trump. Ni sans être rapproché des actions violentes de l’ICE contre des citoyens des États-Unis comme des ressortissants d’autres pays présents sur le territoire.

  •  

Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

Qui c'est qu'a la plus Grok ?
Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

En 2025, le nombre de signalements par X de contenus à caractère pédosexuel a chuté de 81 % après que l’entreprise en ait internalisé la détection. Dans le même temps, Musk poussait les équipes de Grok à entraîner son chatbot débridé à reproduire des contenus à caractère sexuel.

Réagissant à la polémique autour de la vague massive de deepfakes en bikinis générés par Grok, le compte @Safety de X.com précisait le 14 janvier dernier : « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à appliquer une politique de tolérance zéro envers toute forme d’exploitation sexuelle des enfants, de nudité non consentie et de contenu sexuel non désiré ».

« Nous prenons des mesures pour supprimer les contenus violents hautement prioritaires, notamment les contenus pédopornographiques (CSAM) et la nudité non consentie, et prenons les mesures appropriées à l’encontre des comptes qui enfreignent nos règles X. Nous signalons également aux autorités compétentes les comptes qui recherchent des contenus liés à l’exploitation sexuelle des enfants, si nécessaire. »

X.com n’a pas mis à jour son rapport de transparence depuis son rachat par Elon Musk en 2022. Et le parquet de Paris explique au Monde que X aurait commencé, l’an passé, à utiliser une technologie « maison », en remplacement du système Safer de détection de contenus pédopornographiques de l’organisation Thorn, qui avait elle-même été accusée de lobbying intense en faveur du projet #ChatControl de surveillance des messageries chiffrées.

Le 18 juin 2025, @Safety avait en effet annoncé « une mise à jour importante concernant notre travail continu de détection des contenus pédopornographiques (CSAM) et […] que nous avons lancé des efforts supplémentaires de correspondance de hachage CSAM […] grâce au travail incroyable de notre équipe d’ingénieurs en sécurité, qui a mis au point des systèmes de pointe pour renforcer encore nos capacités d’application de la loi ».

En 2024, précisait @Safety, « X a envoyé 686 176 signalements au National Center for Missing and Exploited Children (NCMEC) et suspendu 4 572 486 comptes. Entre juillet et octobre 2024, @NCMEC
a obtenu 94 arrestations et 1 condamnation grâce à ce partenariat
 ».

Or, le parquet précise au Monde qu’« entre juin et octobre 2025, il a été constaté une baisse de 81,4 % des signalements concernant la France adressés par X au National Center for Missing & Exploited Children en matière de pédopornographie ».

Ce qui a entraîné les magistrats à étoffer leur enquête sur des faits de « complicité de détention d’images de mineurs représentant un caractère pédopornographique », de « complicité de diffusion, offre ou mise à disposition en bande organisée » de ces contenus.

« Faire progresser notre compréhension collective de l’univers »

Une enquête de trois journalistes du Washington Post intitulée « Dans les coulisses du pari de Musk pour attirer les utilisateurs qui a transformé Grok en générateur de porno » permet de mieux comprendre comment X et Grok en sont arrivés là.

Quelques semaines avant qu’Elon Musk ne quitte officiellement le DOGE du gouvernement de Donald Trump au printemps dernier, les employés de l’équipe chargée d’aider à définir la manière dont le chatbot Grok de xAI répond à ses utilisateurs reçurent en effet une « dérogation surprenante » de leur employeur, raconte le Post.

Elle leur demandait en effet de s’engager à travailler sur du « contenu vulgaire [profane en anglais], y compris sexuel ». La note les prévenait que leur travail les exposerait dès lors à « des contenus sensibles, violents, sexuels et/ou autres contenus choquants » qui, précisait la décharge, « peuvent être perturbants, traumatisants et/ou causer un stress psychologique ».

Peu après le retour de Musk chez xAI, une note des ressources humaines a demandé à l’équipe qui supervise des centaines de « tuteurs IA », chargés d’étiqueter les résultats de Grok afin de les améliorer, de demander aux candidats à un poste s’ils seraient à l’aise pour travailler avec du contenu « explicite ».

L’entreprise modifia également certains protocoles relatifs aux contenus à caractère sexuel. À l’origine, xAI conseillait à ses employés d’éviter d’examiner ce type de contenus sensibles, afin d’éviter d’apprendre au chatbot à pouvoir les reproduire, selon trois des personnes interrogées par le Post.

Mais le protocole fut modifié durant l’été 2025, de sorte qu’il soit acceptable d’étiqueter les images de personnes nues générées par l’IA. L’un des employés qui travaillait avec le générateur d’images de Grok raconte même avoir « souvent » reçu des demandes pour que Grok « déshabille » des gens depuis le printemps 2025, et estime que le bot s’y conformait environ 90 % du temps.

Des employés évoquent « une nouvelle orientation inquiétante » pour une entreprise qui demande explicitement à être présentée comme « une entreprise qui travaille à la mise au point d’une intelligence artificielle visant à accélérer les découvertes scientifiques humaines, dont la mission est de faire progresser notre compréhension collective de l’univers ». Une dérive leur laissant penser que l’entreprise était désormais prête à produire tout type de contenu susceptible d’attirer et de fidéliser les utilisateurs.

Accroître la popularité de Grok avec des contenus à caractère sexuel

Dans les mois qui ont suivi, ces employés ont ainsi été exposés à ce que le Post qualifie de « flot d’enregistrements audio à caractère sexuel », émanant notamment de « conversations obscènes » entre des occupants de Tesla et le chatbot de leur voiture, ainsi que des interactions à caractère sexuel d’autres utilisateurs avec Grok.

Après avoir quitté le DOGE en mai, Musk a maintenu une « présence constante » dans les bureaux de xAI, jusqu’à y passer parfois la nuit, souligne le Post. Certains employés ont été invités à ne pas prendre de vacances à la fin du printemps ou au début de l’été, mais également, et régulièrement, à y travailler la nuit et pendant des week-ends.

L’objectif assigné par Musk était d’accroître la popularité de Grok. Au fil de nombreuses réunions, il défendait une nouvelle mesure, les « secondes d’activité de l’utilisateur », censée mesurer de manière précise le temps passé par les gens à converser avec le chatbot.

À cet effet, xAI s’est mis à créer du contenu à caractère sexuel et des compagnes IA sexy. L’entreprise a aussi levé les restrictions préalablement mises en place en ignorant les avertissements internes au sujet des risques juridiques et éthiques liés à la production de tels contenus, selon des documents obtenus par le Post et des entretiens menés auprès de plus d’une demi-douzaine d’anciens employés de X et xAI, et plusieurs personnes proches de M. Musk.

Les équipes de X chargées de la sécurité avaient pourtant averti à plusieurs reprises la direction que ses outils d’IA pouvaient permettre aux utilisateurs de créer des images sexuelles d’enfants ou de célébrités à l’aide de l’IA, ce qui pourrait enfreindre la loi, selon deux de ces personnes.

Les sources du Post précisent qu’au sein de xAI, l’équipe chargée de la sécurité de l’IA de l’entreprise ne comptait en outre que deux ou trois personnes pendant la majeure partie de l’année 2025, contre des dizaines d’employés dans les équipes similaires chez OpenAI ou d’autres concurrents.

Le Post relève aussi que trois cadres supérieurs du petit groupe chargé de superviser la sécurité des produits, la sécurité de l’IA et le comportement des modèles avaient annoncé leur départ début décembre.

+ 72 % de téléchargements grâce aux deepfakes en bikinis

« La stratégie de Musk a porté ses fruits pour l’entreprise », relève le Post. Alors que Grok était autrefois classé plusieurs dizaines de places derrière ChatGPT dans le classement des applications gratuites de l’App Store d’Apple, il figure désormais dans le top 5, aux côtés du chatbot d’OpenAI et de Gemini de Google.

Selon la société d’études de marché Sensor Tower, le nombre moyen quotidien de téléchargements de l’application Grok dans le monde a bondi de 72 % entre le 1er et le 19 janvier par rapport à la même période en décembre.

Le 15 janvier, xAI publiait une offre de recrutement d’un superviseur de la sécurité chargé de « superviser la modération du contenu et le service client afin de lutter contre le spam, la fraude et les contenus préjudiciables, en appliquant les politiques de manière impartiale » afin de « faire de X un espace plus sûr et plus fiable pour les utilisateurs du monde entier ».

Le Post précise que ni Musk, ni xAI ni X n’ont répondu à sa demande détaillée de commentaires.

Nitasha Tiku, l’une des trois signataires de l’enquête du Post, fait partie de la centaine de journalistes à avoir appris leur licenciement hier. Les deux autres, Faiz Siddiqui et Elizabeth Dwoskin, semblent avoir été épargnés.

  •  

Anthropic et OpenAI se clashent sur l’introduction de la pub dans les chatbots IA

Don't be evil?
Anthropic et OpenAI se clashent sur l’introduction de la pub dans les chatbots IA

Alors que mi-janvier OpenAI a confirmé l’arrivée de la publicité dans ChatGPT, Anthropic tient publiquement une position antipublicité dans les chatbots et promet que Claude n’en contiendra pas. L’entreprise de Dario Amodei va jusqu’à troller OpenAI en prévoyant de diffuser une publicité sur le sujet lors du Super Bowl.

La publicité est un modèle économique qui a envahi le web notamment avec son adoption massive par Google. La question de son introduction dans les chatbots d’IA générative était dans toutes les têtes depuis la sortie de ChatGPT mais elle est exposée au grand jour depuis qu’OpenAI teste sa mise en place. C’est l’occasion pour Anthropic, outsider des startups du milieu, de jouer le rôle de l’entreprise éthique en argumentant contre.

Les conversations avec les assistants IA, contexte différent du moteur de recherche et des réseaux sociaux

L’entreprise de Dario Amodei a d’abord annoncé dans un billet de blog ce mercredi que son chatbot IA restera sans pub. « Il existe de nombreux endroits propices à la publicité. Une conversation avec Claude n’en fait pas partie », affirme-t-elle. « Inclure des publicités dans les conversations avec Claude serait incompatible avec ce que nous voulons que Claude soit : un assistant véritablement utile pour le travail et la réflexion approfondie », ajoute Anthropic.

Et d’argumenter que si on a l’habitude de voir des pubs sur les moteurs de recherche et les réseaux sociaux, « les conversations avec les assistants IA sont très différentes ». « Le format est conçu pour permettre des réponses ouvertes ; les utilisateurs partagent souvent le contexte et en révèlent davantage qu’ils ne le feraient dans une requête de recherche. Cette ouverture contribue à rendre les conversations avec l’IA précieuses, mais elle les rend également susceptibles d’être influencées d’une manière que les autres produits numériques ne sont pas », affirme encore Anthropic. Bref, elle assure vouloir « se concentrer sur les entreprises, les développeurs et l’épanouissement de ses utilisateurs » et ce, sans introduire de publicité.

Des pubs d’Anthropic sur le sujet, avec diffusion lors du Super Bowl

Mais Anthropic a aussi été plus loin que ce billet de blog. L’entreprise a mis en ligne sur son profil YouTube quatre publicités qui mettent en scène des situations où l’introduction de la pub dans une conversation avec un chatbot IA semble étrange.

« Infraction », « trahison », « déception », « tricherie », les quatre pubs d’Anthropic commencent avec l’un de ces mots clairement tournés vers son concurrent direct, OpenAI.

Selon le Washington Post, l’une d’entre elles sera diffusée en version 30 secondes lors du Super Bowl. Elle met en scène un jeune homme dans un parc qui demande à un autre plus musclé comment obtenir des abdos en tablette de chocolat. Celui-ci commence à lui répondre avec une voix un peu robotique avant d’ajouter une publicité pour les semelles « StepBoost Max ».

Une offensive qui a du mal à passer pour Sam Altman

Sur X, Sam Altman s’est fendu d’un long post pour répondre à cette campagne. Reconnaissant sur le bout du clavier que ces pubs d’Anthropic sont drôles. « Mais je me demande pourquoi Anthropic opte pour quelque chose d’aussi clairement malhonnête. Notre principe le plus important en matière de publicité stipule que nous ne ferions pas exactement cela ; nous ne diffuserions évidemment jamais de publicités de la manière dont Anthropic les décrit. Nous ne sommes pas stupides et nous savons que nos utilisateurs rejetteraient cela », affirme-t-il, faisant comme si ces publicités n’assumaient pas d’être des caricatures.

« Je suppose que c’est dans la lignée de la double rhétorique d’Anthropic d’utiliser une publicité trompeuse pour critiquer des publicités théoriques trompeuses qui ne sont pas réelles, mais je ne m’attendais pas à voir cela dans une publicité diffusée pendant le Super Bowl », ajoute le CEO d’OpenAI.

En 2024 à l’école de business d’Harvard, il avait assuré « détester les pubs » et affirmé : « Je pense que les publicités ont joué un rôle important dans la mise en place d’un modèle économique pour les débuts d’Internet. Mais je pense aussi qu’elles créent en quelque sorte un décalage fondamental entre les motivations des utilisateurs et celles des entreprises qui fournissent les services ».

Et Sam Altman d’ajouter : « Je trouve que la combinaison des publicités et de l’IA est particulièrement dérangeante. Quand je pense à GPT qui me rédige une réponse, si je devais déterminer exactement qui paie pour influencer ce qui m’est présenté, je ne pense pas que cela me plairait ». Cette déclaration rejoint finalement la position actuelle d’Anthropic et montre que les affirmations des uns et des autres peuvent fluctuer au gré de leurs intérêts.

  •  

Le Pape peut-il susciter un véritable sursaut mondial face à l’IA ?

Omnia vanitas
Le Pape peut-il susciter un véritable sursaut mondial face à l’IA ?

Deepfakes, agents autonomes, oligopoles des entreprises de la Silicon Valley : depuis son élection, Léon XIV multiplie les prises de position offensives sur l’intelligence artificielle. Le pape pourrait consacrer sa première encyclique à ces technologies qu’il juge porteuses de risques majeurs, appelant secteur privé et États à reprendre la main.

Le pape a déclaré la guerre aux deepfakes. Le 24 janvier 2026, Léon XIV adressait une sérieuse mise en garde contre les « réalités parallèles » créées par les systèmes d’intelligence artificielle (IA), capables d’usurper nos visages et nos voix. Le seul moyen de lutter contre le « contrôle oligopolistique » des algorithmes ? Que les « développeurs de modèles d’IA [fassent] preuve de transparence et de responsabilité sociale », tout comme les régulateurs supranationaux, « chargés de veiller au respect de la dignité humaine ».

Deux jours plus tard, la Commission européenne lançait une enquête sur Grok et la plateforme X, inondée d’images de femmes et d’enfants dénudés générées et diffusées à leur insu par le chatbot d’Elon Musk.

Depuis son élection en mai 2025, le pape Léon multiplie les prises de position en faveur d’une plus grande régulation du secteur. Next recense une quinzaine de prises de parole au sujet des risques liés aux intelligences artificielles depuis son élection il y a à peine neuf mois. À Rome, il se murmure que sa toute première encyclique pourrait être en partie consacrée à la révolution engendrée par ces nouveaux outils. Un document attendu puisque ces lettres solennelles, adressées à l’ensemble de l’Église catholique, permettent traditionnellement à chaque souverain pontife de poser les fondements de sa doctrine.


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Propriété de Jeff Bezos, le Washington Post licencie plus de 300 employés

The Washington Post dies in darkness
Propriété de Jeff Bezos, le Washington Post licencie plus de 300 employés

Le Washington Post licencie plus de 300 personnes, principalement dans sa rédaction, après plusieurs années de résultats en déclin. L’influence croissante de son propriétaire Jeff Bezos a, ces derniers mois, participé directement au mécontentement d’une partie des abonnés.

Propriété du fondateur d’Amazon Jeff Bezos, le Washington Post a procédé au licenciement de 30 % de ses effectifs le 4 février, se séparant de fait plus de 300 personnes.

Cette saignée se traduit par la fermeture des pages sports et livres du journal, par la fin de son podcast quotidien d’actualité « Post Reports », et par diverses autres réductions du côté de la couverture des actualités internationales et locales. Des employés des activités commerciales sont aussi touchés.

Difficultés accrues depuis 2020

Créé en 1877, média emblématique aux États-Unis, connu notamment pour les révélations du scandale du Watergate, le Washington Post lutte depuis plusieurs années contre de difficultés économiques similaires à celles que rencontrent de nombreux autres médias. Le média a été racheté par Jeff Bezos en 2013, époque à laquelle le magnat des technologies avait aussi pris 3 % des parts du journal spécialisé dans les informations économiques et financières Business Insider (racheté deux ans plus tard par le groupe média allemand Axel Springer SE).

Pendant les premières années,le Washington Post a continué de s’étendre, jusqu’à ce que ses difficultés économiques s’accroissent au tournant de la pandémie. Fin 2023, Jeff Bezos a embauché Will Lewis comme directeur de la rédaction pour que ce dernier trouve une manière de rendre le Washington Post rentable. En 2024, ce dernier avait indiqué aux rédactions que le journal avait perdu la moitié de son audience en quatre ans et 77 millions de dollars en 2023 (pour comparaison, Amazon a dépensé 40 millions de dollars pour obtenir les droits sur le documentaire Melania et 35 millions de dollars supplémentaires pour en faire le marketing).

Remettre le média à flot reste une gageure dans un environnement médiatique où les chiffres de circulation papier continuent de chuter, concurrencés par les pratiques numériques. L’écosystème s’est par ailleurs vu capter l’essentiel de ses revenus publicitaires par les géants numériques, tandis que l’émergence des réseaux sociaux, puis l’explosion récente des systèmes d’IA générative sont venus concurrencer directement les productions journalistiques dans les tentatives d’obtenir l’attention du public. Pour certains observateurs, le choix de l’ancien cadre de médias britanniques Will Lewis était aussi une décision de Jeff Bezos questionnable, ne serait-ce que pour sa méconnaissance de l’écosystème médiatique américain.

Ingérences éditoriales

Depuis les candidatures à la présidence des États-Unis, en 2024, le multi-milliardaire a par ailleurs agi de manière toujours plus évidente dans la ligne éditoriale du média, initialement relativement centriste. Alors que les journaux d’ampleur nationale ont, aux États-Unis, pour tradition de soutenir l’un ou l’autre des candidats, Jeff Bezos a d’abord interdit au journal de publier son article de soutien à Kamala Harris, une décision directement sanctionnée par la perte de centaines de milliers d’abonnés.

Dans les mois qui ont suivi, la dessinatrice et prix Pulitzer Ann Telnaes démissionnait après s’être vue refuser la publication d’un dessin. Ce dernier représentait Jeff Bezos ployant le genou devant Donald Trump. Les pages opinion du journal ont ensuite dû s’adapter pour ne plus accueillir que des points de vue défendant « deux piliers : les libertés personnelles et les marchés libres », selon les instructions de Jeff Bezos. Cette décision a conduit à la démission du chef de la rubrique, David Shipley.

Un an après les premiers signes de cette reprise en main, le tirage du Washington Post atteignait en octobre 2025 un seuil de faible tirage, passant sous la barre des 100 000 exemplaires quotidiens tirés pour sa version papier pour la première fois en 55 ans (contre 600 000 pour son concurrent le New-York Times en août 2025). Le journal s’est par ailleurs trouvé directement pris dans la promotion d’outils d’intelligence artificielle que son propriétaire participe à promouvoir.

Effets directs sur la qualité de l’information

En décembre, le journal déployait l’outil « Your Personal Podcast », qui devrait permettre au public de créer « leur propre briefing » et notamment de faire lire les articles par deux agents IA. Dès les premiers épisodes, les journalistes avaient demandé des comptes, le résultat multipliant des erreurs allant de problématiques de prononciation à de larges modifications du contenu des articles, de la mauvaise attribution voire de l’invention de citations, ou encore des éléments laissant entendre que certains propos de sources relevaient de la position du journal.

En réduisant les équipes chargées de fabriquer l’information de 800 à moins de 500 personnes, les licenciements annoncés ce 4 février amoindriront de même la capacité du journal à fournir de l’information de qualité. Auprès des équipes, son directeur exécutif Matt Murray a indiqué que le journal avait perdu trop d’argent, trop longtemps, rapporte The New-York Times. Il a expliqué qu’il faudrait repositionner le titre pour le rendre « plus essentiel dans la vie des gens dans ce qui devient un paysage médiatique plus bondé, plus compétitif et compliqué ».

Le plan de licenciement se fait dans un contexte plus large au sein des entreprises de Jeff Bezos. Fin janvier, Amazon annonçait en effet la suppression de 16 000 emplois. Caroline O’Donovan, la journaliste du Post en charge de suivre Amazon, fait d’ailleurs partie des personnes qui se sont vues remercier.

  •  
❌