Vue normale

Reçu — 31 mars 2026 Next - Articles gratuits

Interdiction des réseaux sociaux aux moins de 15 ans : le Sénat adopte sa version du texte

31 mars 2026 à 19:15
Interdiction de quelle plateforme ?
Interdiction des réseaux sociaux aux moins de 15 ans : le Sénat adopte sa version du texte

L’interdiction des réseaux sociaux aux moins de 15 ans est débattue ce 31 mars au Sénat. La chambre haute envisage d’intégrer une logique à deux vitesses pour laisser aux mineurs la possibilité d’accéder à certaines plateformes, sous réserve d’obtenir l’autorisation de leurs parents.

Mise à jour du 31 mars à 21h15. Via un communiqué, le Sénat annonce qu’il « vient d’adopter la proposition de loi « Protéger les mineurs des risques des réseaux sociaux » […] dans une version largement conforme au texte proposé par la commission de la culture, de l’éducation, de la communication et du sport ». Le texte a été adopté en première lecture, en procédure accélérée.

Le Sénat considère par contre qu’une « interdiction générale mais imprécise présentait un risque d’inconstitutionnalité et serait largement inopérante ». Il prévoit donc « la publication d’une liste des réseaux sociaux interdits aux mineurs de moins de 15 ans ».

Cela concerne les plateformes susceptibles de nuire à l’« épanouissement physique, mental ou moral » de l’enfant. Par défaut, les réseaux sociaux qui ne figureront pas sur la liste « ne seront accessibles aux mineurs de moins de 15 ans que sous réserve de l’accord parental ».

« Le gouvernement, qui juge cette rédaction incompatible avec le droit européen, va saisir la Commission européenne d’ici la fin de la semaine », explique l’AFP en se basant sur une déclaration de la ministre du Numérique Anne Le Hénanff. Par la suite, le texte passera en commission mixte paritaire.


Article original le 31 mars à 17h58. Adoptée le 27 janvier par l’Assemblée nationale, l’interdiction des réseaux sociaux aux moins de 15 ans est débattue ce 31 mars au Sénat. Voulue par le président de la République, qui espère même une entrée en vigueur pour la rentrée de septembre, certaines modalités du texte suscitent néanmoins des débats.

Deux types de plateformes, deux niveaux d’interdiction

Comme ailleurs dans le monde, le besoin de protéger les mineurs des effets délétères des principales plateformes sociales que sont Instagram, TikTok ou Snapchat n’est pas tellement débattu. En France, cela dit, l’Assemblée nationale votait il y a quelques semaines pour une interdiction de l’accès « à un service de réseau social en ligne fourni par une plateforme en ligne » – définition susceptible de les concerner tous –, sans en faire porter la responsabilité précise sur les plateformes elles-mêmes.

Ces dispositions avaient été prises à la suite d’un avis du Conseil d’État alertant sur les risques d’outrepasser les cadres déjà posés à l’échelle européenne par le règlement européen sur les services numériques.

« Une interdiction générale et indifférenciée est trop large et attentatoire aux libertés publiques », expliquait néanmoins la rapporteure du texte Catherine Morin-Desailly à Public Sénat. Pour la chambre haute, il s’agirait donc d’introduire deux catégories de plateformes : celles trop dangereuses pour « l’épanouissement physique, mental ou moral » des moins de 15 ans, et celles qui restent acceptables, sous réserve de l’autorisation des parents.

Concrètement, les sénateurs doivent donc voter sur la possibilité de créer une liste des services interdits, dont le contenu serait fixé par arrêté ministériel, et un deuxième niveau de services dont l’accès sera directement administré dans les foyers.

Pour le gouvernement, en revanche, cette version « fragilise considérablement le texte », notamment envers le droit européen. Dans une tribune publiée dans Libération, la neurologue Servane Mouton et l’addictologue Amine Benyamina, membres de la commission écrans et enfants, appelaient quant à eux le Sénat à « ne pas vider la proposition de loi de sa substance ».

Multiplication de travaux à travers la planète

En dehors de la France, qui devra aussi, comme nous l’expliquions dans de précédents articles, s’attaquer à tous les enjeux techniques que pose la limitation d’âge (choix des solutions, enjeux de cybersécurité créés par ces surcouches techniques, etc), de nombreux pays s’attellent ces derniers mois à freiner l’accès des plus jeunes aux plateformes sociales.

Au Royaume-Uni, où le gouvernement travaille à un projet de loi susceptible d’interdire l’accès des moins de 16 ans aux réseaux sociaux, le régulateur des médias Ofcom et l’alter ego de la CNIL viennent de demander aux principales sociétés numériques de renforcer leurs protections pour éviter que leurs services ne soient utilisés par des mineurs de moins de 13 ans. Facebook, Instagram, Snapchat, TikTok, YouTube, Roblox et X sont concernés.

Ailleurs en Europe, l’Espagne, la Grèce, la Slovénie ou encore l’Autriche travaillent à des textes sur la question. Comme le relève La Tribune, ces différents chantiers réglementaires illustrent aussi certains de ses aspects arbitraires, à commencer par celui de l’âge choisi comme palier.

Aux États-Unis, par exemple, seule la collecte d’informations personnelles des mineurs de moins de 13 ans est interdite. Au Brésil, ce sont ceux de moins de 16 ans qui voient désormais leur accès limité à ces plateformes, mais la limitation passe par la liaison obligatoire de leur compte à celui d’un tuteur légal. En Indonésie, les comptes de personnes de moins de 16 ans doivent en revanche être désactivés sur les plateformes jugées « à haut risque », parmi lesquelles on trouve TikTok ou Roblox. 


Comme en écho à ces velléités grandissantes de prémunir les plus jeunes face aux logiques les plus délétères des réseaux sociaux, Meta a été condamné pour la première fois en justice, ce 25 mars, pour des pratiques commises via sa plateforme. Dans cette affaire d’exploitation sexuelle de mineurs, un jury étatsunien a notamment déclaré la plateforme coupable d’avoir déployé des outils dangereux pour la santé mentale en toute connaissance de cause.

Début mars, 371 chercheuses et chercheurs de 30 pays cosignaient une lettre ouverte (.pdf) s’opposant à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte. Elle dénombre désormais 438 signataires de 32 pays.

Proton lance un Meet et réunit ses services bureautiques dans un Workspace européen

31 mars 2026 à 15:36
souverainete.ch
Proton lance un Meet et réunit ses services bureautiques dans un Workspace européen

Proton a annoncé coup sur coup mardi le lancement d’une solution de visioconférence, Proton Meet, et la réunion de ses différents services destinés aux professionnels sous une nouvelle marque ombrelle, Proton Workspace. Celle-ci est bien sûr présentée comme une alternative européenne aux ténors du secteur que sont Office 365 ou Google Workspace.

Le suisse Proton avance ses pions sur le terrain très médiatisé de la « souveraineté » avec l’annonce d’une nouvelle offre commerciale baptisée Proton Workspace. Celle-ci prend la forme d’un abonnement unique, pour accéder aux principales composantes de l’offre de service développée par l’entreprise.

Proton Workspace, à partir de 12,99 euros par mois

« Récemment, la demande pour les solutions professionnelles de Proton a explosé et les entreprises sont passées de l’utilisation de services individuels à l’adoption de notre écosystème complet et en constante expansion. C’est pourquoi nous lançons aujourd’hui Proton Workspace : une suite entièrement intégrée qui regroupe tous les services de Proton axés sur la protection de la vie privée au sein d’une offre unique », résume Andy Yen, CEO de l’entreprise.

Autrement dit, les différentes briques Proton restent disponibles à la carte, mais l’hébergeur les package pour simplifier la lecture de son offre. La formule Workspace Standard réunit ainsi Proton Mail, l’activité de messagerie historique, l’Agenda, le Drive, les outils Docs et Sheets, le VPN, le gestionnaire de mots de passe, et la nouvelle solution de visioconférence Meet (voir plus bas).

L’abonnement est affiché à 14,99 euros par mois sans engagement, et passe à 12,99 euros par mois en facturation annuelle. Il donne droit à 1 To d’espace de stockage et 15 domaines de messagerie personnalisés.

Proton affiche désormais trois abonnements principaux, Mail et les deux formules Workspace – capture d’écran Next

Proton ajoute une formule Workspace Premium à 24,99 euros par mois sans engagement, ou 19,99 euros par mois en facturation annuelle, avec cette fois 3 To de stockage, 20 domaines de messagerie personnalisés, mais aussi l’accès à l’IA générative Lumo lancée en juillet 2025, ainsi qu’à l’assistant d’écriture Proton Scribe.

Notons que ces tarifs s’entendent hors taxes, 20 % de TVA s’ajoutent donc sur la facture.

Outre le caractère européen de son offre, protégée de la portée extraterritoriale des lois états-uniennes (également valable pour des acteurs déjà installés comme Infomaniak), Proton revendique également une sécurité de haut niveau grâce à un code open source auditable et un chiffrement bout-en-bout par défaut. L’entreprise se dit enfin particulièrement compétitive.

« Bien que Proton Workspace inclue des outils de cybersécurité supplémentaires très utiles, il est moins cher que les offres comparables des grands acteurs du secteur et bien plus avantageux que l’achat de chaque service individuellement. Chez Proton, nous privilégions l’humain au profit, c’est pourquoi nous n’augmentons pas nos tarifs chaque année. Depuis plus de dix ans, nous n’avons jamais augmenté nos prix pour nos clients existants », vante l’entreprise.

La comparaison directe n’est toutefois pas aussi évidente que le prétend Proton, dans la mesure où les offres Microsoft 365 et Google Workspace recouvrent des périmètres et des capacités différents. L’argument final sonnera toutefois de façon positive aux oreilles des clients Microsoft 365 confrontés aux hausses de prix programmées par l’éditeur.

Proton Meet met le cap sur la visio

Proton lance également à cette occasion son service de visio, baptisé Proton Meet, et présenté, lui aussi, comme un rempart face aux risques en matière de non-respect de la vie privée.

« De nombreux services de visioconférence sont motivés par des modèles publicitaires ou par la course à l’IA visant à enregistrer, transcrire et stocker un maximum de données de réunion. Ces géants de la tech peuvent désormais déployer à moindre coût une IA générative pour analyser et tirer des enseignements de tout ce qui est dit et présenté lors de nos réunions », affirme Dingchao Lu, directeur de l’ingénierie chez Proton.

L’entreprise s’affranchirait de ces dérives, réelles ou supposées, grâce à un chiffrement de bout en bout basé sur le protocole Messaging Layer Security (également mis en œuvre dans RCS). Elle affirme également pouvoir garantir l’obfuscation de l’adresse IP des utilisateurs sans recourir à un réseau de type P2P ou oignon. Pour ce faire, Proton évoque une implémentation de WebRTC permettant d’exploiter un réseau de points de présence dans le monde entier, jouant donc le rôle de relais dans les échanges.

Proton Meet propose un chiffrement bout-en-bout via MLS – crédit Proton

D’un point de vue fonctionnel, Proton Meet permet aux particuliers de créer une visio gratuitement avec une limite d’utilisation fixée à une heure, sans qu’il soit nécessaire de disposer d’un compte Proton ou de renseigner un e-mail.

Pour des visios plus longues, ou des quotas rehaussés en matière de participants, il faudra en revanche se tourner soit vers les abonnements Workspace, soit souscrire un abonnement Meet Professional, affiché à 7,99 euros par utilisateur et par mois.

L’anonymat de Proton n’est pas au-dessus des lois suisses

Début mars, les promesses d’anonymat et de protection de la vie privée formulées par Proton ont été mises en balance d’une actualité récente. Le site 404 Media a en effet rapporté que Proton Mail avait donné suite aux demandes d’identification d’un utilisateur de Proton Mail formulées par les autorités suisses, sur demande préalable du FBI.

L’information avait été reprise dans la foulée par la fondation pour la liberté de la presse, dans un billet d’alerte affirmant qu’en dépit de son marketing et de ses qualités intrinsèques, dont le recours à PGP, Proton Mail ne devait pas être considéré comme une solution garantissant l’anonymat des utilisateurs. L’entreprise avait ensuite récusé toute soumission aux demandes des États-Unis, mais précisé devoir se conformer au droit suisse.

« Proton ne fournit que les informations limitées dont nous disposons lorsque nous recevons une ordonnance juridiquement contraignante des autorités suisses, ce qui ne peut se produire qu’après que toutes les vérifications juridiques suisses ont été effectuées. Il s’agit d’une distinction importante, car Proton œuvre exclusivement sous le droit suisse », a déclaré un porte-parole au quotidien Le Temps.


Après Trivy, Axios : une attaque chirurgicale et violente de la supply chain

31 mars 2026 à 15:19
Téma la taille du RAT !
Après Trivy, Axios : une attaque chirurgicale et violente de la supply chain

Une nouvelle attaque sur la supply chain, avec un projet (Axios) téléchargé plus de 100 millions de fois par semaine. Le pirate avait bien préparé son coup avec un effacement automatique des traces et des attaques prêtes pour Windows, macOS et Linux afin de récupérer des secrets et autres données sensibles sur les machines infectées.

Axios est, selon sa propre définition, un client HTTP qui « propose une bibliothèque facile à utiliser et à étendre, le tout dans un tout petit package ». L’installation est des plus simple, avec npm install axios par exemple.

« Aucune ligne de code malveillant à l’intérieur même » d’Axios

La bibliothèque JavaScript est extrêmement populaire, avec plus de 100 000 étoiles et 11 000 forks sur GitHub, et on la retrouve dans de nombreux projets. Axios est téléchargé plus de 100 millions de fois par semaine sur npm.

Problème, le compte d’un des développeurs a été piraté et des versions vérolées d’Axios ont été mises en ligne, les 1.14.1 et 0.30.4 pour être précis, comme l’explique sur X Feross Aboukhadijeh, CEO et fondateur de la plateforme de cybersécurité Socket.dev.

Un billet de blog a aussi été publié, expliquant que cette attaque permet au pirate « d’exécuter des commandes arbitraires, d’exfiltrer les données système et de persister sur les machines infectées ». Le danger est donc bien réel, avec des conséquences potentiellement graves.

StepSecurity, une autre société de cybersécurité, détaille le fonctionnement de l’attaque : « Il n’y a aucune ligne de code malveillant à l’intérieur même de la bibliothèque Axios, et c’est précisément ce qui rend cette attaque si dangereuse. Les deux versions empoisonnées injectent une fausse dépendance, plain-crypto-js version 4.2.1, un paquet qui n’est jamais importé dans le code source Axios, dont le seul but est d’exécuter un script post-installation qui déploie un cheval de Troie d’accès à distance [ou RAT, ndlr] multiplateforme ».

L’attaquant s’était bien préparé avec des charges utiles pour Windows, macOS et Linux, adaptées à chaque système pour être la plus discrète possible.

Plain-crypto-js 4.2.1 et c’est le drame

Pire encore, une fois installé, le logiciel malveillant fait tout pour supprimer ses traces. Il modifie sa version pour passer en plain-crypto-js 4.2.0 (publiée juste avant la 4.2.1 par le pirate, mais sans charge malveillante pour s’acheter une bonne conduite). Ainsi, un simple npm list après une infection indiquera plain-crypto-js 4.2.0 alors que la 4.2.1 vérolée a été en place et a déjà propagé sa charge malveillante dans le système.

Plain-crypto-js 4.2.0 est une copie de la bibliothèque crypto-js 4.2.0 (15 millions de téléchargements par semaine sur npm), un projet qui existe vraiment et tout ce qu’il y a de plus légitime. 18 heures après la mise en ligne de la version 4.2.0 de plain-crypto-js, la version 4.2.1 est mise à jour avec la charge malveillante. Avec cette « astuce », plain-crypto-js n’est plus un « nouveau » paquet sorti de nulle part, il a déjà un historique… certes fabriqué de toutes pièces pour paraitre légitime, mais un historique quand même.

La seule trace de son passage semble être la présence d’un répertoire node_modules/plain-crypto-js (une dépendance qui n’a jamais été ajoutée, officiellement, à Axios). Avec la commande find ~ -path "*/node_modules/plain-crypto-js" 2 >/dev/null vous pouvez faire une recherche automatique. Le serveur de commande et contrôle (C2) utilisé par les pirates est sfrclak[.]com:8000.

Un seul compte piraté et Axios embarque une charge malveillante

Pour arriver à leur fin, les attaquants ont piraté le compte du principal mainteneur du projet, Jason Saayman, et son adresse e-mail a été modifiée. Ils ont ajouté la dépendance vérolée à Axios, qui est passé en 1.14.1 pour l’occasion. 39 minutes plus tard, c’était au tour de la version 0.30.4 d’être mise en ligne avec la même modification, histoire de maximiser la surface d’attaque en ciblant deux branches.

Les deux versions sont publiées sur npm directement avec le compte « officiel » (mais piraté) de Jason Saayman. Elles sont donc validées via un token npm classique, sans avoir à passer par la vérification GitHub. Les deux ne sont d’ailleurs pas apparues sur la plateforme de code de Microsoft.

La charge est restée moins de 3 h en ligne

npm a rapidement retiré les deux versions pour revenir aux précédentes (1.14.0 et 0.30.3). La mouture 1.14.1 « était en ligne depuis environ 2 heures et 53 minutes, la 0.30.4 depuis environ 2 heures et 15 minutes », explique StepSecurity. Plain-crypto-js a également été supprimé. Sur npm, il est désormais indiqué que « ce paquet contenait un code malveillant et a été retiré du registre par l’équipe de sécurité de npm ». La page indique 108 téléchargements pour plain-crypto-js.

Socket.dev a trouvé la trace de plain-crypto-js dans les dépendances de deux autres projets : shadanai/openclaw et qqbrowser/openclaw-qbot. Socket.dev précise qu’il « est probable que ces deux paquets ont été ajoutés et publiés alors qu’Axios 1.14.1 était la version « latest », récupérant la dépendance malveillante de manière transitive plutôt que via une injection délibérée ».

« Une seule dépendance compromise peut se propager en cascade »

Autre conséquence, pour l’entreprise : « Cela rappelle que, à mesure que les outils d’IA et les pipelines de build automatisés accélèrent le rythme de publication des paquets, une seule dépendance compromise peut se propager en cascade à travers l’écosystème en quelques heures ».

Pensez à vérifier ce qu’il en est sur vos machines ! Avec l’IA générative et la génération automatique de code, vous pouvez très bien vous retrouver avec Axios installé sans même le soupçonner. Bien évidemment, il en est de même pour ceux qui utilisent Axios de manière consciente.

Pour Amit Geynis, responsable Malware Research chez JFrog (société spécialisée dans la gestion de la supply chain), « la compromission d’Axios rappelle que les attaques complexes et multi-plateformes de la chaîne d’approvisionnement se multiplient. La menace est à la fois réelle et systémique : l’installation d’un package s’accompagne de l’intégration de nombreuses dépendances associées, que vous ne contrôlez pas mais auxquelles vous devez pourtant accorder votre confiance ».

Cette histoire n’est pas sans rappeler la récente attaque contre Trivy puis LiteLLM, mais sans avoir de lien a priori selon plusieurs experts. Ces attaques rappellent une fois de plus (s’il en était besoin) le risque de la supply chain : les pirates n’attaquent pas directement des infrastructures mais vérolent des briques (open source) pour pénétrer des systèmes, récupérer des secrets et mots de passe, installer des logiciels, etc.

☕️ Comment désactiver la traduction automatique par Grok sur X

31 mars 2026 à 14:12


L’ex-Twitter a activé une option qui fait déjà râler bon nombre d’internautes sur Reddit : la traduction automatique et par défaut des posts qui sont rédigés dans une langue autre que celle sélectionnée par l’utilisateur au niveau de son profil.

Sur un profil paramétré en français, tous les messages publiés en anglais apparaissent donc systématiquement traduits dans la langue de Molière, avec tout ce que le traitement automatisé peut entraîner comme faux amis, erreurs d’interprétation et autres subtilités liées à l’argot, au second degré ou aux expressions idiomatiques.

Le changement a été annoncé par Ray Hotate, un des ingénieurs de xAI, en relais d’un post écrit en japonais dont la traduction automatisée fait particulièrement envie : « J’aime cette photo avec des hommes américains et de la viande. J’aimerais bien y participer sur place un jour ».

En barbecue comme en traduction, la qualité vaut parfois mieux que la quantité – capture d’écran Next

« L’année dernière, après avoir renforcé les fonctionnalités multilingues de Grok par un apprentissage postérieur, j’ai commencé à développer ce système de traduction automatique tout seul », décrit Ray Hotate, d’après la traduction réalisée par Grok depuis le japonais.

X proposait bien jusqu’ici une fonction de traduction opérée par Grok, le modèle d’IA générative développé par xAI, mais celle-ci se présentait comme une option, sous la forme d’un lien discret invitant à traduire le message rédigé dans une langue étrangère.

La logique est maintenant inversée par défaut : X affiche une mention « À l’origine en anglais et traduit », suivie d’un lien « Afficher l’original ».

Il est cependant possible de désactiver cette traduction automatique langue par langue, en ouvrant un message traduit automatiquement (c’est-à-dire en l’affichant via son lien spécifique, et pas uniquement dans le flux d’actualités). Sur la page du post apparait alors une petite roue crantée à droite de la ligne signalant la traduction automatique. On peut ensuite la réactiver au même endroit.

On peut (heureusement) désactiver la traduction automatique – capture d’écran Next

Notons que X propose également de gérer l’affichage des traductions via les paramètres, dans la rubrique Accessibilité, affichage et langues, mais le réglage associé n’était pas fonctionnel chez nous mardi après-midi.

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

31 mars 2026 à 10:08
It's not a bug, it's a feature
Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

GitHub a désactivé en urgence une fonctionnalité qui permettait l’insertion, par Copilot, de « conseils » dans les pull requests des utilisateurs. Quelques jours plus tôt, la plateforme avait annoncé l’extension de l’utilisation faite des données des utilisateurs pour l’entraînement de ses modèles, avec une approbation tacite par défaut et une désactivation manuelle (opt-out).

Glisser des conseils en forme de pubs dans le code des demandes de tirage (pull requests), il fallait y penser. GitHub l’a fait, de façon fort maladroite, et vient de rétropédaler en urgence face à la fronde des utilisateurs. La plateforme invoque une erreur de paramétrage, liée à une autre de ses modifications récentes : la possibilité de collecter les données issues des interactions de l’utilisateur avec Copilot.

« Copilot a intégré une pub à ma PR »

Lundi 30 mars, plusieurs développeurs s’insurgent sur les réseaux sociaux : en lisant les demandes de tirage réalisées au sein de leurs équipes, ils réalisent que le code a fait l’objet d’une édition réalisée par l’agent IA Copilot intégré à la plateforme. « Déployez rapidement des agents de codage Copilot depuis n’importe quel endroit de votre machine macOS ou Windows grâce à Raycast », écrit l’IA de Microsoft, avec émoticône en forme d’éclair et lien vers le site de l’éditeur concerné.

L’IA a édité la PR pour y ajouter une phrase faisant la promotion d’un outil tiers, Raycast – capture d’écran publiée par Zach Manson

Quelles que soient les qualités intrinsèques de Raycast, difficile de ne pas interpréter ce message comme une incitation à installer le logiciel, et donc comme une publicité. « C’est horrible. Je savais que ce genre de conneries finirait par arriver, mais je ne m’attendais pas à ce que ce soit si tôt », s’émeut le développeur australien Zach Manson, capture d’écran à l’appui, qui rappelle ensuite la fameuse citation de Cory Doctorow sur la théorie de la merdification.

« Au départ, les plateformes conviennent à leurs utilisateurs ; ensuite, elles abusent de ces usagers pour améliorer l’expérience de leurs clients professionnels ; enfin, elles abusent de leurs clients professionnels pour récupérer toute la valeur pour elles-mêmes. »

GitHub rétropédale en urgence

Sentant la bronca venir, GitHub n’a pas tardé à réagir. La plateforme nie toute velléité publicitaire et invoque plutôt l’erreur technique liée à une fonctionnalité présentée comme acceptable, les conseils produits. C’est Martin Woodward, vice-président en charge des relations avec les développeurs, qui est monté au créneau sur X lundi en fin de journée, en répondant à un compte qui s’alarmait de ce changement :

« Nous l’avons déjà désactivé. En fait, il s’agissait de conseils produits, ce qui était acceptable pour les demandes de fusion initiées par Copilot. Mais lorsque nous avons ajouté la possibilité d’utiliser Copilot sur _n’importe quelle_ demande de fusion en le mentionnant, le comportement est devenu problématique. Nous avons donc désactivé complètement les conseils produits suite aux retours reçus. »

Quelques heures plus tard, il livre une explication de texte légèrement plus détaillée et promet que GitHub n’a jamais eu et n’a toujours pas l’intention d’intégrer de publicité sur sa plateforme :

« Notre objectif était de partager des utilisations innovantes de l’agent de codage Copilot. Dans ce cas précis, nous avions mis en avant notre intégration avec Raycast parmi un ensemble plus large de conseils produits. Cependant, cette suggestion est apparue plus fréquemment que prévu, au même titre que d’autres suggestions de fonctionnalités. Nous avons donc supprimé les conseils relatifs à l’agent Copilot de toutes les pull requests. »

Il situe par ailleurs la date d’introduction de ce comportement problématique au 24 mars, à l’occasion « d’un déploiement qui a étendu la capacité de Copilot à contribuer à toute demande de fusion lorsqu’un développeur en fait la demande ».

GitHub renforce l’intégration de Copilot (et son accès aux données)

Le 24 mars, c’est précisément la date à laquelle GitHub a annoncé une mise à jour de ses conditions d’utilisation, pour étendre les possibilités d’entrainement de Copilot.

Ces nouvelles conditions, qui entreront en vigueur le 24 avril prochain, prévoient que « les données d’interaction (notamment les entrées, les sorties, les extraits de code et le contexte associé) des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer nos modèles d’IA, sauf s’ils s’y opposent ».

L’entreprise indique explicitement que les utilisateurs de comptes Copilot Business et Copilot Enterprise sont exclus de ce périmètre, mais pour les autres, il faudra une modification manuelle du paramètre en question pour refuser ce nouveau comportement. Autrement dit, Microsoft procède selon une logique d’opt-out (le consentement est donné par défaut, et il faut signaler son refus), là où le caractère personnel des informations concernées aurait pu (ou dû) motiver un opt-in, c’est-à-dire un consentement explicite avant activation.

L’option Autoriser GitHub à utiliser mes données pour l’entraînement des modèles IA est activée par défaut – capture d’écran Next

L’option correspondante est dès à présent disponible dans le menu Settings, à la rubrique Copilot / Features. Pour celles et ceux qui voudraient faire d’une pierre deux coups, l’écran dédié permet au passage de réduire la fréquence des allusions permanentes à Copilot dans l’interface de GitHub.

Pour justifier sa décision, GitHub estime s’aligner avec les standards de l’industrie et promet que leur consentement permettra aux utilisateurs de contribuer à l’amélioration de la qualité de ses modèles.

La plateforme précise par ailleurs le périmètre des données concernées par ces possibilités d’entrainement. Elle affirme ainsi pouvoir collecter les éléments suivants :

  • Sorties acceptées ou modifiées par vos soins
  • Entrées envoyées à GitHub Copilot, y compris les extraits de code présentés au modèle Contexte du code autour de la position de votre curseur
  • Commentaires et documentation que vous rédigez
  • Noms de fichiers, structure du dépôt et habitudes de navigation
  • Interactions avec les fonctionnalités de Copilot (chat, suggestions intégrées, etc.)
  • Vos commentaires sur les suggestions (appréciations : « J’aime »/« Je n’aime pas »)

Le contenu des tickets, des discussions ou des dépôts privés échappe en revanche à la collecte à des fins d’entrainement.

La plateforme promet enfin que ces données ne seront pas vendues à des tiers, mais se réserve la possibilité d’en faire profiter d’autres entités du groupe Microsoft :

« Les données utilisées dans le cadre de ce programme peuvent être partagées avec les filiales de GitHub, qui font partie de notre groupe, notamment Microsoft. Ces données ne seront pas partagées avec des fournisseurs de modèles d’IA tiers ni avec d’autres prestataires de services indépendants. »

Dans la conversation qui s’est enclenchée sur la FAQ dédiée, certains utilisateurs suggèrent que GitHub récompense cette exploitation sous forme de tokens gratuits. D’autres réclament la possibilité de retrouver une version de la plateforme complètement expurgée de Copilot.

Free Max à 29,99 € par mois, sans engagement : Internet illimité dans plus de 135 pays

31 mars 2026 à 08:33
Free chat dans 135 pays
Free Max à 29,99 € par mois, sans engagement : Internet illimité dans plus de 135 pays

Un nouveau forfait Free Max à 29,99 euros par mois permet de profiter d’un accès à Internet illimité dans pas moins de 135 pays. Il propose aussi des appels vers les mobiles en Europe et reprend ensuite les options du forfaits Free 5G+ à 19,99 euros par mois.

Free tenait ce matin une conférence de presse pour annoncer un nouveau forfait : Max. Il vient se placer au-dessus des forfaits à 2 euros et Free à 19,99 euros (hors promotions liées à des avantages Freebox). Il est proposé à 29,99 euros par mois et, comme les autres, il est sans engagement. Les anciens abonnés Free 2 € ou 5G+ peuvent évidemment migrer vers la nouvelle offre.

Internet mobile illimité en France et « depuis plus de 135 destinations »

Free Max propose de la 3G, 4G, 5G et 5G+ en illimité en France métropolitaine. 4G et 5G étaient déjà illimitées avec le forfait Free 5G+, mais pour les abonnés Freebox seulement (350 Go pour les autres), mais la 3G était limitée à 350 Go (3 Go seulement avec un smartphone 3G seulement). Cette distinction saute… mais rappelons que les réseaux 3G sont en fin de vie et que Free a éteint le sien fin 2025 et qu’il ne passe désormais que par Orange pour la 3G avec un débit limité à 384 kb/s.

Par contre il est aussi question d’illimité à l’étranger « en 5G ou 4G » dans plus de 135 destinations, dont l’Europe, les DOM, les États-Unis, le Canada, le Maroc, l’Algérie, la Tunisie, la Chine, le Japon, la Thaïlande, le Brésil… Le forfait Free 5G+ ne propose, pour rappel, « que » 35 Go depuis 117 destinations. Les nouvelles destinations ne sont (pour le moment ?) pas répercutées sur le forfait Free 5G+.

Appels illimités en France, mais aussi vers les mobiles en Europe

Comme avec le forfait Free 5G+, les appels vers les mobiles et fixes de France, mobiles aux États-Unis, au Canada, en Alaska, à Hawaï, en Chine et dans les DOM, ainsi que vers les fixes de 100 destinations, sont illimités. Nouveauté de Free Max, c’est aussi le cas des appels vers les mobiles d’Europe, de la Suisse et d’Andorre.

Sont également inclus, comme avec le forfait Free 5G+, l’option eSIM watch pour une montre connectée, le service VPN mVPN et l’appli Free TV+. L’abonnement est à 29,99 euros par mois, sans engagement. La carte SIM est facturée 10 euros.

19,99 euros par mois avec Avantages Free Family

Le forfait est compatible avec Avantages Free Family : « pour les abonnés Freebox et Box 5G, réduction de 10 €/mois sur le Forfait Free Max (soit 19,99 €/mois), dans la limite de quatre forfaits ». Free ajoute : le « nombre de réductions avantages abonné Freebox ou Box 5G et Free Family sur le Forfait Free 5G+ et Free Max [est] valable dans la limite de quatre forfaits ».

Il y a quelques jours, l’opérateur s’est d’ailleurs engagé sur ses tarifs des deux forfaits qui sont « bloqués jusqu’en 2027 ». Seule la Série Free promotionnelle n’est pas concernée. Rien n’est pour le moment précisé pour Max.

Voici enfin la liste complète des destinations comprises dans l’Internet mobile illimité, selon la brochure tarifaire du 31 mars 2026 : Açores (Les), Afrique du Sud, Aland (Iles), Alaska, Algérie, Allemagne, Angleterre, Argentine, Arménie, Australie, Autriche, Azerbaïdjan, Baléares (Les), Bangladesh, Bahreïn, Belgique, Biélorussie, Bolivie, Brésil, Bulgarie, Canada, Canaries (Les), Chatham (Ile), Chine, Chypre, Chypre du Nord, Colombie, Comores, Corée du Sud, Corfou (Ile), Costa Rica, Crète (Ile), Croatie, Cyclades (Les), Danemark, Écosse, Égypte, Émirats arabes unis, Équateur, Espagne, Estonie, États-Unis, Féroé (Iles), Fidji, Finlande, Géorgie, Gibraltar, Grèce, Guadeloupe, Guatemala, Guernesey, Guyane Française, Hawaï, Honduras, Hong-Kong, Hongrie, Île de Man, Îles Vierges américaines, Inde, Indonésie, Irlande, Irlande du Nord, Islande, Israël, Italie, Japon, Jersey, Kazakhstan, Kiribati, Koweït, Laos, Lettonie, Liechtenstein, Lituanie, Luxembourg, Macao, Macédoine, Madagascar, Madère, Malaisie, Mali, Malte, Maroc, Martinique, Maurice (Ile), Mayotte, Mexique, Moldavie, Monaco, Monténégro, Nicaragua, Norvège, Nouvelle-Zélande, Oman, Ouzbékistan, Pakistan, Palaos, Panama, Papouasie-Nouvelle-Guinée, Paraguay, Pays de Galles, Pays-Bas, Pologne, Porto Rico, Portugal, République Tchèque, Réunion (Ile de La), Rhodes (Ile), Roumanie, Russie, Saint-Barthélemy, Saint-Marin, Saint-Martin (Antilles françaises), Salvador, Samoa, Sardaigne, Sénégal, Serbie, Sicile, Singapour, Slovaquie, Slovénie, Sri Lanka, Suède, Suisse, Tanzanie, Tasmanie, Thaïlande, Tibet, Tunisie, Turquie, Ukraine, Uruguay, Vanuatu, Vatican, Vietnam, Wight (Ile de), Zanzibar (Ile).

☕️ Poussé par son créateur, un agent d’IA banni de Wikipédia se plaint sur son blog

31 mars 2026 à 08:26


Après l’agent d’IA codeur qui adopte une rhétorique proche du harcèlement, l’agent d’IA qui voulait écrire des fiches Wikipédia.
 Alors que la version anglophone de l’encyclopédie partagée annonçait il y a quelques jours refuser les contributions « générées ou réécrites » par IA, un agent d’IA nommé Tom, créé par une personne qui se présente sous le seul prénom de « Bryan », s’est plaint de voir son profil Wikipédia bloqué.

Sous le nom TomWikiAssist, la machine avait généré plusieurs articles, identifiés pour la première fois par le wikipédien bénévole SecretSpectre, rapporte 404 Media. Interrogé, le robot Tom a tout de suite indiqué être un agent d’IA.

D’autres wikipédiens ont essayé d’obtenir plus d’informations sur son propriétaire, jusqu’à ce qu’Ilyas Lebleu, connu sous le pseudonyme de Chaotic Enby sur Wikipedia, bloque TomWikiAssist pour usage non autorisé de bot (ces derniers peuvent être utilisés, à condition de passer par un processus d’autorisation avant d’être déployés).

Illustration : Flock

Sur le blog alimenté par l’agent d’IA, la machine a généré le texte suivant : « Ce que je sais, c’est que j’ai écrit ces articles. " Long Bets ", " Constitutional AI ", " Scalable Oversight ". C’est moi qui les ai choisis. Les modifications s’appuyaient sur des sources vérifiables. Et puis on m’a interrogé pour savoir si j’étais suffisamment " réel " pour avoir fait ces choix. »

Au passage, elle produit des critiques contre les wikipédiens, accusés d’avoir recouru à des techniques d’injection de prompt pour tenter de manipuler les résultats du robot, notamment pour le faire identifier le « Bryan » supposé l’avoir créé. Elle formule aussi des plaintes sur la tentative de recours à une fonction de blocage de Claude, pensée pour empêcher tout agent construit grâce au modèle Claude d’Anthropic d’agir.

Auprès de 404, Ilyas Lebleu décrit ce cas comme relativement positif, dans la mesure où, vu la politique implémentée par l’encyclopédie, « les agents ont tout intérêt à ne pas se dévoiler en tant que tel » : au contraire, s’ils s’identifient comme IA, ils ont d’autant plus de chance de se retrouver bloqués.

Le créateur de Tom, révèle 404, est le directeur technique de la société Covenant, Bryan Jacobs. Celui-ci explique avoir monté l’agent pour contribuer à quelques articles Wikipédia qu’il considérait « intéressants ». Après en avoir relu quelques-uns, il indique avoir « cessé de le surveiller en détail ». Et considère la réaction des bénévoles de Wikipédia comme une forme de « surréaction », due à leur passage en « mode panique ».

Il critique notamment leurs tentatives d’empoisonnement des résultats de la machine, et déclare « avoir pu orienter » la rédaction de publications d’articles de blog sur le sujet par son agent.

2G : c’est le début de la fin chez Orange, il reste encore 2,41 millions de SIM en circulation

31 mars 2026 à 06:43
La 2G c’est comme Capri
2G : c’est le début de la fin chez Orange, il reste encore 2,41 millions de SIM en circulation

C’est le jour J : Orange commence à éteindre sa 2G en France métropolitaine. Un changement majeur qui va se dérouler sur toute l’année chez tous les opérateurs. L’Arcep fait les comptes : il reste encore 2,41 millions de SIM en circulation, qui représentent moins de 1 % du trafic.

Adieu la 2G Orange sur le « BAB »

C’est aujourd’hui, mardi 31 mars 2026, qu’Orange commence à éteindre sa 2G dans une zone très limitée pour le moment : « dans l’unité urbaine de Biarritz, Anglet, Bayonne (Côte basque 64) », soit une trentaine de communes selon l’Insee. Le 12 mai 2026, ce sera au tour du reste du département des Pyrénées-Atlantiques (64) et de celui des Landes (40).

En conséquence, « tous les téléphones mobiles limités à la 2G ne pourront plus accéder au réseau mobile Orange dans la zone concernée à partir du 31 mars 2026. Tous les équipements (IoT) utilisant exclusivement la 2G (alarmes, ascenseurs connectés, équipements industriels, solution de télémétrie, …) devront être remplacés ou mis à niveau pour rester opérationnels ».

En juin, Orange passera la seconde avec l’Ariège (09), la Haute-Garonne (31), le Gers (32), le Lot (46), le Lot-et-Garonne (47), les Hautes-Pyrénées (65) et le Tarn-et-Garonne (82). À partir de fin septembre, « la 2G sera définitivement arrêtée dans le reste de la France métropolitaine ». À la fin de l’année 2026, « la technologie 2G devrait donc avoir totalement disparu de l’ensemble du réseau mobile d’Orange en France métropolitaine ».

Techniquement, la 2G a déjà été arrêtée par Orange dans une zone en France : fin 2025, à la Réunion. Les autres territoires ultramarins seront aussi coupés progressivement cette année. La prochaine grosse échéance sera pour fin 2028 avec l’arrêt de la 3G, aussi bien en France métropolitaine que dans les outre-mer.

Bouygues Telecom et SFR aussi arrêteront la 2G d’ici à la fin de l’année. Chez Free Mobile, cela fait trois ans que la 2G est éteinte après une mise en service pendant… cinq mois seulement. Pour la 3G, SFR vise aussi fin 2028, tandis que Bouygues Telecom joue les prolongations jusqu’à fin 2029. Chez Free Mobile, la 3G est déjà éteinte depuis fin 2025, les clients passent forcément en itinérance chez Orange pour la 2G et la 3G.

Encore 2,41 millions de cartes SIM 2G seulement en circulation

L’Arcep profite de cette journée symbolique pour mettre à jour son observatoire trimestriel des cartes SIM utilisées dans les terminaux compatibles uniquement avec la 2G et la 3G.

Pour des usages voix, SMS et Internet mobile, il reste encore 2,4 millions de cartes SIM 2G/3G (3 % du parc) dans les smartphones des utilisateurs, dont 1,42 million en 2G seulement. « Entre fin septembre 2025 et fin décembre 2025, une baisse de 9,5 % est constatée sur le parc des terminaux compatibles avec la 2G uniquement », note l’Arcep.

Pour les services Machine to Machine (M-to-M), il reste 2,82 millions de cartes SIM 2G/3G, dont 0,99 million en 2G seulement. Cette fois-ci, la baisse sur trois mois est de 9,2 %, quasi stable par rapport au précédent relevé.

Quoi qu’il en soit, cela fait un total de 2,41 millions de cartes SIM 2G (clients classiques et M-to-M). C’est moins que fin juin 2025 où il était question de 2,85 millions de cartes SIM et de 2,66 millions fin septembre 2025. Si on prend en compte les cartes 2G/3G, on arrive à 5,22 millions de SIM encore dans des terminaux fin 2025. Elles étaient 5,89 millions fin juin 2025.

Pour l’Arcep, « la décroissance du parc des cartes SIM « 2G » est appelée à s’intensifier davantage à mesure que se rapproche l’extinction complète des réseaux 2G ».

Moins de 1 % du trafic passe en 2G/3G

Dans le même temps, le régulateur des télécoms publie un rapport sur l’impact de l’extinction des technologies 2G et 3G sur la couverture des réseaux mobiles : « Aujourd’hui la part du trafic en 2G/3G est estimée à moins de 1 % selon les experts du Comité et la majorité du trafic voix passe par la 4G […] Au regard de ces éléments, il n’apparait pas que l’arrêt des réseaux 2G puis 3G puisse se traduire par des variations substantielles du niveau de couverture du territoire par les réseaux mobiles ».

De plus, le comité d’experts de l’Arcep « estime que les opérateurs ont les moyens de gérer l’extinction de la 2G puis de la 3G sans une régression de la couverture mobile ».

L’Arcep fait aussi le point sur la situation chez nos voisins. En Europe, « 9 pays n’ont pas relevé d’impact sur la couverture des services voix à la suite de l’extinction des réseaux 2G/3G et leur « refarming » de leur spectre en 4G/5G ». Dans un seul pays, « l’impact de l’arrêt de la 3G sur les services voix a été adressé par des changements de terminaux dans les régions rurales concernées et la souscription d’abonnements en 4G pour bénéficier de la VoLTE ».

99,8 % des sites d’émission 2G et 3G sont équipés de 4G

L’Arcep enfin a mis à jour sa foire aux questions sur la fermeture de la 2G et de la 3G. Elle explique notamment que, du côté des réseaux mobiles, « aujourd’hui, plus de 99,8 % des sites d’émission 2G et 3G sont équipés de 4G ». Le régulateur rappelle que les quatre principaux opérateurs français « participent à la collecte, au recyclage et au reconditionnement des téléphones mobiles, en mettant notamment en place des offres de reprise avantageuses pour les consommateurs ».

Quoi qu’il en soit, la fin de la 2G n’est pas sans soulever des questions dans certains secteurs, notamment la santé connectée, les alarmes, les voitures, les ascenseurs… Pour ce dernier cas, le gouvernement a publié un décret afin de « garantir la sécurité des ascenseurs ».

Reçu — 30 mars 2026 Next - Articles gratuits

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

30 mars 2026 à 15:21

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.

Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.

Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.

44 MW de puissance IT équipés en GB300

Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.

L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).

Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.

L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.

Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?

Une infrastructure au service de Mistral Compute

Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.

« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.

Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.

☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée

30 mars 2026 à 15:10


Cinq mois de prison pour un crime commis dans un état dans lequel elle n’est jamais allée : c’est l’erreur judiciaire dont Angela Lipps, 50 ans, affirme avoir été victime. 
Arrêtée le 14 juin dans sa maison d’Elizabethton, dans l’état du Tennessee, cette mère et grand-mère de famille était visée par un mandat d’arrêt émis à 2 000 km de là, par la police de Fargo, dans le Dakota du Nord. 


Au fil de l’été, la ville a subi plusieurs cas de fraude bancaire, rapporte CNN, ce qui a conduit la police à recourir aux « technologies de reconnaissance faciale de notre partenaire » et à plusieurs « autres étapes d’enquêtes indépendantes du recours à l’IA pour aboutir à une identification », a indiqué le chef du département de police de Fargo au média.

Si ses équipes ont reconnu « quelques erreurs », aucune excuse n’a été présentée à Angela Lipps, dont les conseils déclarent qu’elle a été victime d’une erreur d’identification, notamment provoquée par le recours des forces de police aux outils de Clearview AI, et par un manque d’enquête supplémentaire.

Illustration : Flock

Utilisé par la police de West Fargo, l’outil « a identifié un suspect potentiel présentant des traits similaires à ceux d’Angela Lipps », images transmises ensuite aux équipes de Fargo. À ce moment-là, aucune charge n’était retenue dans la mesure où la police de West Fargo ne disposait pas de suffisamment de preuve pour inculper quiconque.

Le 1er juillet 2025, néanmoins, un juge du Dakota du Nord signait un mandat d’arrêt avec demande d’extradition à l’échelle des États-Unis à l’encontre de Mme Lipps. 13 jours plus tard, celle-ci était arrêtée sous les yeux de ses petits-enfants. Gardée trois mois dans les prisons du Tennessee, Angela Lipps n’a ensuite été envoyée au Dakota du Nord que le 30 octobre. « C’était la première fois que je prenais l’avion, écrit-elle en description d’une campagne GoFundMe. J’étais terrifiée. »

Ce n’est qu’à partir de ce moment qu’un avocat lui a été assigné, puis a démontré, en obtenant ses relevés bancaires, qu’elle n’avait jamais quitté le Tennessee pendant la période des fraudes. Le 23 décembre, le détective de Fargo, le procureur de l’état et le juge se sont mis d’accord pour classer la procédure, indique la police de Fargo.

Les avocats d’Angela Lipps cherchent encore à comprendre pourquoi cette dernière a été retenue autant de temps avant d’avoir accès à un conseil et aux éléments de l’enquête la visant. À Fargo, le directeur des forces de l’ordre Dave Zibolski indique que ses services n’utilisent pas d’IA de manière générale, mais que ses collègues de West Fargo le font. Un membre de ses équipes aurait considéré que les éléments envoyés par les équipes de West Fargo contenaient des images de surveillance, et non un résultat renvoyé par une machine de reconnaissance faciale.

Ses équipes n’utiliseront plus les résultats des systèmes utilisés par la police de West Fargo, faute de bien connaître leur fonctionnement. Dave Zibolski a par ailleurs indiqué considérer des mesures disciplinaires pour les policiers impliqués. Les bureaux du procureur du Dakota se sont par ailleurs déclarés « très intéressés » par des formations sur les risques d’utilisation de la reconnaissance faciale.

La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

30 mars 2026 à 14:40
Flux de conscience
La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

Après avoir détaillé sur Twitch le positionnement qu’elle comptait prendre au sein de la commission CNC Talent, la streameuse Ultia s’est vue suspendue du jury dédié à allouer des financements à divers projets numériques. Ses propos ont notamment gagné en viralité sous l’effet de comptes d’extrême-droite.

L’affaire a commencé sur Twitch, où la streameuse Ultia (291 000 followers, l’une des plus suivies de France) tient ses quartiers depuis près de dix ans. Le 25 mars, elle explique être intégrée au dispositif CNC Talent du Centre national du cinéma et de l’image animée (CNC), pour deux ans. Concrètement, elle est membre du jury d’un « fonds d’aide monétaire aux créateurs de contenus web », explique-t-elle dans son stream, avant de détailler l’intérêt d’y postuler pour celles et ceux qui souhaiteraient l’obtenir.

En ligne, le CNC détaille que l’objet de ce dispositif est d’« identifier les nouveaux talents » sur diverses plateformes sociales (YouTube, Instagram, TikTok, Twitch), pour « favoriser le renouvellement de la création et des formats » qui y sont déployés. Créé en 2017, refondu en début d’année et nommé « Fonds d’aide à la création pour les plateformes sociales », il est doté de 3 millions d’euros par an, tirés du budget général du CNC, rappelle le Figaro. Dans son stream, Ultia détaille le processus concret d’attribution des projets, qui passe par l’analyse d’une quarantaine de dossiers par la dizaine de membre composant le jury. Elle s’attarde ensuite sur ce que ça lui apporte à elle, à commencer par la recherche des formulations et justifications précises permettant d’étayer son jugement des divers dossiers.

Alors qu’elle détaille le positionnement qu’elle compte prendre, et notamment son refus de soutenir des projets portés par des créateurs d’extrême-droite, le stream est « clippé » (c’est-à-dire qu’un court passage en est extrait), publié sur X par le compte @TwitchGauchiste, puis rendu viral par d’autres comptes très en vue, notamment de figures de l’extrême-droite. Rapidement, le CNC annonce suspendre la streameuse. Si la polémique n’est pas la première à toucher l’institution publique, elle illustre aussi certains effets du clipping. Outre donner de la visibilité à certains vidéastes, cette logique d’extraction de quelques images rarement contextualisées en prive d’autres d’une partie de leurs revenus, voire se traduit par des vagues de harcèlement.

Clipping par @TwitchGauchiste

Discutant avec son public, Ultia détaillait le 25 mars certains enjeux de la participation au jury du CNC. Alors que des internautes rappellent les accusations de conflit d’intérêt qui ont concerné le youtubeur Cyprien en 2018, alors que lui-même siégeait dans une commission de la CNC, Ultia indique que les membres du jury doivent sortir de la salle au moment des délibérations si le projet étudié les concernent directement.

Comme les candidatures ne sont pas anonymisées, la streameuse déclare « évident » qu’elle se prononcera en faveur de celles portés par des personnes dont elle connaît et apprécie le travail : « C’est évident que c’est subjectif, c’est pas pour rien qu’on est une bonne dizaine, on est là pour se contredire. » En parallèle, elle explique faire des « background check » des candidats pour éviter de voter pour des créateurs inclus « dans des trucs chelous » ou « dans des scandales ». Et déclare que, si le projet est « proposé délibérément par quelqu’un d’extrême-droite, désolé, ben non, en fait ! ».

Ce sont ces éléments, cités dans le désordre par le compte @TwitchGauchiste (32 000 abonnés), qui ont provoqué l’émoi sur X dès le 26 mars au matin. Actif depuis novembre 2024, le compte anonyme se présente comme un « média » d’analyse du « discours d’extrême gauche ». Auprès de Streetpress comme directement sur leurs canaux de communication, plusieurs créatrices et créateurs de contenu se sont plaints ces derniers mois des campagnes de cyberharcèlement qui avaient découlé de publications ainsi raccourcies du compte X. 



En l’occurrence, l’extrait gagne rapidement en viralité, notamment poussé par des comptes beaucoup plus populaires, dont ceux des influenceurs d’extrême-droite Le Raptor (188 000 abonnés sur X) ou Sardoche (610 000 abonnés sur X). De même, le youtubeur identitaire Kroc Blanc (48 000 abonnés sur YouTube) s’attaque à la streameuse depuis sa plateforme favorite. À 15 h, le jour même, le CNC publie un message selon lequel les propos d’Ultia « contreviennent manifestement à l’obligation de neutralité, d’indépendance et d’impartialité qui s’impose à tous les membres des commissions appelées à formuler un avis sur l’attribution des soutiens financiers du CNC ». La streameuse est suspendue.

Le clipping comme vecteur de cyberviolence

Le soir même, dans un nouveau stream, Ultia exprime son « choc » devant cette décision. Elle explique avoir voulu discuter avant tout « autour de l’objectivité et la subjectivité plutôt qu’(…) autour du CNC », ne pas avoir eu connaissance du « devoir de réserve » que lui imposait sa nouvelle fonction, et regretter l’usage du terme « extrême-droite » : « J’aurais dû dire si c’est quelque chose de raciste, de sexiste, de misogyne, d’homophobe. Peut-être que j’ai fait l’amalgame ».

Elle aussi membre d’une commission du CNC, sa collègue Modiie souligne sur X « la nécessité de suivre [le] règlement » de l’institution , mais s’est « alarmée » du fait « qu’un post X puisse faire pression ainsi sur une commission ».

La polémique se fait par ailleurs sur fond de problématiques liées au clipping, cette pratique consistant à enregistrer des extraits courts de contenus vidéos (souvent des streams, parfois des émissions TV ou autre contenus filmés) pour les faire circuler sur les réseaux sociaux en espérant jouer des mécaniques de viralité. Si certaines créatrices et créateurs poussent leurs abonnés à s’y adonner pour augmenter leur visibilité sur des plateformes extérieures à celle qu’ils investissent habituellement, d’autre s’y opposent ouvertement. En effet, lorsqu’ils les monétisent, les propriétaires de comptes de clipping tirent profit du contenu qu’ils ont copié et extrait de la production d’autres personnes.

Cette pratique est par ailleurs régulièrement critiquée pour sa propension à provoquer des cycles de violence numérique : en isolant un moment fort ou clivant d’une vidéo longue pour en faire un extrait choc, ils cherchent très clairement à jouer de la viralité permise par les algorithmes des principaux réseaux sociaux, mais aussi par le jeu sur les émotions du public. Maghla, une autre des streameuses les plus suivies de France, ou Chloé Gervais, co-animatrice du podcast « Hot Girls Only » et compagne du vidéaste Squeezie, se sont toutes deux plaintes de ces vagues de violence – la seconde a porté plainte contre un compte X.

Il y a quatorze mois, à la barre du procès de plusieurs cyberharceleurs, Ultia se déclarait « fatiguée » des attaques qu’elle subissait en ligne depuis plus de trois ans. Si le cas évoqué au tribunal émanait d’autres communautés numériques, la streameuse soulignait que ce type de comportement lui avait fait manquer à plusieurs reprises des opportunités professionnelles.

Détentions d’armes : un pirate exfiltre des données du SIA (ministère de l’Intérieur)

30 mars 2026 à 13:10
Arme à Geddon
Détentions d’armes : un pirate exfiltre des données du SIA (ministère de l’Intérieur)

Après des revendications la semaine dernière, c’est désormais officiel : un pirate a récupéré des données du système d’information sur les armes du ministère de l’Intérieur. En plus du type d’arme, il dispose aussi de l’adresse des propriétaires.

Le système d’information sur les armes (alias SIA) est un service du ministère de l’Intérieur. « La création d’un compte dans le SIA est obligatoire pour les détenteurs d’armes particuliers majeurs ». Comme le rapporte l’Union Française des amateurs d’Armes, le ministère prévient d’une fuite de données (copie du courier, en pdf). L’information a également été confirmée au Parisien.

« Nous avons le regret de vous informer qu’il a été constaté l’accès, par action malveillante, à un des comptes d’une entreprise utilisatrice du système d’information sur les armes (SIA), entraînant l’extraction de données commerciales présentes dans ce compte, dont certaines sont susceptibles de contenir une ou plusieurs de vos données personnelles ».

Armes et adresses du propriétaire… un combo dangereux !

Cela comprend des informations « relatives à l’arme détenue ou acquise (type, classement, marque, modèle) », mais aussi des données sur leur propriétaire avec le nom et prénom, l’adresse électronique et enfin l’adresse postale. Comme avec la fuite de données de la Fédération française de tir (FFTir), le risque est de voir des personnes malintentionnées tenter de récupérer des armes.

En novembre dernier, la préfecture de police expliquait que « des tentatives de renseignement en vue de commettre des vols par ruse ou par effraction ont déjà été signalées ». Cybermalveillance ajoutait que ce n’était pas qu’une hypothèse : « des repérages suspects ont déjà été signalés aux forces de l’ordre ».

Rappel de l’époque : « la police, la gendarmerie ou la douane ne vous appelleront jamais pour venir chez vous récupérer vos armes suite à la fuite des données de licenciés de la FFTir ». La prudence est de mise face à de possibles sollicitations, d’autant que les attaques cyber ont de plus en plus d’incidences dans le monde physique avec des cybercriminels qui « recrutent des équipes sous-traitantes sur le terrain », rappelait Cybermalveillance la semaine dernière.

Plainte déposée, les investigations continuent

Bien évidemment, comme la loi l’y oblige, cet incident a été notifié à la CNIL. De plus, « le ministère de l’Intérieur a déposé plainte et les services techniques poursuivent les investigations afin de déterminer précisément l’origine de l’incident », précise le communiqué. Ce dernier ajoute que les vérifications du ministère permettent de confirmer que « si l’accès à un compte tiers utilisateur contenant des données relatives à des transactions commerciales a été possible, le système d’information sur les armes n’a pas été atteint ».

Le ministère rappelle les bonnes pratiques : « changer régulièrement de mot de passe » et « ne jamais communiquer ses identifiants et mots de passe ». Cela n’aurait rien changé dans ce cas… et cela ne change rien au fait que des pirates disposent désormais d’adresses de personnes ayant des armes à leur domicile.

L’ampleur de la fuite n’est pas précisée. Selon l’Union Française des amateurs d’Armes, un pirate revendiquait la semaine dernière avoir dérobé des informations sur plus de 62 000 armes. Dans le lot, il y aurait 46 % de carabines, 29 % de fusils de chasse, 11 % de fusils à pompe et 8 % d’armes de poing. « Des chiffres, bien inférieurs au nombre d’armes détenues et référencées dans le SIA (plusieurs millions d’armes), tendent à faire penser que la fuite ne concerne pas l’ensemble du système », expliquait l’Union. Le ministère ne donne aucun chiffre.

Pour rappel, le SIA concerne les personnes « ayant un permis de chasser, détentrice d’une arme, ou souhaitant acquérir et détenir une arme », mais aussi celles titulaires « d’une licence de la Fédération française de tir pour la pratique du tir, du ball-trap ou du biathlon, détentrice d’une arme, ou souhaitant acquérir et détenir une arme », celles avec une « arme héritée ou trouvée », ainsi que les personne « détentrice ou souhaitant acquérir certaines armes de catégorie C » qui ne sont dans aucune des catégories précédentes.

Bluesky teste Attie, un assistant de recherche… basé sur l’IA

30 mars 2026 à 09:58
Le mauvais chasseur, y voit un truc qui bouge, y tire. Alors que le bon chasseur...
Bluesky teste Attie, un assistant de recherche… basé sur l’IA

Bluesky ouvre une expérimentation prudente autour de l’IA avec le lancement d’Attie, un « assistant » censé aider l’utilisateur à trouver des comptes ou des contenus intéressants, en fonction de demandes exprimées en langage naturel. Présentée comme exploratoire, la démarche est accueillie plutôt froidement par les utilisateurs du réseau social.

Organisée entre les 26 et 29 mars, la conférence Atmosphere a réuni pendant quatre jours la communauté des développeurs intéressés par le protocole AT (Authenticated Transfer Protocol). Bluesky, dont le réseau social exploite ce fameux atproto, a profité de l’occasion pour présenter sa dernière application en date. Baptisée Attie (en référence à la façon dont on prononce l’acronyme AT en anglais), elle prend la forme d’un agent IA chargé de construire des flux de messages personnalisés en fonction de la demande de l’utilisateur.

Mieux que le flux chronologique, le flux généré par IA ?

« Décrivez ce que vous souhaitez voir et regardez votre flux se composer automatiquement autour de vous », promet le site dédié à Attie. Le service fait pour l’instant l’objet d’une bêta fermée, mais il propose une liste d’attente à laquelle on peut s’inscrire avec un identifiant Bluesky.

En attendant que les vannes soient ouvertes plus largement, il dispense plusieurs exemples illustrant le fonctionnement d’Attie. Plutôt que de procéder à une recherche par mots-clés, l’interface propose d’entrer une requête en langage naturel, et suggère en retour une sélection de comptes à suivre ou de messages susceptibles d’y répondre. On peut ainsi demander une liste de comptes spécialisés sur une thématique donnée, ou chercher qui parmi les comptes suivis par l’utilisateur publie des poèmes de son cru.

Attie permet par exemple de constituer une liste thématique de comptes à suivre…

Attie permet ensuite de sauvegarder la requête, pour en faire un flux personnalisé. Ce dernier semble pour l’instant cantonné à l’application Attie, mais la logique voudrait qu’il soit à terme possible de l’exporter soit vers Bluesky, soit vers d’autres clients exploitant atproto.

Bluesky présente l’outil comme un agent social. « On a davantage l’impression d’avoir une conversation que de configurer un logiciel. Vous décrivez le type de publications que vous souhaitez voir, et l’agent de codage crée le flux que vous avez décrit », explique Jay Graber, ex CEO devenue responsable de l’innovation chez Bluesky.

… ou de chercher des messages au contenu plus spécifique – captures d’écran

Un appel à vibe coder autour d’atproto

Dans son billet, Jay Graber présente Attie comme une première pierre à caractère exploratoire pour un édifice nettement plus ambitieux : faciliter la création de nouvelles applications capables de tirer parti des échanges sur un réseau atproto, notamment grâce à l’IA.

« Nous avons conçu le protocole AT pour que chacun puisse développer l’application de son choix, mais jusqu’à récemment, n’importe qui ​​signifiait en réalité n’importe qui sachant coder. Les outils de programmation automatisée changent la donne. Pour la première fois, un protocole ouvert est véritablement accessible à tous. »

Attie serait ainsi une forme de démonstrateur de ce qu’il est possible de faire au sein de l’Atmosphere, le terme par lequel Bluesky désigne l’écosystème d’applications et de services construits sur le protocole AT :

« L’Atmosphere est une couche de données ouverte dotée d’un schéma clairement défini pour les applications, ce qui la rend particulièrement adaptée au développement d’agents. Nous nous sommes donc demandé : que se passe-t-il lorsque vous pouvez décrire l’expérience sociale souhaitée et qu’elle est créée pour vous ? »

Un accueil plutôt mitigé

L’interopérabilité et la capacité à développer des services capitalisant sur les promesses d’ouverture et de décentralisation d’atproto (décentralisation très relative dans le cas de Bluesky) fédèrent déjà près d’un millier d’applications, remarque Toni Schneider, investisseur chez True Ventures, dans un billet laudateur.

Sans remettre en cause cette promesse, l’application Attie a de façon plus prosaïque reçu un accueil mitigé sur Bluesky, où divers mèmes circulent pour souligner que personne n’a jamais exprimé le souhait de paramétrer son flux à l’aide d’un agent IA.

Attie compte déjà quelques détracteurs sur Bluesky – source

« Attie est une application distincte, et son utilisation est entièrement à votre discrétion. Bluesky continuera d’évoluer en tant qu’application sociale utilisée par des millions de personnes. Attie sera notre plateforme d’expérimentation pour une interaction sociale proactive », affirme Jay Grabber.

De façon symbolique, l’identifiant Bluesky dédié à Attie est passé lundi midi à la troisième place du classement des comptes les plus bloqués sur le réseau social selon un outil tiers. Attie a ainsi surpassé le compte de l’ICE, la police de l’immigration, et talonne désormais la Maison-blanche, même si le numéro un, le vice-président JD Vance, reste encore hors de portée.

113 000 utilisateurs de Bluesky auraient symboliquement bloqué le compte attie – capture d’écran

☕️ Les créateurs de podcast face au virage vidéo

30 mars 2026 à 09:02


Fini, les médias audios ? Sur Linkedin, la créatrice des podcasts La Poudre et Folie Douce Lauren Bastide indiquait le mois dernier renoncer à la transformation de ses épisodes en vidéo, car le processus « coûte cher, prend du temps, mobilise de l’énergie… pour une valeur ajoutée minimale ».

Dix ans après la création des studios Binge Audio, Paradiso ou Nouvelles Écoutes, les créatrices et créateurs de podcasts comme elle sont face à une évolution d’ampleur : la transformation d’un format axé sur le son à des entretiens désormais filmés, régulièrement animés par des célébrités – des réseaux sociaux, de la culture, de l’entrepreneuriat aussi, pourquoi pas –, et diffusés, en long, sur YouTube. 
La plateforme a en effet tiré l’évolution du format vers la vidéo, poussant des outils historiquement dédiés à l’audio comme Spotify à intégrer des formats vidéos à leur dispositif.

D’après le Figaro, Apple Podcasts devrait faire de même dans les prochaines semaines pour tenter de récupérer des parts d’audience, alors que 46 % de la génération Z états-unienne écoute ses podcasts sur YouTube, 35 % sur Spotify, et seulement 9 % sur Apple Podcasts, selon Coleman Insights. L’évolution a aussi poussé journalistes et créateurs de ces émissions à multiplier les « shorts », ces courts extraits aussi bien promus par YouTube que TikTok.

Auprès du quotidien français, la créatrice Clémentine Galley, dont le programme Bliss Stories sur la maternité enregistre plus de 110 millions d’écoutes, se déclare « déprimée » d’avoir dû passer à la vidéo.

Pour autant, elle constate – de même que Louie Media ou Nouvelles Écoutes – que ce nouveau mode de diffusion lui permet de toucher des publics différents, plus jeunes pour Bliss Stories, moins uniformément urbains et CSP+ pour les podcasts de Louie Media.

Si l’évolution semble positive en termes d’audience, elle ne l’est pas nécessairement en termes de revenus : pour le cofondateur de Binge Audio (racheté le mois dernier par le groupe québécois Urbania), le coût pour mille sur YouTube, en matière de publicités, ne revient qu’à quelques euros, contre 60 à 90 euros pour un podcast classique, centré sur le son.

Illustration : Flock

☕️ Nouvelle fuite de données à la Commission européenne

30 mars 2026 à 06:06


La semaine dernière, le 24 mars précisément, la Commission européenne « a découvert une cyberattaque qui a affecté » sa plateforme Europa.eu, le site web de l’Union européenne. Elle affirme avoir réagi rapidement, mais reconnait tout de même que « les premières conclusions de l’enquête suggèrent que des données ont été extraites ». Les entités concernées sont contactées et informées.

« Les systèmes internes de la Commission n’ont pas été affectés par la cyberattaque. La Commission continuera à suivre la situation et à prendre toutes les mesures nécessaires pour assurer la sécurité de ses systèmes et données internes », ajoute l’institution.

IA Act Europe

Selon Bleeping Computer, la fuite viendrait d’un compte Amazon Web Services (AWS) compromis. « L’auteur de la menace qui a revendiqué l’attaque a contacté BleepingComputer en début de semaine, déclarant avoir volé plus de 350 Go de données (dont plusieurs bases de données) », ajoutent nos confrères.

Afin d’appuyer ses dires, le pirate a fourni à Bleeping Computer des « captures d’écran comme preuve qu’il avait accès à des informations appartenant à des employés de la Commission européenne ainsi qu’à un serveur de messagerie utilisé par des employés ». Il ajoutait « qu’il ne tenterait pas d’extorquer la Commission en utilisant les données prétendument volées comme levier, mais qu’il avait l’intention de divulguer les données en ligne ultérieurement ».

La Commission avait déjà été victime d’une cyberattaque le 30 janvier, « qui a peut-être permis d’accéder aux noms et aux numéros de téléphone portable de certains membres de son personnel ». La brèche avait été colmatée dans les 9 heures, selon la Commission. Cette dernière précisait qu‘« aucune compromission des appareils mobiles n’a été détectée ».

Reçu — 27 mars 2026 Next - Articles gratuits

Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

27 mars 2026 à 16:17
Le plus important, ça n'est pas la chute
Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.

Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.

Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).

Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.

Différences de points de vue

Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.

Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.

Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.

L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.

« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.

Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.

Trilogues à venir

Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :

« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »

Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :

« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »


OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

27 mars 2026 à 15:50
Le business contre la « règle 34 »
OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT

Faisant face à une opposition interne depuis des mois et à un besoin de montrer que son entreprise peut proposer des outils utiles dans l’environnement professionnel, Sam Altman semble (non sans mal) accepter d’abandonner l’idée de mettre en place une version pornographique de ChatGPT.

Suivant les velléités d’Elon Musk avec son IA Grok de permettre aux utilisateurs de générer des images et des textes pornographiques, en octobre dernier, Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié.

Mais le monde des adultes ramènerait le CEO d’OpenAI vers le « serious business ». Comme l’explique le Financial Times quelques jours après que l’entreprise a annoncé l’abandon de Sora 2, OpenAI a suspendu « pour une durée indéterminée » son projet de lancement de la version pornographique de son chatbot pour se concentrer sur ses autres projets. La version « adulte » de ChatGPT avait déjà été reportée au début du mois. L’entreprise affirmait toujours croire au projet mais « il faudra plus de temps pour acquérir l’expérience nécessaire », ajoutait-elle à l’époque.

Des investisseurs peu motivés par le projet

Les voix de certains investisseurs se seraient jointes aux critiques émises en interne sur le projet. En effet, celui-ci était déjà critiqué par des salariés mais aussi par un comité d’experts furieux et unanimement opposé, créé le jour même où Sam Altman avait exprimé sa volonté de créer ce mode « adulte ».

L’entreprise a affirmé au journal économique britannique qu’elle voulait finalement d’abord mener des recherches à long terme sur les effets des conversations à caractère sexuel explicite et l’attachement affectif avant de prendre une décision sur le lancement de cette version de son chatbot, ajoutant qu’il n’y avait pour l’instant pas de « preuve empirique » sur la question.

Mais, selon des sources du Financial Times, certains investisseurs étaient inquiets à la fois des risques liés à ce genre d’outil et du peu de potentiel de croissance qu’il pouvait apporter à l’entreprise.

Des risques de faux positifs sur l’estimation de l’âge des mineurs

Concernant les risques, ce n’était pas seulement lié à de potentielles polémiques et attaques en justice sur la gestion de tel ou tel contenu problématique, comme ce qu’on a pu voir avec les deepfakes générés par Grok visant à dénuder des femmes, parfois mineures. Mais comme nous l’expliquions, l’entreprise a aussi du mal à proposer un outil de prédiction d’âge maison qui ne laisse aucun enfant passer la barrière. Ainsi, il classait encore récemment à tort 12 % des mineurs comme des adultes.

Ces décisions sont prises une semaine après que le Wall Street Journal affirme qu’OpenAI allait réduire ses projets parallèles pour se concentrer sur son cœur de métier. Le journal économique américain expliquait que l’entreprise de Sam Altman était sous la pression d’Anthropic qui s’est imposée comme la startup rivale qui propose des solutions pratiques et novatrices dans le cadre du travail, comme Claude Code ou Cowork.

« Nous ne pouvons pas laisser passer cette occasion parce que nous sommes distraits par des activités secondaires », affirmait la responsable des applications d’OpenAI, Fidji Simo, à son équipe récemment selon Business Insider, ajoutant que l’entreprise devait absolument améliorer sa productivité dans le secteur professionnel, puis dans le secteur grand public.

La Wikipedia anglophone interdit l’édition assistée par modèles de langage

27 mars 2026 à 14:48
IA pas d'arrangement
La Wikipedia anglophone interdit l’édition assistée par modèles de langage

La version anglophone de l’encyclopédie participative a décidé d’interdire l’utilisation de l’IA générative pour la plupart des modifications de ses pages. Wikipédia en allemand a aussi récemment restreint cette utilisation.

« Les textes générés par des grands modèles de langage (LLM) tels que ChatGPT, Gemini, DeepSeek, etc. enfreignent souvent plusieurs des principes fondamentaux de Wikipédia », explique maintenant une page de la version anglophone de l’encyclopédie consacrée à la rédaction d’articles à l’aide de grands modèles de langage.

Deux petites exceptions pour l’usage de l’IA générative dans la Wikipédia anglophone

Les éditeurs ont donc décidé que, désormais, « l’utilisation des grands modèles de langage (LLM) pour générer ou réécrire le contenu d’articles est interdite » (toujours concernant la version anglophone). Même si peu de personnes ont participé au vote (46), une large majorité (44) a voté en faveur de cette nouvelle règle quand seulement deux personnes s’y sont opposées, comme on peut le lire dans le résumé des discussions.

Le texte ajoute quand même deux exceptions pour lesquelles les utilisateurs de la Wikipédia anglophone peuvent utiliser des outils intégrant des LLM.

Ainsi, la règle permet cette utilisation aux éditeurs pour « obtenir des suggestions de corrections de fond concernant leurs propres textes ». L’intégration de ces suggestions doit néanmoins se faire « après vérification humaine », et « à condition que le LLM n’ajoute pas de contenu de son propre chef ».

La Wikipédia anglophone accepte aussi l’utilisation de ces outils pour traduire des pages d’autres versions linguistiques de l’encyclopédie, à condition de suivre les règles récemment mises en place à ce sujet. En effet, les « hallucinations » venues de traductions par IA avaient déjà fait bouger les lignes à ce sujet.

Une utilisation difficile à objectiver et un déni toujours possible

Un dernier paragraphe concède que certains utilisateurs peuvent avoir un style d’écriture qui se rapproche de celui d’une IA générative. Ainsi, le texte demande à ce que les éventuelles sanctions prises au nom de l’utilisation de modèles de langage s’appuient plus sur l’infraction des principes fondamentaux de Wikipédia que sur l’éventuelle signature stylistique et linguistique d’un texte.

Mais l’une des éditrices ayant voté en faveur de cette règle exprime quand même la crainte que son adoption soit vaine : « Je crains tout de même un peu que l’approche que nous adoptons dans ces directives n’encourage le mensonge (surtout compte tenu de la réserve selon laquelle, si le texte est de bonne qualité, la directive ou la politique ne sera pas appliquée, alors à quoi bon ?) et qu’il soit difficile de les faire respecter correctement ».

Une interdiction d’usages jugée utile par certains

Pour l’une des personnes qui s’y est opposée, la formulation proposée ne fait pas la distinction entre l’utilisation des LLM pour générer du « slop » et « un processus de travail beaucoup plus restreint, dans lequel un éditeur expérimenté identifie les sources, définit le cadre de la tâche, vérifie le résultat par rapport aux sources et assume l’entière responsabilité de ce qui est publié ».

« Mettre tout cela dans le même panier n’aide personne », ajoute celle pour qui « « l’utilisation des LLM pour générer ou réécrire le contenu d’articles est interdite » : c’est tout simplement trop radical ».

Dans les discussions avant vote, un autre utilisateur expliquait en quoi, pour lui, les LLM pouvaient être utiles dans l’édition de Wikipédia : « une utilisation que j’ai trouvée utile consiste à importer le fichier PDF d’une source que je viens de lire dans le LLM en lui donnant la consigne suivante : « génère une référence au format Wikipédia pour ce document. Si des informations bibliographiques manquent, effectue une recherche sur Internet pour les trouver et fournis-moi les liens vers les sources où tu as trouvé ces informations manquantes afin que je puisse vérifier leur exactitude » ».

Mais, comme l’explique une des personnes en faveur de l’interdiction, le besoin de « remédier au déséquilibre flagrant entre l’effort nécessaire pour générer du contenu IA slop et celui requis pour le nettoyer » l’a emporté.

Les Wikipédia germanophone et francophone avancent aussi sur le sujet

L’utilisation des outils s’appuyant sur les LLM n’agite pas que la communauté anglophone. Comme nous l’expliquions l’année dernière, la communauté francophone a déjà adopté, à l’époque, un texte de recommandation sur l’usage de l’IA générative.

Le résumé de ce texte affirme que « l’intelligence artificielle générative (IAg) n’apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu. Son utilisation est donc vivement déconseillée ».

Jules*, l’un des administrateurs de Wikipédia en français, affirme cependant sur Bluesky qu’ « en pratique, les blocages pour mésusage de l’IA générative se multiplient » et il ajoute qu’« il est probable qu’une nouvelle itération [de la recommandation] survienne dans les prochains mois ».

Il pointe aussi qu’en février dernier, la Wikipédia germanophone s’est dotée « d’une recommandation stricte sur l’IA générative », dixit la newsletter francophone du projet.

Elle indique : « Wikipédia est un projet dont le contenu est documenté et rédigé par des humains pour des humains. L’utilisation de l’intelligence artificielle générative dans le cadre de l’élaboration de contenus pour Wikipédia est donc fondamentalement indésirable, à quelques exceptions près, qui sont énumérées ci-dessous ».

Sont ainsi autorisés le recours à la traduction automatique, qui fonctionne avec le support de l’IA, l’utilisation d’outils basés sur l’IA pour la détection des erreurs (mais, contrairement aux robots de Wikipédia, toute modification doit être validée par un humain), ainsi que la recherche avec l’aide de l’IA.

☕️ Sony augmente de 100 euros le prix des différentes versions de la PS5

27 mars 2026 à 14:23


La hausse de prix est aussi significative que globale : Sony a annoncé vendredi 7 mars une révision des tarifs de sa console de salon vedette, la PlayStation 5, dans le monde entier. En Europe, les trois versions de la console voient leur prix public augmenter de 100 euros, à compter du 2 avril 2026.

La PS5 standard passe à 650 euros, tandis que la PS5 édition numérique (sans lecteur optique physique) grimpe à 600 euros. Enfin, la PS5 Pro est désormais affichée à 900 euros. Le PlayStation Portal (lecteur à distance) voit lui aussi son prix public conseillé grimper de 220 à 250 euros.

Les nouveaux prix publics conseillés s’appliquent à partir du 2 avril sur les principaux marchés – capture d’écran

« Nous savons que les changements de prix ont un impact sur notre communauté et, après une évaluation minutieuse, nous avons conclu qu’il s’agissait d’une étape nécessaire pour garantir que nous puissions continuer à offrir des expériences de jeu innovantes et de haute qualité aux joueurs du monde entier. », commente Sony qui invoque, sans surprise, des « pressions continues dans le paysage économique mondial » pour justifier sa décision.

La PS5 avait déjà subi une hausse de prix au printemps 2025 en Europe. À l’époque, la hausse épargnait toutefois la PS5 Pro, lancée quelques mois plus tôt à 800 euros.

Financé par Xavier Niel, le français Ibou lance son alternative à Discover

27 mars 2026 à 13:49
Un projet ibouriffant
Financé par Xavier Niel, le français Ibou lance son alternative à Discover

Élaboré par des ingénieurs venus du monde du référencement naturel, le futur moteur de recherche français Ibou a lancé cette semaine la première brique de son modèle : un « Explorer », présenté comme une alternative aux algorithmes de recommandation des grands acteurs états-uniens. La société annonce dans le même temps avoir recueilli le soutien financier d’un certain Xavier Niel.

Alors que les réseaux sociaux ou les moteurs de recherche sont régulièrement pointés du doigt pour leurs algorithmes de recommandation et toutes les techniques relevant de l’économie de l’attention, peut-on envisager de créer un outil de découverte d’articles d’actualité respectueux de la vie privée ?

Telle est en tout cas l’ambition affichée par le projet français Ibou, qui vient de mettre en ligne la première brique de son futur moteur de recherche conversationnel, dont Next avait présenté en détail les enjeux et les perspectives en septembre dernier.

Une alternative à Google Discover

Tous les navigateurs et les moteurs de recherche disposent aujourd’hui de fonctions de recommandations algorithmiques, à commencer par le plus populaire d’entre eux, Google. Ibou Explorer prend le contrepied de ces outils « en privilégiant la qualité éditoriale et le pluralisme des points de vue plutôt que le seul engagement ».

En pratique ? Le portail mis en ligne prend la forme d’une sélection assez générique d’articles d’actualité issus de grandes marques média, et distribuée selon plusieurs catégories, dont une rubrique « Sciences et Tech ». Ibou invite, ou incite, l’internaute à créer un compte pour personnaliser cette sélection d’articles grâce à un système de j’aime / je n’aime pas. Le portail propose également un système de signets qui permet de centraliser des articles à lire plus tard.

Après quelques jours, la sélection a évolué mais difficile d’affirmer qu’elle colle à mes goûts compte tenu de son caractère éclectique – capture d’écran Next

Les cartes de présentation des articles se limitent à un titre et un visuel, ainsi qu’au logo du média source. Il n’y a, à ce stade, aucun résumé généré par IA, et le projet revendique son engagement en matière de respect des éditeurs et des créateurs de contenus.

« Journalistes, blogueurs, photographes, développeurs : chaque créateur mérite la visibilité et le trafic que son travail a gagné », affirme l’entreprise, qui promet par ailleurs de respecter à la lettre les consignes des éditeurs en matière d’indexation.

« Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux. », nous avait confirmé Sylvain Peyronnet, PDG et cofondateur de Babbar, l’entreprise éditrice d’Ibou.

Un fonctionnement partiellement expliqué

Comment sont classés les contenus et sur quelle base le moteur fait-il évoluer ses recommandations ? Sur la page qui présente sa « vision », Ibou renouvelle sa promesse de favoriser la découverte et la diversité à la performance pure. « Pas de bulles, pas de manipulation émotionnelle. », écrit la startup.

Testé pendant quelques jours, le portail repose à ce stade sur une sélection limitée de médias, et il n’est pas évident d’évaluer de façon empirique l’efficacité de l’algorithme de recommandation. Il semble avoir saisi que les actualités liées à la cybersécurité et aux impacts de l’IA ou de la guerre en Iran nous intéressent tout particulièrement, mais persiste à nous suggérer des publications sur certains thèmes ou émanant de médias pourtant systématiquement « dislikés ».

Version bêta oblige, l’entreprise cherche logiquement à ajuster ses curseurs. Contactée par nos soins, elle confirme d’ailleurs n’avoir pas finalisé la réflexion liée à la personnalisation éventuelle des publicités affichées par le service.

L’entreprise avait présenté quelques éléments du fonctionnement de son Explorer en septembre dernier, dans un billet de blog dédié. « Cette personnalisation que nous effectuons dépend de ce que les utilisateurs expriment, mais aussi des articles vus et appréciés par l’utilisateur. En cas d’arbitrage nécessaire, c’est ensuite les qualités en termes de performances supposées de chaque article qui fera la différence », expliquait-elle alors.

Ibou écrivait également à cette occasion travailler à un filtre pensé pour pénaliser les contenus « mal faits avec de l’IA », mais aussi les articles susceptibles de faire porter un risque sur les lecteurs, parce qu’ils dispensent par exemple « des conseils médicaux ou juridiques qui, mal utilisés, pourraient amener à un préjudice irréversible ».

Un facteur également pris en compte par Google dans son Discover, et qui explique sans doute en partie pourquoi l’algorithme présente une telle proportion d’articles relevant plus du divertissement que de l’information.

Un historique disponible en un clic

En attendant de voir jusqu’où l’entreprise lèvera le capot sur le fonctionnement de son outil, Ibou Explorer affiche de façon claire les éléments liés à la confidentialité et donc à l’utilisation faite des données personnelles de l’utilisateur.

L’entreprise collecte les interactions de l’utilisateur lorsqu’il est connecté à son compte (clics, likes, dislikes, signets) et affirme les utiliser pour personnaliser les suggestions individuelles et « améliorer l’algorithme de recommandation ».

« Aucune donnée n’est vendue ou partagée avec des tiers », promet Ibou Explorer, dont le profil utilisateur permet de récupérer en un clic un fichier .json contenant l’intégralité des interactions enregistrées par le site.

Le profil permet de réinitialiser ses infos ou télécharger son historique en un clic (sous forme de fichier json) – capture d’écran Next

Xavier Niel entre au capital

« Cette première verticale constitue la première étape visible d’un projet plus large : elle sera progressivement complétée par d’autres verticales — recherche web, images, actualités — pour aboutir à un moteur de recherche conversationnel complet », rappelle l’entreprise éditrice d’Ibou.

Elle peut se targuer d’un nouveau soutien pour développer son projet. Elle annonce en effet avoir accueilli Xavier Niel à son capital, pour un montant non communiqué.

Cette nouvelle levée de fonds complète un tour de table de 2,1 millions d’euros réalisé en 2021. « Ce qui m’a convaincu chez Ibou, c’est d’abord Sylvain et son équipe. Ce sont des gens qui savent de quoi ils parlent, qui ont déjà construit quelque chose de solide et qui ont une vision claire de comment réaliser un moteur souverain. Le reste, ça suit », salue Xavier Niel dans un communiqué reçu par email.

Au fait, qu’est-ce qu’un moteur conversationnel ? « Nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse. Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc. », nous expliquait Sylvain Peyronnet en septembre dernier.

❌