La décision était attendue, le Parlement avait prévenu la semaine dernière. C’est désormais officiel (et sans surprise), les députés ont adopté ce jeudi – à une large majorité avec 569 voix pour, 45 contre et 23 abstentions – une « position sur une proposition de simplification (omnibus) modifiant la législation sur l’intelligence artificielle (AIA) ».
Pour les systèmes d’IA à haut risque, les députés proposent, comme prévu, la date du 2 décembre 2027, au lieu du 2 août 2026, soit près d’un an et demi de retard. Également validée, la proposition de repousser au 2 août 2028 « les systèmes d’IA couverts par la législation sectorielle européenne sur la sécurité et la surveillance du marché ».
Autre délai repoussé, celui sur les « règles relatives au marquage numérique des contenus audio, image, vidéo ou des textes créés par l’IA afin d’indiquer leur origine ». Désormais, les députés visent le 2 novembre 2026 alors que cela devait entrer en vigueur cet été. Cela concernera donc les actualités générées par IA, comme le signale déjà notre extension, qui a dans sa base de données près de 12 000 sites.
Au passage, les députés veulent introduire l’interdiction des systèmes de « nudification », c’est-à-dire les applications qui utilisent l’IA pour « créer ou manipuler des images sexuellement explicites ou intimes et qui ressemblent à une personne réelle identifiable, sans le consentement de cette personne ».
Le Parlement précise que cette « interdiction ne s’appliquera pas aux systèmes d’IA dotés de mesures de sécurité efficaces empêchant les utilisateurs de créer de telles images ». Cette semaine, l’Internet Watch Foundation a d’ailleurs sonné l’alerte face à la multiplication d’images et de vidéos pédocriminelles crédibles générées par IA.
Les députés sont également favorables « à ce que les fournisseurs de services puissent traiter des données à caractère personnel afin de détecter et de corriger les biais dans les systèmes d’IA, mais ils ont introduit des garanties pour s’assurer que cela ne se fasse qu’en cas de stricte nécessité ».
Après ce vote, les négociations avec le Conseil sur la version définitive de la loi peuvent désormais commencer, avec ensuite un trilogue avant le vote définitif. La proposition de simplification adoptée ce jour fait partie du septième paquet omnibus sur la simplification proposé par la Commission européenne depuis novembre 2025.
Ce jeudi, la Commission européenne a publié deux communiqués autour de la protection de l’enfance et des mineurs. Snapchat est sous le coup d’une enquête formelle, tandis que les conclusions préliminaires sont tombées pour PornHub, Stripchat, XNXX et XVideos, qui « enfreignent la loi sur les services numériques ».
Le premier communiqué concerne Snapchat, avec l’ouverture d’une procédure formelle pour déterminer si le réseau social « garantit un niveau élevé de sûreté, de confidentialité et de sécurité pour les enfants en ligne, conformément à la législation sur les services numériques (DSA) ».
De nombreux griefs contre Snapchat, une enquête ouverte
Les griefs de la Commission sont nombreux car elle estime que la plateforme a peut-être enfreint les règles en « exposant des mineurs à des tentatives de manipulation et à des recrutements à des fins criminelles, ainsi qu’à des informations sur la vente de biens illégaux, comme des drogues ou des produits à restriction d’âge, tels que les cigarettes électroniques et l’alcool ».
Plusieurs points seront analysés, à commencer par la vérification d’âge (13 ans minimum) à l’entrée de la plateforme. La Commission européenne soupçonne en effet que « l’autodéclaration en tant que mesure d’assurance de l’âge est insuffisante ». Des inquiétudes également de l’Europe concernant « les paramètres du compte par défaut de Snapchat ne fournissent pas suffisamment de confidentialité, de sureté et de sécurité pour les mineurs ».
La modération est aussi pointée du doigt, avec un manque d’efficacité « pour empêcher la diffusion d’informations orientant les utilisateurs vers la vente de produits illégaux […] De plus, elle ne semble pas empêcher efficacement les utilisateurs, y compris les enfants et les adolescents, d’accéder à ce type de contenu ».
Les mécanismes de signalement sont également scrutés de près car, selon la Commission, ils « ne sont ni faciles d’accès ni faciles à utiliser, et pourraient utiliser ce qu’on appelle des dark patterns dans leur conception ».
La Commission lance donc son enquête approfondie afin de collecter des preuves, et demander des comptes à Snapchat si besoin.
« PornHub, Stripchat, XNXX et XVideo enfreignent la législation »
Une autre enquête, toujours axée sur la protection des mineurs, se termine dans le même temps. Elle concerne quatre sites pornos : « La Commission conclut à titre préliminaire que PornHub, Stripchat, XNXX et XVideos enfreignent la législation sur les services numériques pour avoir permis aux mineurs d’accéder à leurs services ».
Selon la Commission, les plateformes « n’ont pas identifié et évalué avec diligence les risques que leurs plateformes présentent pour les mineurs qui accèdent à leurs services ». De plus, même lorsque des risques étaient identifiés, elles « n’ont pas procédé à une évaluation approfondie ».
La réputation avant les risques sociétaux pour les mineurs
Toujours selon l’Europe, les plateformes avec du contenu pornographique ont mis « l’accent de manière disproportionnée sur leurs préoccupations, notamment les dommages liés à la réputation, plutôt que de se concentrer sur les risques sociétaux pour les mineurs, comme l’exige le DSA ».
La Commission ajoute que « Pornhub, Stripchat, XNXX et XVideos n’avaient pas mis en œuvre de mesures efficaces pour empêcher les mineurs d’accéder à leurs services ». Les conditions d’utilisation précisent qu’il faut être majeur, mais « un simple clic confirmant qu’ils ont plus de 18 ans » suffit aux mineurs pour passer. Même problème que pour Snapchat donc.
Pornhub, Stripchat, XNXX et XVideos « doivent mettre en œuvre des mesures »
La Commission estime donc « que Pornhub, Stripchat, XNXX et XVideos doivent mettre en œuvre des mesures de vérification de l’âge respectueuses de la vie privée afin de protéger les enfants contre les contenus préjudiciables ». Ce sont des conclusions préliminaires, qui « ne préjugent pas du résultat final de l’enquête ».
Les quatre plateformes ont désormais la possibilité d’examiner les documents des dossiers d’enquête et de répondre. Elles peuvent aussi, de manière volontaire, prendre des mesures pour corriger le tir. Si les conclusions de la Commission sont validées, des sanctions pourront être prises.
En France, depuis cet été, l’Arcom a intensifié sa lutte et mis en demeure 17 sites pornos de mettre en place des mesures de vérification de l’âge. Dans la foulée, nous avions testé plusieurs méthodes pour prouver son âge à l’entrée des plateformes.
Problème, quelques clics suffisaient parfois pour passer outre, tandis que d’autres validaient parfois n’importe quoi.
Nous sommes par exemple passés avec une fausse carte d’identité de Gabriel Attal récupérée sur Internet, une carte au nom de Dora l’Exploratrice, une vidéo du visage d’une personne sur une banque d’image (avec le watermark)… Pire encore, nous avons refait un tour début février et la situation est toujours catastrophique.
Pour la publication de son avis sur l’adoption de l’intelligence artificielle par les entreprises françaises, la Commission Supérieure du Numérique et des Postes organisait ce 26 mars une table-ronde avec plusieurs des acteurs qu’elle a auditionnés. Next y était.
En matière de développement de l’intelligence artificielle dans les entreprises, la France fait face à trois tensions principales : une tension financière, illustrée par les 420 milliards de dollars d’investissements injectés dans les infrastructures numérique outre-Atlantique sur la seule année 2025 ; une tension énergétique, qui vient concurrencer les objectifs français de « réindustrialisation décarbonée » et une tension sociale, notamment sur la question des emplois des jeunes diplômés.
Tel était le constat posé ce 26 mars par le sénateur Damien Michallet (Les Républicains) alors qu’il présentait l’avis de la Commission Supérieure du Numérique et des Postes (CSNP) sur l’adoption de l’intelligence artificielle par les entreprises françaises. Pour les relever, la CSNP formule 26 recommandations réparties en cinq chapitres : piloter, accompagner (les entreprises et l’adoption de solutions françaises ou européennes), former, dialoguer de manière « renforcée », selon les mots du sénateur de l’Isère, avec les partenaires sociaux, mais aussi simplifier les textes existants.
Nécessité d’adopter l’IA…
Aux trois enjeux identifiés par la CSNP, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff ajoute une tension d’ordre « sociétale », au sens des risques de « détournement des systèmes d’IA à des fins malveillantes ». Ces types de manipulation soulèvent des problématiques « d’ordre démocratique, envers les plus vulnérables » (on entend ici un écho aux débats soulevés par la diffusion massive de deepfakes pornographiques sur Grok), sans oublier aux « entreprises elles-mêmes », susceptibles elles aussi d’être « attaquées » par le biais d’éléments manipulés par IA.
Il reste 84% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Tout juste un an après le lancement des Ryzen 9 9900X3D et 9950X3D, AMD remet le couvert avec le Ryzen 9 9950X3D2 Dual Edition avec un « 2 Dual Edition » en plus à la fin de sa référence. La différence ? La technologie AMD 3D V-Cache est présente sur les deux chiplets du processeur.
Le CPU dispose donc toujours de 16 cœurs et 32 threads Zen 5 répartis sur deux chiplets de 8C/16T chacun. Le Ryzen 9 9900X3D a 128 Mo de mémoire cache L3 (série X3D oblige), pour un total de 144 Mo de cache avec les 16 Mo de cache L2 (1 Mo par cœur).
Le Dual Edition double presque la mise avec 208 Mo de cache au total, soit 192 Mo de cache L3 (toujours 16 Mo de cache L2). Avec une simple division, on en déduit que chaque chiplet dispose de 96 Mo de cache L3. Dans tous les cas, le cache L1 est de 1 280 Ko.
La fréquence de base est de 4,3 GHz avec jusqu’à 5,6 GHz en mode boost, soit 100 MHz de moins que le Ryzen 9 9950X3D (5,7 GHz). Autre changement, le TDP du CPU Dual Edition passe à 200 watts, soit une hausse de 30 watts.
Selon AMD, cela permet « des gains de performances de 5 à 10 % par rapport au Ryzen 9 9950X3D ». La disponibilité est prévue pour le 22 avril, mais il y a fort à parier qu’il coûte plus de « 5 à 10 % » que son grand frère. Dans tous les cas, ce sera « le premier processeur de bureau intégrant la technologie AMD 3D V-Cache sur deux chiplets ».
Le processeur utilise un socket AM5 (compatible avec les chipsets 620, X670E, X670, B650E, B650, X870E, X870, B840 et B850). ASRock avait vendu la mèche il y a quelques jours en publiant (et retirant rapidement) une fiche précisant que ses cartes mères AM5 étaient compatibles, comme le rapporte VideoCardz.
WhatsApp annonce une salve de nouveautés pour son application mobile. Sur la gestion du stockage, la messagerie instantanée de Meta (Facebook, WhatsApp, Instagram…) explique que « vous pouvez désormais rechercher et supprimer les fichiers volumineux directement dans les discussions », via une nouvelle option Gérer le stockage dans les discussions.
C’était déjà possible sur Android, mais c’est désormais aussi le cas sur iOS : sur un seul téléphone, vous pouvez avoir deux comptes connectés en même temps.
WhatsApp ajoute que la « fonctionnalité de transfert de discussions permet désormais de déplacer votre historique de discussion depuis iOS vers Android, en plus du transfert sur une même plateforme ». C’était déjà possible auparavant, mais tout est à présent centralisé dans l’application et WhatsApp promet que, maintenant, « vos conversations, photos et vidéos sont facilement accessibles en quelques appuis seulement ».
Une annonce de nouveautés sur un produit Meta sans parler d’IA ? Bien sûr que non : « Vous pouvez désormais utiliser Meta AI pour retoucher des photos directement dans vos discussions avant de les envoyer ».
Autre nouveauté, « l’aide à la rédaction peut désormais suggérer une réponse en fonction de votre conversation afin que vous puissiez trouver le message idéal, tout en gardant vos discussions complètement privées ».
Comme toujours avec la messagerie, « ces fonctionnalités sont en cours de déploiement et seront bientôt disponibles pour tous ».
Plus d’un an après son investiture et après avoir maintes fois attaqué les agences scientifiques de son pays, Donald Trump a nommé les membres de son Comité présidentiel des conseillers en science et technologie (President’s Council of Advisors on Science and Technology PCAST).
Ce comité est présidé, comme annoncé en janvier 2025, par Michael Kratsios (conseiller de Donald Trump depuis son premier mandat) et l’investisseur David Sacks (PayPal, Facebook, Uber, SpaceX, Palantir…).
John Martinis (responsable du Google Quantum AI Lab et prix Nobel de physique 2025)
Bob Mumgaard (CEO de Commonwealth Fusion Systems)
Lisa Su (CEO d’AMD)
Mark Zuckerberg (CEO de Meta)
Si une bonne partie de ces personnalités ont fait des études longues, et parfois dans des universités prestigieuses, ArsTechnica pointe le fait qu’aucun n’est actuellement chercheur.
De fait, ce comité a été créé en 2001 sous George W. Bush et n’a pas une importance primordiale dans la gestion de la politique de la recherche aux États-Unis. Mais cette longue liste de responsables de la tech états-unienne marque en creux le manque de chercheuses et chercheurs sur tous les autres sujets que peuvent couvrir les différentes disciplines scientifiques.
Apprendre à partir du monde plutôt que du langage, c’est le but des « world models ». Yann LeCun et son équipe d’AMI Labs viennent de dévoiler leur premier modèle du genre, LeWorldModel. Comment ça marche ? Quelles différences avec les LLM (grands modèles de langage) ? Quelles sont les limitations et les espoirs ? Next vous explique tout.
Après avoir quitté Meta, Yann LeCun s’est associé à d’autres chercheurs de renom pour lancer AMI Labs (Advanced Machine Intelligence) au début de l’année. Début mars, la start-up levait 890 millions d’euros. Elle vient de présenter son premier modèle : LeWorldModel ou LeWM de son petit nom. C’est un modèle qui apprend et qui, à partir d’actions données, essaye d’anticiper le futur.
LeWorldModel, JEPA, régulariseur gaussien… Wait, what ?!
Présentation rapide : « LeWM est un « world model » basé sur JEPA qui évite l’effondrement des représentations grâce à un simple régulariseur gaussien (SIGReg), s’entraîne de bout en bout à partir des pixels avec seulement deux termes de perte, et atteint des performances de contrôle compétitives pour une fraction du coût de calcul ».
Vous n’avez pas tout compris ? Pas de panique, Next vous explique de façon simple l’approche d’AMI Labs pour apprendre le monde à partir d’images et de vidéos. Le concept n’est pas nouveau, mais la manière de faire est différente et demande moins de puissance de calcul, alors que c’est actuellement le nerf de la guerre des IA (génératives).
Pour être plus performantes, ces IA ont de plus en plus de paramètres (ils se comptent en centaines de milliards), mais ce gain de taille se fait au prix de calculs et d’un besoin en quantité de mémoire (pour charger les paramètres) toujours plus importants. Pour rappel, une requête à ChatGPT avec un seul token, c’est déjà des centaines de milliards de calculs pour répondre.
Apprendre et raisonner « comme les animaux et les humains »
Il y a maintenant plus de quatre ans, alors qu’il était chez Meta, Yann LeCun parlait de « sa vision d’un système d’IA capable d’apprendre et de raisonner comme les animaux et les humains ».
Il reste 88% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Disponible depuis l’automne dernier sous forme de bêta destinée aux internautes des États-Unis et de Corée du Sud, la version Windows du navigateur de Samsung, basée sur Chromium, est désormais accessible à tous les internautes via le site dédié. Le fabricant y invite à découvrir un « navigateur Web simple et rapide qui donne la priorité à votre confidentialité et à votre sécurité ».
Le site officiel n’est pour l’instant décliné qu’en anglais et en coréen, mais le logiciel est bien traduit en français. Après récupération de l’exécutable d’installation et téléchargement en arrière-plan, on découvre un processus d’installation classique, avec validation des conditions d’utilisation, proposition d’import des favoris depuis un autre navigateur, proposition d’activer un bloqueur de publicités, et bien sûr connexion à un compte Samsung existant.
C’est en effet dans la capacité à établir un pont entre un smartphone ou une tablette Samsung Galaxy et le PC sous Windows, notamment pour synchroniser les données de navigation ou les mots de passe, que réside l’essentiel de la promesse. On peut ainsi demander à afficher, sur son PC, une page précédemment ouverte sur son smartphone.
Le Samsung Browser dispose d’une vue partagée, comme Chrome – capture d’écran Next
À cette continuité entre PC et mobile, le Samsung Browser ajoute, ô surprise, une proposition de valeur axée sur l’IA, avec la présence d’un « assistant Web » capable de proposer un résumé de la page affichée ou d’opérer une traduction à la volée, mais aussi d’opérer des tâches plus complexes, dans une logique agentique. Pour ce faire, Samsung revendique un partenariat avec Perplexity, dont les modalités financières n’ont pas été dévoilées.
« Le navigateur Samsung est conçu pour comprendre le langage naturel et le contexte de la page consultée, ainsi que l’activité entre les onglets, facilitant ainsi l’exploration du contenu et la prise de décision. Cette nouvelle intelligence permet non seulement de répondre aux questions sur la page web, mais aussi de gérer les onglets, de consulter l’historique de navigation et de rester productif sans quitter le navigateur », promet à ce sujet le fabricant sud-coréen.
Si les résumés et la traduction sont accessibles à tous (sous réserve de création d’un compte Samsung), les fonctions liées au partenariat avec Perplexity sont pour l’instant cantonnées aux États-Unis et à la Corée du Sud. On pourra consulter la déclaration de confidentialité associée au logiciel via ce lien.
Le procès opposant Kaley G. M. et sa mère à Google et Meta se termine sur une condamnation des deux entreprises à quelques millions d’euros chacune. Le montant est moins élevé que d’autres affaires médiatiques concernant les GAFAM, mais cette décision pourrait faire jurisprudence dans de nombreux cas similaires, si elle est confirmée en appel.
Meta et YouTube ont mis en place des fonctionnalités conçues pour créer une dépendance à leurs réseaux sociaux et plateformes de vidéos, et celles-ci ont entraîné des troubles de santé mentale sur une jeune utilisatrice, a conclu le jury de la Cour supérieure de justice de Los Angeles.
Le procès opposait depuis un mois et demi Kaley G. M, une plaignante âgée actuellement de 20 ans accompagnée par sa mère, à Google et Meta.
Le jugement inclut des dommages-intérêts de 4,2 millions de dollars à verser par Meta et 1,8 million par YouTube. Kaley G. M les accusait d’avoir provoqué et entretenu son addiction à leur service alors qu’elle était mineure. Elle avait pu créer son compte Instagram à l’âge de 9 ans alors que l’application ne demandait pas encore la date de naissance de l’utilisateur à l’inscription.
« Je pense généralement qu’il existe un groupe de personnes, potentiellement assez important, qui mentent sur leur âge afin d’utiliser nos services », avait affirmé Mark Zuckerberg alors qu’il était pressé de justifier la politique de Meta relative aux préados au cours du procès.
L’avocat de Kaley G. M, Mark Lanier a montré que Meta a enterré une recherche menée en interne sur les conséquences de ses produits sur les adolescents qui ne lui convenait pas.
Le New York Times explique que, lors du procès, l’avocat a insisté sur les fonctionnalités de défilement infini, d’algorithmes de recommandation et de vidéos en autoplay, qui seraient conçues pour capter notamment les jeunes utilisateurs, et qu’ils utilisent Instagram, YouTube et autres plateformes de manière compulsive.
La jeune femme avait expliqué qu’elle était tous les jours sur les réseaux sociaux. « Je ne peux tout simplement pas m’en passer », répondait-elle à la question « Pourquoi n’arrêtez-vous pas ? ».
Son avocat avait insisté sur la politique interne de Meta pour attirer les ados, citant un document interne à l’entreprise datant de 2018 affirmant que « si nous voulons vraiment gagner auprès des adolescents, nous devons les attirer dès leur préadolescence ».
Si Meta et Google sont les deux seules entreprises à être condamnées, Snap et TikTok étaient aussi initialement visées. Mais celles-ci ont préféré négocier un accord confidentiel leur évitant que soient déballées au grand public des informations internes sur leur politique vis-à-vis des jeunes utilisateurs.
Le verdict de ce procès arrive juste après que l’entreprise de Mark Zuckerberg a été condamnée à 375 millions de dollars d’amende pour le déploiement d’outils dangereux pour la santé mentale des mineurs.
Si la somme versée ici à Kaley G. M est très inférieure à cette amende, cette décision pourrait faire tache d’huile. En effet, près de 2 500 autres procès attendent les quatre entreprises de réseaux sociaux aux États-Unis, selon le média spécialisé Courthouse News. Et le verdict pourrait faire jurisprudence si la décision est confirmée en appel.
Car les deux entreprises ont déjà planifié de faire appel, selon Reuters. « Cette affaire repose sur une mauvaise compréhension de YouTube, qui est une plateforme de streaming conçue de manière responsable, et non un réseau social », assure au New York Times le porte-parole de Google.
Les deux entreprises avaient mis en avant le fait que les poursuites étaient irrecevables selon l’article 230 du Communications Decency Act, qui protège les plateformes de la responsabilité des contenus publiés par leurs utilisateurs. Mais, comme l’explique Reuters, les juges avaient rejeté cet argument et avaient permis la poursuite de l’instruction. Il sera cependant sans doute réutilisé par les avocats de Google et Meta en appel.
À Courthouse News, l’une des jurées a affirmé : « Nous voulions que [Meta et Google] comprennent que cela n’était pas acceptable ». Mais, selon elle, le jury craignait de « remettre la totalité de la somme à une seule personne », avant d’ajouter : « Nous avons pensé que si cette somme pouvait être versée petit à petit, pour être dépensée à bon escient et durer longtemps, nous aurions probablement fixé un montant plus élevé. »
Comme prévu, les binaires et fichiers d’installation de Firefox 149 ont bien fait leur apparition mardi 24 mars sur les FTP de la fondation Mozilla, mais il a fallu attendre le lendemain pour l’annonce formelle et la publication des notes de version associées.
C’est désormais chose faite, et les internautes de quatre pays (France, Allemagne, Royaume-Uni et États-Unis) sont censés pouvoir accéder à la principale nouveauté annoncée mi-mars par Mozilla : l’introduction d’une fonctionnalité de VPN native au sein du navigateur, accessible gratuitement dans la limite de 50 Go de trafic par mois, à des fins de protection de la vie privée.
Firefox 149 intègre un VPN gratuit associé à 50 Go de trafic – capture d’écran Next
La fonction, comme souvent, fait l’objet d’un déploiement progressif chez les utilisateurs finaux, ce qui signifie qu’elle n’apparait pas forcément chez tous les utilisateurs, même avec la version 149 installée. Il est cependant possible de forcer son activation via la page about:config en passant le paramètre browser.ipProtection.enabled à true.
Notez qu’il est nécessaire d’être connecté à un compte Mozilla. Une icône VPN fait alors son apparition à droite de la barre d’adresse du navigateur. Elle permet d’activer la fonction et d’accéder aux paramètres de cette dernière.
Mozilla a fait le choix à ce niveau de proposer une mise en application globale par défaut, avec une désactivation au cas par cas : les paramètres permettent de spécifier quels sont les sites sur lesquels on ne souhaite pas passer par le tunnel. L’inverse aurait pu sembler pertinent, pour limiter l’emploi des 50 Go offerts aux quelques sites dont l’internaute estime qu’ils méritent le recours à un VPN.
Testé rapidement jeudi matin, le VPN donne des résultats disparates, avec une vitesse de chargement anémique lors de certains essais, et un surf tout à fait honnête sur d’autres courtes sessions. L’adresse de sortie est clairement identifiée comme un VPN associé à Firefox, localisé à Paris. Notons que Mozilla ne propose aucune possibilité de choix géographique sur cette version gratuite, alors que l’option existe au sein de son offre de VPN payante, à partir de 59,88 euros par an.
Activation du VPN et réglages associés – capture d’écran Next
Quid de la vie privée ? Mozilla aborde la question dans la FAQ dédiée :
« Mozilla collecte les données techniques nécessaires pour fournir, maintenir et assurer la performance et la stabilité du service, mais aussi des données d’interaction pour comprendre comment est utilisé la fonctionnalité et aider à orienter les améliorations. Par exemple, nous pouvons enregistrer si une connexion réussit ou échoue. Nous pouvons aussi noter que 2 Go de données ont été consommés un même jour. Important ! Le VPN n’enregistre jamais quels sites web vous consultez ni le contenu de vos communications ».
L’Agence spatiale européenne (ESA) revient sur la mise en ligne de deux images avec les vues les plus détaillées de Saturne. L’agence spatiale américaine fait de même. Publication coordonnée logique puisque les télescopes James Webb et Hubble « se sont associés pour capturer de nouvelles vues de Saturne ».
« Les observations dans l’infrarouge et la lumière visible révèlent des couches et des tempêtes dans l’atmosphère de la planète aux anneaux ». Une image vient de Hubble et « révèle de subtiles variations de couleur sur la planète », elle a été capturée en août 2024. La seconde de Webb quelques mois plus tard, avec une vue infrarouge qui « détecte des nuages et des produits chimiques à de nombreuses profondeurs dans l’atmosphère ».
À gauche, l’image de James Webb du 29 novembre 2024, à droite celle de Hubble du 22 aout 2024. La NASA propose aussi une vue plus large de Saturne, avec ses six plus grandes lunes, dont la plus imposante, Titan, est tout à gauche :
C’est un travail d’équipe, expliquent les agences spatiales. Les scientifiques peuvent en effet découper l’atmosphère de Saturne à plusieurs altitudes, comme on épluche un oignon : « Chaque télescope raconte une partie différente de l’histoire de Saturne, et ces observations aident les chercheurs à comprendre comment fonctionne l’atmosphère de Saturne ».
Le temps des saisons sur Saturne est bien différent de celui sur Terre, car chaque saison dure environ 7 ans et la planète met plus de 29 ans à faire sa révolution. « Ces images montrent la planète passant de l’été boréal à l’équinoxe de 2025 ». C’est une période particulière durant laquelle ses anneaux « disparaissent ».
« La Terre passe dans le plan équatorial de Saturne autour du moment de l’équinoxe de Saturne. À ce moment, depuis la Terre, les anneaux ne se voient que par la tranche, c’est-à-dire selon un trait si mince qu’il donne l’illusion de leur disparition », explique l’Observatoire de Paris. Ils ne dépassent alors pas les 40 mètres d’épaisseur.
Ce phénomène s’est produit le 23 mars, mais l’Observatoire avait prévenu que, « malheureusement, lors de cette configuration 2025, il ne sera pas observable […] Saturne sera à cette période noyée dans la lumière du Soleil en journée et non visible la nuit. Elle ne sera donc pas observable ».
Rendez-vous le 1ᵉʳ avril… 2039 pour la prochaine disparition des anneaux. « Saturne sera à l’opposition et le phénomène sera alors facile à observer ».
Pile à temps pour la Journée de Libération des Documents
L’Allemagne vient d’imposer le recours à Open Document Format (ODF) comme standard pour l’enregistrement des documents bureautiques au sein de la pile des logiciels et services numériques de son administration. La Document Foundation, qui soutient ce standard ouvert, salue la décision et lance un appel aux autres pays européens.
La nouvelle aurait pu passer inaperçue, perdue qu’elle était au milieu d’un document de spécifications techniques. Elle n’a cependant pas mis longtemps à revenir aux oreilles, ou plutôt aux yeux, des membres de la Document Foundation, qui s’en sont fait l’écho le 19 mars dernier : l’Allemagne demande désormais de façon tout à fait formelle à ses services publics de recourir à deux formats pour l’enregistrement de leurs documents : le PDF et Open Document Format (ODF). « Il ne s’agit pas d’une recommandation ou d’une préférence, il s’agit d’une obligation », jubile Florian Effenberger, directeur exécutif de la Document Foundation.
L’Allemagne précise la doctrine de sa Deutschland Stack
Cette allusion explicite à ODF intervient dans le cadre de la définition, par l’Allemagne, de sa nouvelle politique en matière de souveraineté, baptisée Deutschland Stack, et censée conduire à la création d’un socle technologique commun (la « stack ») pour l’ensemble des systèmes d’information utilisés par ou destinés aux services publics.
Les grandes lignes de ce socle ont été adoptées et présentées le 18 mars dernier par l’IT-Planungsrat, l’organe allemand de coordination en charge de la numérisation de l’administration publique. Elles reposent sur quatre grands principes.
D’abord, une mise en place progressive sous contrôle fédéral, puis un socle technique commun obligatoire garantissant l’interopérabilité (intégrant les principaux services de base comme la gestion de l’identité ou les mécanismes d’échange et de conservation des données). Elles prévoient ensuite un recours admis et encouragé à l’intelligence artificielle avec une logique de standardisation.
Le cadre de la Deutschland Stack dispose enfin que les services publics doivent recourir à des solutions achetées prioritairement sur le marché européen, et opter pour des licences open source pour les développements réalisés via les agences fédérales ou régionales.
Ces quatre piliers sont accompagnés d’une série de principes architecturaux (acheter plutôt que faire, adopter systématiquement des logiques DevOps ou DevSecOps, raisonner exclusivement sous forme de services et d’API, etc.) et de quelques normes techniques, dont le caractère contraignant se justifie au regard des exigences d’interopérabilité évoquées précédemment. À ce niveau, l’IT-Planungsrat spécifie effectivement deux options pour les documents : PDF/UA (pour PDF/Universal Accessibility, ou accessibilité universelle des PDF) et ODF.
La feuille de route liste les formats qui font office de normes techniques pour la mise en oeuvre des technologies sémantiques au sein de l’administration allemande – source (PDF)
À ce stade, ces grands principes et les contraintes afférentes constituent un cadre normatif, dont les contours exacts pourront cependant évoluer jusqu’à l’horizon 2028, présenté comme le premier palier de mise en œuvre de cette nouvelle politique.
L’Allemagne montre la voie pour la Document Foundation
L’administration allemande risque donc de continuer à enregistrer des documents en .docx ou .xlsx pendant encore quelques années, mais l’essentiel n’est pas là pour la Document Foundation, qui voit dans cette décision de l’IT-Planungsrat une reconnaissance au plus haut niveau de la problématique des formats ouverts et par essence indépendants de tout fournisseur.
Rappelons que l’association, basée en Allemagne et qui milite depuis 2010 sur le sujet des formats libres et ouverts, décrie régulièrement Microsoft, qu’elle accuse d’entretenir une impression fallacieuse d’ouverture en ayant réussi à faire d’Office Open XML (OOXML) une norme ISO, alors que c’est une version différente du format qui est implémentée dans ses logiciels.
« La décision de l’Allemagne de placer l’ODF au cœur de son système de gouvernance nationale confirme ce que nous affirmons depuis des années : les formats de documents ouverts et indépendants des fournisseurs ne sont pas une préoccupation marginale pour quelques spécialistes en technologies et défenseurs des logiciels libres. Ils constituent une infrastructure fondamentale pour des administrations publiques démocratiques, interopérables et souveraines », argue Florian Effenberger.
L’association profite de l’occasion pour appeler les autres pays d’Europe à réagir en maniant l’aiguillon de la souveraineté : « À ce stade, la question est claire pour tous les autres gouvernements européens : qu’attendez-vous ? Avec cette décision, la distinction entre ceux qui se soucient de la souveraineté numérique et ceux qui ne s’en soucient pas devient flagrante », écrit-elle dans un nouveau billet daté du 23 mars.
Elle a ensuite remis le couvert deux jours plus tard pour une occasion toute trouvée en ce 25 mars : le dernier mercredi du mois de mars est en effet traditionnellement et depuis 2008 la Journée du document libre au sein de la communauté open source :
« L’utilisation de LibreOffice dans l’administration publique, l’exigence d’ODF dans les politiques d’achat public et la possibilité pour les citoyens d’ouvrir un document gouvernemental sans avoir à acheter de licence logicielle propriétaire ne sont pas de petites victoires, mais la construction progressive d’un espace public numérique qui appartient à tous. »
La France ne s’est pas, à ce stade, dotée d’un cadre aussi normatif que celui envisagé par l’Allemagne, mais le recours à l’open source, aux suites bureautiques libres et aux formats ouverts fait progressivement son chemin chez certaines administrations et collectivités, comme à Lyon ou Échirolles par exemple, dont Next publiait récemment le retour d’expérience.
L’Organisation européenne pour la recherche nucléaire (CERN) avait annoncé il y a cinq ans deux expériences pour transporter de l’antimatière… dans une camionnette. Elle rappelait alors que son usine d’antimatière était « le seul endroit au monde où l’on produit des antiprotons de basse énergie ». C’est-à-dire des « équivalents » des protons dans l’antimatière.
Le CERN prévoyait que les expériences soient opérationnelles en 2023. Le calendrier s’est étiré, mais l’expérience BASE est finalement « parvenue à transporter un piège rempli d’antiprotons d’un bout à l’autre du site principal du CERN ». L’ensemble pèse 1 tonne et peut passer des portes standards de laboratoire.
Dans le détail, l’expérience comprend un nuage de 92 antiprotons dans un piège de Penning cryogénique portatif. Le dispositif est ensuite déconnecté de l’installation, chargé dans un camion, transporté et l’expérience a été poursuivie après le transport. C’est peut-être un détail pour vous, mais pour eux ça veut dire beaucoup.
Le CERN parle d’un véritable tour de force : « l’antimatière est très difficile à conserver, car elle s’annihile au contact de la matière ». C’est une première mondiale selon le CERN. L’objectif est de transporter des antiprotons vers d’autres laboratoires en Europe, notamment l’université Heinrich-Heine de Düsseldorf pour effectuer des mesures de très haute précision sur l’antimatière.
Ce n’est pas encore gagné car pour arriver à l’université Heinrich-Heine, cela prendrait au moins huit heures de route. Christian Smorra, chef du projet BASE-STEP, explique que « cela signifie que l’aimant supraconducteur du piège devra rester à une température inférieure à 8,2 kelvins pendant tout ce temps. Donc, en plus de l’hélium liquide, il nous faudrait un groupe électrogène pour alimenter un réfrigérateur cryogénique dans le camion. Nous étudions actuellement les possibilités ».
Une fois cette étape franchie, il reste le « défi le plus important » : transférer les antiprotons jusqu’à l’expérience sans qu’ils disparaissent. Mais le jeu en vaut la chandelle pour les scientifiques car ils pensent pouvoir ainsi mesurer l’antimatière avec « une précision au moins 100 fois supérieure », précise Stefan Ulmer, porte-parole de l’expérience BASE.
27 autorités de protection des données personnelles ont audité près de 900 sites web et applications mobiles utilisés par les enfants dans le monde entier. 62 % sont pourtant réservés aux plus de 13 ans, et 72 % des mesures de vérification de l’âge ont pu être contournées. Ceux qui les ont audités ne seraient pas à l’aise que des enfants utilisent 41 % des sites Web et applications examinés.
« La protection de la vie privée des enfants en ligne reste insuffisante », et « elle a peu progressé au cours des 10 dernières années », résume la CNIL au sujet d’une étude internationale portant sur 864 sites web et applications mobiles utilisés par des enfants.
Chaque année, le réseau d’organismes agissant pour la protection de la vie privée au sein de pays membres de l’OCDE, réunis au sein du Global Privacy Enforcement Network (GPEN), conduit un audit en ligne de nombreux sites web et d’applications mobiles.
Des représentants de 27 autorités de protection des données dans le monde, dont la CNIL, avaient cette année pour mission de mesurer les pratiques concernant la protection de la vie privée des enfants en ligne.
Cet audit, qualifié de « ratissage », repose sur l’examen de 464 sites Web et 400 applications mobiles utilisés par les enfants la semaine du 3 au 7 novembre 2025, mais sans que la liste précise n’en soit divulguée, non plus que les critères de sélection, le rapport ne fournissant qu’un camembert de leur répartition thématique.
La CNIL précise cela dit que « si certains services examinés sont conçus spécifiquement pour les enfants, d’autres, destinés au grand public, sont également largement utilisés par ces derniers ».
Les sites web réclament plus de données personnelles qu’avant le RGPD
Les vérifications ont principalement porté sur les pratiques des plateformes en matière de collecte de données personnelles des utilisateurs, de transparence, et de vérification de l’âge.
Elles ont été comparées à une opération similaire effectuée en 2015, afin de mesurer l’évolution de la situation, sachant que le Règlement général sur la protection des données (RGPD) est entré en vigueur en 2016, qu’il est applicable depuis 2018, mais également que seules 6 des 27 autorités participant à l’audit sont du ressort de l’Union européenne.
Y figurent en effet de nombreuses autorités des cinq pays anglo-saxons de l’alliance des « Five Eyes » (dont cinq autorités canadiennes, plus celles de Guernesey, Jersey, l’île de Man et Gibraltar), et deux chinoises (Hong Kong et Macao).
Or, si certaines « bonnes pratiques » ont été observées (comme le fait de conseiller aux enfants de ne pas révéler leur vrai nom, ou de désactiver la géolocalisation par défaut), « il ressort également de l’audit que certains risques ont augmentés », relève la CNIL :
« Par rapport à 2015, un plus grand nombre de services en ligne utilisés par les enfants exigent désormais la fourniture de données personnelles pour accéder à toutes les fonctionnalités de la plateforme. De plus, davantage de plateformes indiquent dans leurs politiques de confidentialité qu’elles peuvent partager des données personnelles avec des tiers. »
Les autorités ont également constaté une utilisation croissante de systèmes de vérification de l’âge pour restreindre l’accès des enfants aux services en ligne ou leur interaction avec ceux-ci. Elles n’en ont pas moins noté la facilité avec laquelle ces systèmes peuvent être contournés, au grand dam de la CNIL :
« Cette situation est particulièrement préoccupante s’agissant de sites web et d’applications proposant des contenus inappropriés ou des traitements de données à haut risque pour les enfants. »
72 % des mesures de vérification de l’âge ont pu être contournées
Les participants au « ratissage » ont examiné les sites web et applications mobiles au regard de cinq indicateurs, « qui reflétaient en grande partie ceux de 2015 » :
72 % des mesures de vérification de l’âge ont pu être contournées, « le plus souvent lorsque le mécanisme repose sur une simple déclaration »,
plus de la moitié (59 %) des sites web et applications mobiles nécessitaient la collecte d’une adresse de courrier électronique, 50 % les noms d’utilisateur et 46 % une géolocalisation,
71 % des sites web et applications mobiles ne contenaient pas d’informations adaptées aux enfants sur les mesures de protection ni dans leur politique de confidentialité (par exemple en langage simple, ou via des animations destinées aux enfants),
plus d’un tiers (36 %) des sites web et applications mobiles ne proposaient pas de moyen facilement accessible pour supprimer un compte,
seulement 35 % des sites web et applications mobiles « identifiés comme présentant des caractéristiques et des conceptions de traitement de données à haut risque pour les enfants (langage complexe pour les enfants, paramètres de confidentialité réglés sur « public » par défaut, incitation ou harcèlement pour partager des renseignements personnels, etc.) » contenaient des informations sur la vie privée « enjoignant à un enfant de demander la permission à ses parents de continuer à utiliser le site web ou l’application », et seulement 25 % (80 sur 317) disposaient de tableaux de bord parentaux.
62 % des sites et applications sont réservés aux plus de 13 ans
Il reste 68% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Pour la deuxième fois en trois semaines, le dépôt GitHub du scanner de vulnérabilité Trivy a été compromis. Une autre application, LiteLLM, en fait les frais et infecte à son tour d’autres projets qui se font dérober leurs identifiants et secrets. Un effet boule de neige qui montre bien les dangers de la supply chain. On vous raconte cette histoire assez folle et inquiétante.
Début mars, nous relations une affaire inquiétante : un bot avait exploité GitHub Actions pour vider un dépôt, celui de Trivy ; ironie du sort, c’est un scanner de vulnérabilité. Le bot avait également publié une extension VS Code malveillante. Trivy avait repris le contrôle et publié une version 0.69.2 jugée comme sûre. Trois semaines plus tard, on découvre que ce n’est pas terminé, loin de là.
Versions 0.69.4, 0.69.5 et 0.69.6 de Trivy compromises
Pour Stéphane Robert, ingénieur DevOps et architecte cloud chez 3DS Outscale, c’était une alerte de plus, à ajouter à toutes les précédentes : « Vos pipelines sont une surface d’attaque. Ils ont des permissions d’écriture sur vos repos, accèdent à des secrets, et s’exécutent à chaque push. Vous ne pourrez plus dire “je ne savais pas” ».
Il n’a pas fallu attendre longtemps pour que l’histoire lui donne de nouveau raison. Dans un billet de blog intitulé « 20 jours plus tard : Trivy est compromis, acte II », Boost Security Labs détaille une nouvelle attaque contre Trivy : « Le pirate a retrouvé l’accès à Aqua Security (via un vecteur encore sous enquête) […] Le 19 mars 2026, des versions empoisonnées de Trivy (v0.69.4) ont été diffusées ».
Stéphane Robert ajoute que « les versions 0.69.5 et 0.69.6, poussées le 22 mars sans publications GitHub associées, contiennent elles aussi des indicateurs de compromission ». Elles étaient disponibles sur Docker Hub.
Oups : « des attaquants ont pu avoir accès aux jetons mis à jour »
Sur GitHub, Aqua Security (éditeur de Trivy) confirme : « Le 19 mars, nous avons observé qu’un acteur malveillant avait utilisé des identifiants compromis pour publier des versions malveillantes de trivy (v0.69.4), trivy-action et setup-trivy. Il s’agissait d’une suite à l’incident récent du 1er mars qui avait entraîné l’exfiltration d’identifiants. Le confinement du premier incident était incomplet. Nous avons renouvelé les secrets et les jetons, mais le processus n’était pas atomique et des attaquants ont pu avoir accès aux jetons mis à jour ».
Un GitHub Advisory (GHSA) dédié a été mis en ligne, qui précise à ce sujet que « toutes les accréditations n’ont pas été révoquées simultanément », la fenêtre rotation durait quelques jours, ce qui a suffi à l’attaquant pour exfiltrer les nouveaux secrets.
Face à cette situation, Trivy serre encore la vis : « Nous adoptons désormais une approche plus restrictive et bloquons toutes les actions automatisées et tous les jetons afin d’éliminer complètement le problème […] Toutes les dernières versions pointent désormais vers une version sûre ». En espérant que cette fois ce soit la bonne.
Les versions considérées par Aqua Security comme fiables sont les 0.69.3 pour Trivy, 0.2.6 pour aquasecurity/setup-trivy (GitHub Actions) et 0.35.0 aquasecurity/trivy-action (GitHub Actions). Les versions malveillantes sont restées entre 3 et 12 heures en ligne, selon les développeurs.
Un peu de typosquatting pour la route
L’attaque ciblait donc Trivy directement, mais il y avait également « deux commits imposteurs non rattachés à une branche. L’un visait actions/checkout, l’autre aquasecurity/trivy. Ces commits utilisaient des auteurs crédibles, des messages plausibles et des modifications volontairement discrètes pour se fondre dans le bruit d’un diff ordinaire », explique Stéphane Robert.
L’attaquant utilisait aussi un nom de domaine proche de celui de l’entreprise : scan.aquasecurtiy.org… avez-vous remarqué l’inversion entre le i et le t dans securtiy ? Le nom de domaine a été acheté le 17 mars, juste avant l’attaque. Boost Security explique que cette adresse était utilisée pour récupérer des fichiers malveillants qui venaient remplacer certains composants de Trivy.
Conclusion et leçon à retenir selon Stéphane Robert : « une fois qu’un attaquant tient un credential puissant, il peut revenir plus tard, se fondre dans les automatismes du projet, puis transformer l’écosystème de build et de distribution en vecteur d’attaque ». En conséquence, tout ce qui touche au CI/CD (CI pour intégration continue et CD pour déploiement continu) doit être « administré comme un système critique ».
Trivy entraîne LiteLLM dans sa chute
Il reste 65% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.
Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.
L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.
L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.
Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.
Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.
Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.
Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.
Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.
En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.
Diffusions non consenties de multiples contenus à caractère sexuel
Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »
Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.
Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».
Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.
Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.
Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.
Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».
Loi allemande vouée à évoluer
En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.
De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.
Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.
Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.
Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.
Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.
Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).
Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.
Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.
À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.
En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.
Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.
Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.
C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.
Le Centre national des œuvres universitaires et scolaires (Cnous) a signalé mardi 24 mars avoir été victime d’une exfiltration de données personnelles. Ces informations ont été obtenues par l’intermédiaire de sa plateforme de prise de rendez-vous avec les 27 établissements régionaux (les Crous) qui constituent son réseau.
L’organisme chiffre précisément la population concernée : en l’occurrence, 774 000 personnes différentes, dont les données « sont issues de rendez-vous pris sur les dix dernières années ».
« Parmi elles, 139 000 personnes ont fait l’objet d’une exfiltration de pièces jointes déposées dans l’application et 635 000 ont fait l’objet d’une exfiltration de données très limitée (nom, prénom, adresse mail, objet et date du rendez-vous) », précise le Cnous.
Il indique avoir pris connaissance de cette exfiltration la veille de son communiqué, soit le 23 mars, vraisemblablement suite à la revendication exprimée par l’attaquant supposé sur un forum spécialisé.
Illustration : Flock
Le Cnous affirme s’être acquitté de ses obligations réglementaires et avoir temporairement suspendu l’accès au site concerné (mesrdv.etudiant.gouv.fr), « le temps de procéder aux corrections nécessaires et de garantir une réouverture dans des conditions de sécurité renforcées ». Les services sociaux des Crous restent, dans l’intervalle, accessibles par téléphone (09 72 59 65 65). « Un dépôt de plainte est en cours. Chaque personne concernée sera informée de la situation par le Cnous », déclare encore l’organisme.
Cette attaque, dont le mode opératoire précis (ingénierie sociale, infostealer ou autre) n’a pas été précisé, participe à une vague de vols de données touchant le monde de l’éducation. Ces derniers jours, des incidents cyber de grande ampleur ont ainsi touché l’Éducation nationale et le secrétariat général à l’enseignement catholique.
Jensen Huang change son fusil d’épaule et promet comprendre les inquiétudes des joueurs, ajoutant que lui non plus n’aime pas l’IA slop. Il affirme que ce n’est pas ce que veut faire DLSS 5, rappelant une fois encore que la mise en oeuvre revient aux créateurs de jeu. Dans le même temps, Capcom, incriminé pour Resident Evil Requiem, publie un document pour expliquer sa position sur l’utilisation de l’IA générative.
Jensen Huang est intervenu cette semaine dans le podcast de Lex Fridman, un informaticien et chercheur en intelligence artificielle qui a passé des années au MIT. La vidéo dure près de 2h30 et de nombreux sujets ont été abordés avec le patron de NVIDIA. Une transcription est également disponible sur le site de Lex Fridman.
Huang aux joueurs : je vous comprends, je n’aime « pas non plus l’AI slop »
Parmi les sujets abordés, il y avait évidemment DLSS 5, la dernière version du Deep Learning Super Sampling de NVIDIA. Sa promesse, pour rappel, est de « transformer la fidélité visuelle dans les jeux » et de passer à un rendu photoréaliste. La grogne est rapidement montée chez les joueurs et les développeurs. Les déclarations de Jensen Huang suite à ces retours n’étaient pas vraiment du genre à apaiser les esprits : « Eh bien, tout d’abord, ils ont complètement tort ».
Le patron de NVIDIA commence par affirmer que « GeForce reste, encore aujourd’hui, notre stratégie marketing numéro un ». Une manière de rappeler que NVIDIA fait aussi des produits pour les joueurs (et pas seulement des puces pour l’IA), même si les nouveautés matérielles – la série des RTX 50 Super par exemple – se font attendre. À la place, NVIDIA mise sur le logiciel, avec DLSS 5 donc.
La question de l’IA slop dans DLSS 5 arrive rapidement : « Je pense que leur point de vue est logique et je comprends leur raisonnement, car je n’apprécie pas non plus l’AI slop », affirme Jensen Huang. Changement de discours complet par rapport à sa précédente intervention.
DLSS « en parfaite cohérence avec […] le style et l’intention de l’artiste »
Le patron de NVIDIA revient ensuite sur sa ligne concernant le rapport avec les développeurs, inchangée depuis le début de cette affaire : « ce n’est tout simplement pas ce que DLSS 5 essaie de faire […] DLSS 5 est conditionné par la 3D, guidé par la 3D ». Jensen Huang affirme respecter « scrupuleusement la géométrie » de l’image déterminée par les créateurs des jeux : « Chaque image est améliorée, mais rien ne change ».
Il ajoute que « DLSS 5 permet également, car le système est ouvert, d’entraîner vos propres modèles pour la détermination, et vous pourriez même, à l’avenir, l’utiliser avec un prompt ». Il serait ainsi possible de demander à DLSS 5 de transformer un rendu pour qu’il ressemble à tel ou tel exemple. Le réseau de neurones ferait alors en sorte de transformer les images « dans ce style, en parfaite cohérence avec le talent artistique, le style et l’intention de l’artiste ».
Les créateurs sont toujours replacés au centre du processus décrit par Jensen Huang, ce sont eux qui décident de l’utiliser (et la manière de le faire) ou non : « Tout cela est fait pour les créateurs, afin qu’ils puissent créer quelque chose de plus beau mais toujours dans le style qu’ils souhaitent. Je pense qu’ils ont eu l’impression que les jeux allaient sortir tels quels, comme ils le font d’habitude, puis qu’on allait les post-traiter. Ce n’est pas ce que le DLSS est censé faire ».
Capcom souffle le chaud et le froid sur l’utilisation de l’IA générative
Il y a quelques jours, Capcom revenait sur la question de l’IA générative, comme le rapporte PC Gamer (sur la base d’une traduction automatique d’une session de questions/réponses avec les investisseurs). Attention, si le document a été mis en ligne le 23 mars, la réunion date du 16 février, soit bien avant l’annonce de DLSS 5.
Cette mise en ligne, après l’annonce de NVIDIA et alors que la polémique enflait, avec une mise en avant spécifique de la question de l’IA générative, n’est certainement pas anodine. Depuis la présentation de DLSS 5 le 16 mars, les critiques pleuvent sur les rendus présentés par NVIDIA, notamment avec les personnages de Resident Evil Requiem qui « ressemblent au genre de conneries que les fans en colère font en ligne », lâchait Kotaku. Capcom en profite donc pour jouer les pompiers au passage.
« Nous n’intégrerons pas d’éléments générés par IA dans le contenu de nos jeux […] Cependant, nous avons l’intention d’utiliser activement cette technologie pour améliorer l’efficacité et accroître la productivité dans nos processus de développement des jeux. C’est pourquoi, nous regardons actuellement comment l’utiliser dans divers domaines, tels que les graphismes et l’audio », peut-on lire dans le résumé (en japonais, traduit automatiquement) des questions/réponses.
Quoi qu’il en soit, Capcom était un des partenaires du lancement de DLSS 5 avec une citation de Jun Takeuchi, producteur exécutif et directeur général de Capcom, dans le communiqué de presse : « DLSS 5 marque une nouvelle étape importante dans l’amélioration de la fidélité visuelle, permettant aux joueurs de s’immerger davantage dans l’univers Resident Evil ».
Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.
Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.
Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.
Explosion des contenus illégaux réalistes générés par IA
En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport« Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».
Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».
En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».
Nouvelle victimisation pour les enfants représentés
Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.
Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).
Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.
Des technologies qui « abaissent le seuil » de création de CSAM
L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».
Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.
Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs.
Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».
Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».