La décision était attendue, le Parlement avait prévenu la semaine dernière. C’est désormais officiel (et sans surprise), les députés ont adopté ce jeudi – à une large majorité avec 569 voix pour, 45 contre et 23 abstentions – une « position sur une proposition de simplification (omnibus) modifiant la législation sur l’intelligence artificielle (AIA) ».
Pour les systèmes d’IA à haut risque, les députés proposent, comme prévu, la date du 2 décembre 2027, au lieu du 2 août 2026, soit près d’un an et demi de retard. Également validée, la proposition de repousser au 2 août 2028 « les systèmes d’IA couverts par la législation sectorielle européenne sur la sécurité et la surveillance du marché ».
Autre délai repoussé, celui sur les « règles relatives au marquage numérique des contenus audio, image, vidéo ou des textes créés par l’IA afin d’indiquer leur origine ». Désormais, les députés visent le 2 novembre 2026 alors que cela devait entrer en vigueur cet été. Cela concernera donc les actualités générées par IA, comme le signale déjà notre extension, qui a dans sa base de données près de 12 000 sites.
Au passage, les députés veulent introduire l’interdiction des systèmes de « nudification », c’est-à-dire les applications qui utilisent l’IA pour « créer ou manipuler des images sexuellement explicites ou intimes et qui ressemblent à une personne réelle identifiable, sans le consentement de cette personne ».
Le Parlement précise que cette « interdiction ne s’appliquera pas aux systèmes d’IA dotés de mesures de sécurité efficaces empêchant les utilisateurs de créer de telles images ». Cette semaine, l’Internet Watch Foundation a d’ailleurs sonné l’alerte face à la multiplication d’images et de vidéos pédocriminelles crédibles générées par IA.
Les députés sont également favorables « à ce que les fournisseurs de services puissent traiter des données à caractère personnel afin de détecter et de corriger les biais dans les systèmes d’IA, mais ils ont introduit des garanties pour s’assurer que cela ne se fasse qu’en cas de stricte nécessité ».
Après ce vote, les négociations avec le Conseil sur la version définitive de la loi peuvent désormais commencer, avec ensuite un trilogue avant le vote définitif. La proposition de simplification adoptée ce jour fait partie du septième paquet omnibus sur la simplification proposé par la Commission européenne depuis novembre 2025.
Ce jeudi, la Commission européenne a publié deux communiqués autour de la protection de l’enfance et des mineurs. Snapchat est sous le coup d’une enquête formelle, tandis que les conclusions préliminaires sont tombées pour PornHub, Stripchat, XNXX et XVideos, qui « enfreignent la loi sur les services numériques ».
Le premier communiqué concerne Snapchat, avec l’ouverture d’une procédure formelle pour déterminer si le réseau social « garantit un niveau élevé de sûreté, de confidentialité et de sécurité pour les enfants en ligne, conformément à la législation sur les services numériques (DSA) ».
De nombreux griefs contre Snapchat, une enquête ouverte
Les griefs de la Commission sont nombreux car elle estime que la plateforme a peut-être enfreint les règles en « exposant des mineurs à des tentatives de manipulation et à des recrutements à des fins criminelles, ainsi qu’à des informations sur la vente de biens illégaux, comme des drogues ou des produits à restriction d’âge, tels que les cigarettes électroniques et l’alcool ».
Plusieurs points seront analysés, à commencer par la vérification d’âge (13 ans minimum) à l’entrée de la plateforme. La Commission européenne soupçonne en effet que « l’autodéclaration en tant que mesure d’assurance de l’âge est insuffisante ». Des inquiétudes également de l’Europe concernant « les paramètres du compte par défaut de Snapchat ne fournissent pas suffisamment de confidentialité, de sureté et de sécurité pour les mineurs ».
La modération est aussi pointée du doigt, avec un manque d’efficacité « pour empêcher la diffusion d’informations orientant les utilisateurs vers la vente de produits illégaux […] De plus, elle ne semble pas empêcher efficacement les utilisateurs, y compris les enfants et les adolescents, d’accéder à ce type de contenu ».
Les mécanismes de signalement sont également scrutés de près car, selon la Commission, ils « ne sont ni faciles d’accès ni faciles à utiliser, et pourraient utiliser ce qu’on appelle des dark patterns dans leur conception ».
La Commission lance donc son enquête approfondie afin de collecter des preuves, et demander des comptes à Snapchat si besoin.
« PornHub, Stripchat, XNXX et XVideo enfreignent la législation »
Une autre enquête, toujours axée sur la protection des mineurs, se termine dans le même temps. Elle concerne quatre sites pornos : « La Commission conclut à titre préliminaire que PornHub, Stripchat, XNXX et XVideos enfreignent la législation sur les services numériques pour avoir permis aux mineurs d’accéder à leurs services ».
Selon la Commission, les plateformes « n’ont pas identifié et évalué avec diligence les risques que leurs plateformes présentent pour les mineurs qui accèdent à leurs services ». De plus, même lorsque des risques étaient identifiés, elles « n’ont pas procédé à une évaluation approfondie ».
La réputation avant les risques sociétaux pour les mineurs
Toujours selon l’Europe, les plateformes avec du contenu pornographique ont mis « l’accent de manière disproportionnée sur leurs préoccupations, notamment les dommages liés à la réputation, plutôt que de se concentrer sur les risques sociétaux pour les mineurs, comme l’exige le DSA ».
La Commission ajoute que « Pornhub, Stripchat, XNXX et XVideos n’avaient pas mis en œuvre de mesures efficaces pour empêcher les mineurs d’accéder à leurs services ». Les conditions d’utilisation précisent qu’il faut être majeur, mais « un simple clic confirmant qu’ils ont plus de 18 ans » suffit aux mineurs pour passer. Même problème que pour Snapchat donc.
Pornhub, Stripchat, XNXX et XVideos « doivent mettre en œuvre des mesures »
La Commission estime donc « que Pornhub, Stripchat, XNXX et XVideos doivent mettre en œuvre des mesures de vérification de l’âge respectueuses de la vie privée afin de protéger les enfants contre les contenus préjudiciables ». Ce sont des conclusions préliminaires, qui « ne préjugent pas du résultat final de l’enquête ».
Les quatre plateformes ont désormais la possibilité d’examiner les documents des dossiers d’enquête et de répondre. Elles peuvent aussi, de manière volontaire, prendre des mesures pour corriger le tir. Si les conclusions de la Commission sont validées, des sanctions pourront être prises.
En France, depuis cet été, l’Arcom a intensifié sa lutte et mis en demeure 17 sites pornos de mettre en place des mesures de vérification de l’âge. Dans la foulée, nous avions testé plusieurs méthodes pour prouver son âge à l’entrée des plateformes.
Problème, quelques clics suffisaient parfois pour passer outre, tandis que d’autres validaient parfois n’importe quoi.
Nous sommes par exemple passés avec une fausse carte d’identité de Gabriel Attal récupérée sur Internet, une carte au nom de Dora l’Exploratrice, une vidéo du visage d’une personne sur une banque d’image (avec le watermark)… Pire encore, nous avons refait un tour début février et la situation est toujours catastrophique.
Tout juste un an après le lancement des Ryzen 9 9900X3D et 9950X3D, AMD remet le couvert avec le Ryzen 9 9950X3D2 Dual Edition avec un « 2 Dual Edition » en plus à la fin de sa référence. La différence ? La technologie AMD 3D V-Cache est présente sur les deux chiplets du processeur.
Le CPU dispose donc toujours de 16 cœurs et 32 threads Zen 5 répartis sur deux chiplets de 8C/16T chacun. Le Ryzen 9 9900X3D a 128 Mo de mémoire cache L3 (série X3D oblige), pour un total de 144 Mo de cache avec les 16 Mo de cache L2 (1 Mo par cœur).
Le Dual Edition double presque la mise avec 208 Mo de cache au total, soit 192 Mo de cache L3 (toujours 16 Mo de cache L2). Avec une simple division, on en déduit que chaque chiplet dispose de 96 Mo de cache L3. Dans tous les cas, le cache L1 est de 1 280 Ko.
La fréquence de base est de 4,3 GHz avec jusqu’à 5,6 GHz en mode boost, soit 100 MHz de moins que le Ryzen 9 9950X3D (5,7 GHz). Autre changement, le TDP du CPU Dual Edition passe à 200 watts, soit une hausse de 30 watts.
Selon AMD, cela permet « des gains de performances de 5 à 10 % par rapport au Ryzen 9 9950X3D ». La disponibilité est prévue pour le 22 avril, mais il y a fort à parier qu’il coûte plus de « 5 à 10 % » que son grand frère. Dans tous les cas, ce sera « le premier processeur de bureau intégrant la technologie AMD 3D V-Cache sur deux chiplets ».
Le processeur utilise un socket AM5 (compatible avec les chipsets 620, X670E, X670, B650E, B650, X870E, X870, B840 et B850). ASRock avait vendu la mèche il y a quelques jours en publiant (et retirant rapidement) une fiche précisant que ses cartes mères AM5 étaient compatibles, comme le rapporte VideoCardz.
WhatsApp annonce une salve de nouveautés pour son application mobile. Sur la gestion du stockage, la messagerie instantanée de Meta (Facebook, WhatsApp, Instagram…) explique que « vous pouvez désormais rechercher et supprimer les fichiers volumineux directement dans les discussions », via une nouvelle option Gérer le stockage dans les discussions.
C’était déjà possible sur Android, mais c’est désormais aussi le cas sur iOS : sur un seul téléphone, vous pouvez avoir deux comptes connectés en même temps.
WhatsApp ajoute que la « fonctionnalité de transfert de discussions permet désormais de déplacer votre historique de discussion depuis iOS vers Android, en plus du transfert sur une même plateforme ». C’était déjà possible auparavant, mais tout est à présent centralisé dans l’application et WhatsApp promet que, maintenant, « vos conversations, photos et vidéos sont facilement accessibles en quelques appuis seulement ».
Une annonce de nouveautés sur un produit Meta sans parler d’IA ? Bien sûr que non : « Vous pouvez désormais utiliser Meta AI pour retoucher des photos directement dans vos discussions avant de les envoyer ».
Autre nouveauté, « l’aide à la rédaction peut désormais suggérer une réponse en fonction de votre conversation afin que vous puissiez trouver le message idéal, tout en gardant vos discussions complètement privées ».
Comme toujours avec la messagerie, « ces fonctionnalités sont en cours de déploiement et seront bientôt disponibles pour tous ».
Plus d’un an après son investiture et après avoir maintes fois attaqué les agences scientifiques de son pays, Donald Trump a nommé les membres de son Comité présidentiel des conseillers en science et technologie (President’s Council of Advisors on Science and Technology PCAST).
Ce comité est présidé, comme annoncé en janvier 2025, par Michael Kratsios (conseiller de Donald Trump depuis son premier mandat) et l’investisseur David Sacks (PayPal, Facebook, Uber, SpaceX, Palantir…).
John Martinis (responsable du Google Quantum AI Lab et prix Nobel de physique 2025)
Bob Mumgaard (CEO de Commonwealth Fusion Systems)
Lisa Su (CEO d’AMD)
Mark Zuckerberg (CEO de Meta)
Si une bonne partie de ces personnalités ont fait des études longues, et parfois dans des universités prestigieuses, ArsTechnica pointe le fait qu’aucun n’est actuellement chercheur.
De fait, ce comité a été créé en 2001 sous George W. Bush et n’a pas une importance primordiale dans la gestion de la politique de la recherche aux États-Unis. Mais cette longue liste de responsables de la tech états-unienne marque en creux le manque de chercheuses et chercheurs sur tous les autres sujets que peuvent couvrir les différentes disciplines scientifiques.
Disponible depuis l’automne dernier sous forme de bêta destinée aux internautes des États-Unis et de Corée du Sud, la version Windows du navigateur de Samsung, basée sur Chromium, est désormais accessible à tous les internautes via le site dédié. Le fabricant y invite à découvrir un « navigateur Web simple et rapide qui donne la priorité à votre confidentialité et à votre sécurité ».
Le site officiel n’est pour l’instant décliné qu’en anglais et en coréen, mais le logiciel est bien traduit en français. Après récupération de l’exécutable d’installation et téléchargement en arrière-plan, on découvre un processus d’installation classique, avec validation des conditions d’utilisation, proposition d’import des favoris depuis un autre navigateur, proposition d’activer un bloqueur de publicités, et bien sûr connexion à un compte Samsung existant.
C’est en effet dans la capacité à établir un pont entre un smartphone ou une tablette Samsung Galaxy et le PC sous Windows, notamment pour synchroniser les données de navigation ou les mots de passe, que réside l’essentiel de la promesse. On peut ainsi demander à afficher, sur son PC, une page précédemment ouverte sur son smartphone.
Le Samsung Browser dispose d’une vue partagée, comme Chrome – capture d’écran Next
À cette continuité entre PC et mobile, le Samsung Browser ajoute, ô surprise, une proposition de valeur axée sur l’IA, avec la présence d’un « assistant Web » capable de proposer un résumé de la page affichée ou d’opérer une traduction à la volée, mais aussi d’opérer des tâches plus complexes, dans une logique agentique. Pour ce faire, Samsung revendique un partenariat avec Perplexity, dont les modalités financières n’ont pas été dévoilées.
« Le navigateur Samsung est conçu pour comprendre le langage naturel et le contexte de la page consultée, ainsi que l’activité entre les onglets, facilitant ainsi l’exploration du contenu et la prise de décision. Cette nouvelle intelligence permet non seulement de répondre aux questions sur la page web, mais aussi de gérer les onglets, de consulter l’historique de navigation et de rester productif sans quitter le navigateur », promet à ce sujet le fabricant sud-coréen.
Si les résumés et la traduction sont accessibles à tous (sous réserve de création d’un compte Samsung), les fonctions liées au partenariat avec Perplexity sont pour l’instant cantonnées aux États-Unis et à la Corée du Sud. On pourra consulter la déclaration de confidentialité associée au logiciel via ce lien.
Le procès opposant Kaley G. M. et sa mère à Google et Meta se termine sur une condamnation des deux entreprises à quelques millions d’euros chacune. Le montant est moins élevé que d’autres affaires médiatiques concernant les GAFAM, mais cette décision pourrait faire jurisprudence dans de nombreux cas similaires, si elle est confirmée en appel.
Meta et YouTube ont mis en place des fonctionnalités conçues pour créer une dépendance à leurs réseaux sociaux et plateformes de vidéos, et celles-ci ont entraîné des troubles de santé mentale sur une jeune utilisatrice, a conclu le jury de la Cour supérieure de justice de Los Angeles.
Le procès opposait depuis un mois et demi Kaley G. M, une plaignante âgée actuellement de 20 ans accompagnée par sa mère, à Google et Meta.
Le jugement inclut des dommages-intérêts de 4,2 millions de dollars à verser par Meta et 1,8 million par YouTube. Kaley G. M les accusait d’avoir provoqué et entretenu son addiction à leur service alors qu’elle était mineure. Elle avait pu créer son compte Instagram à l’âge de 9 ans alors que l’application ne demandait pas encore la date de naissance de l’utilisateur à l’inscription.
« Je pense généralement qu’il existe un groupe de personnes, potentiellement assez important, qui mentent sur leur âge afin d’utiliser nos services », avait affirmé Mark Zuckerberg alors qu’il était pressé de justifier la politique de Meta relative aux préados au cours du procès.
L’avocat de Kaley G. M, Mark Lanier a montré que Meta a enterré une recherche menée en interne sur les conséquences de ses produits sur les adolescents qui ne lui convenait pas.
Le New York Times explique que, lors du procès, l’avocat a insisté sur les fonctionnalités de défilement infini, d’algorithmes de recommandation et de vidéos en autoplay, qui seraient conçues pour capter notamment les jeunes utilisateurs, et qu’ils utilisent Instagram, YouTube et autres plateformes de manière compulsive.
La jeune femme avait expliqué qu’elle était tous les jours sur les réseaux sociaux. « Je ne peux tout simplement pas m’en passer », répondait-elle à la question « Pourquoi n’arrêtez-vous pas ? ».
Son avocat avait insisté sur la politique interne de Meta pour attirer les ados, citant un document interne à l’entreprise datant de 2018 affirmant que « si nous voulons vraiment gagner auprès des adolescents, nous devons les attirer dès leur préadolescence ».
Si Meta et Google sont les deux seules entreprises à être condamnées, Snap et TikTok étaient aussi initialement visées. Mais celles-ci ont préféré négocier un accord confidentiel leur évitant que soient déballées au grand public des informations internes sur leur politique vis-à-vis des jeunes utilisateurs.
Le verdict de ce procès arrive juste après que l’entreprise de Mark Zuckerberg a été condamnée à 375 millions de dollars d’amende pour le déploiement d’outils dangereux pour la santé mentale des mineurs.
Si la somme versée ici à Kaley G. M est très inférieure à cette amende, cette décision pourrait faire tache d’huile. En effet, près de 2 500 autres procès attendent les quatre entreprises de réseaux sociaux aux États-Unis, selon le média spécialisé Courthouse News. Et le verdict pourrait faire jurisprudence si la décision est confirmée en appel.
Car les deux entreprises ont déjà planifié de faire appel, selon Reuters. « Cette affaire repose sur une mauvaise compréhension de YouTube, qui est une plateforme de streaming conçue de manière responsable, et non un réseau social », assure au New York Times le porte-parole de Google.
Les deux entreprises avaient mis en avant le fait que les poursuites étaient irrecevables selon l’article 230 du Communications Decency Act, qui protège les plateformes de la responsabilité des contenus publiés par leurs utilisateurs. Mais, comme l’explique Reuters, les juges avaient rejeté cet argument et avaient permis la poursuite de l’instruction. Il sera cependant sans doute réutilisé par les avocats de Google et Meta en appel.
À Courthouse News, l’une des jurées a affirmé : « Nous voulions que [Meta et Google] comprennent que cela n’était pas acceptable ». Mais, selon elle, le jury craignait de « remettre la totalité de la somme à une seule personne », avant d’ajouter : « Nous avons pensé que si cette somme pouvait être versée petit à petit, pour être dépensée à bon escient et durer longtemps, nous aurions probablement fixé un montant plus élevé. »
Comme prévu, les binaires et fichiers d’installation de Firefox 149 ont bien fait leur apparition mardi 24 mars sur les FTP de la fondation Mozilla, mais il a fallu attendre le lendemain pour l’annonce formelle et la publication des notes de version associées.
C’est désormais chose faite, et les internautes de quatre pays (France, Allemagne, Royaume-Uni et États-Unis) sont censés pouvoir accéder à la principale nouveauté annoncée mi-mars par Mozilla : l’introduction d’une fonctionnalité de VPN native au sein du navigateur, accessible gratuitement dans la limite de 50 Go de trafic par mois, à des fins de protection de la vie privée.
Firefox 149 intègre un VPN gratuit associé à 50 Go de trafic – capture d’écran Next
La fonction, comme souvent, fait l’objet d’un déploiement progressif chez les utilisateurs finaux, ce qui signifie qu’elle n’apparait pas forcément chez tous les utilisateurs, même avec la version 149 installée. Il est cependant possible de forcer son activation via la page about:config en passant le paramètre browser.ipProtection.enabled à true.
Notez qu’il est nécessaire d’être connecté à un compte Mozilla. Une icône VPN fait alors son apparition à droite de la barre d’adresse du navigateur. Elle permet d’activer la fonction et d’accéder aux paramètres de cette dernière.
Mozilla a fait le choix à ce niveau de proposer une mise en application globale par défaut, avec une désactivation au cas par cas : les paramètres permettent de spécifier quels sont les sites sur lesquels on ne souhaite pas passer par le tunnel. L’inverse aurait pu sembler pertinent, pour limiter l’emploi des 50 Go offerts aux quelques sites dont l’internaute estime qu’ils méritent le recours à un VPN.
Testé rapidement jeudi matin, le VPN donne des résultats disparates, avec une vitesse de chargement anémique lors de certains essais, et un surf tout à fait honnête sur d’autres courtes sessions. L’adresse de sortie est clairement identifiée comme un VPN associé à Firefox, localisé à Paris. Notons que Mozilla ne propose aucune possibilité de choix géographique sur cette version gratuite, alors que l’option existe au sein de son offre de VPN payante, à partir de 59,88 euros par an.
Activation du VPN et réglages associés – capture d’écran Next
Quid de la vie privée ? Mozilla aborde la question dans la FAQ dédiée :
« Mozilla collecte les données techniques nécessaires pour fournir, maintenir et assurer la performance et la stabilité du service, mais aussi des données d’interaction pour comprendre comment est utilisé la fonctionnalité et aider à orienter les améliorations. Par exemple, nous pouvons enregistrer si une connexion réussit ou échoue. Nous pouvons aussi noter que 2 Go de données ont été consommés un même jour. Important ! Le VPN n’enregistre jamais quels sites web vous consultez ni le contenu de vos communications ».
L’Agence spatiale européenne (ESA) revient sur la mise en ligne de deux images avec les vues les plus détaillées de Saturne. L’agence spatiale américaine fait de même. Publication coordonnée logique puisque les télescopes James Webb et Hubble « se sont associés pour capturer de nouvelles vues de Saturne ».
« Les observations dans l’infrarouge et la lumière visible révèlent des couches et des tempêtes dans l’atmosphère de la planète aux anneaux ». Une image vient de Hubble et « révèle de subtiles variations de couleur sur la planète », elle a été capturée en août 2024. La seconde de Webb quelques mois plus tard, avec une vue infrarouge qui « détecte des nuages et des produits chimiques à de nombreuses profondeurs dans l’atmosphère ».
À gauche, l’image de James Webb du 29 novembre 2024, à droite celle de Hubble du 22 aout 2024. La NASA propose aussi une vue plus large de Saturne, avec ses six plus grandes lunes, dont la plus imposante, Titan, est tout à gauche :
C’est un travail d’équipe, expliquent les agences spatiales. Les scientifiques peuvent en effet découper l’atmosphère de Saturne à plusieurs altitudes, comme on épluche un oignon : « Chaque télescope raconte une partie différente de l’histoire de Saturne, et ces observations aident les chercheurs à comprendre comment fonctionne l’atmosphère de Saturne ».
Le temps des saisons sur Saturne est bien différent de celui sur Terre, car chaque saison dure environ 7 ans et la planète met plus de 29 ans à faire sa révolution. « Ces images montrent la planète passant de l’été boréal à l’équinoxe de 2025 ». C’est une période particulière durant laquelle ses anneaux « disparaissent ».
« La Terre passe dans le plan équatorial de Saturne autour du moment de l’équinoxe de Saturne. À ce moment, depuis la Terre, les anneaux ne se voient que par la tranche, c’est-à-dire selon un trait si mince qu’il donne l’illusion de leur disparition », explique l’Observatoire de Paris. Ils ne dépassent alors pas les 40 mètres d’épaisseur.
Ce phénomène s’est produit le 23 mars, mais l’Observatoire avait prévenu que, « malheureusement, lors de cette configuration 2025, il ne sera pas observable […] Saturne sera à cette période noyée dans la lumière du Soleil en journée et non visible la nuit. Elle ne sera donc pas observable ».
Rendez-vous le 1ᵉʳ avril… 2039 pour la prochaine disparition des anneaux. « Saturne sera à l’opposition et le phénomène sera alors facile à observer ».
Pile à temps pour la Journée de Libération des Documents
L’Allemagne vient d’imposer le recours à Open Document Format (ODF) comme standard pour l’enregistrement des documents bureautiques au sein de la pile des logiciels et services numériques de son administration. La Document Foundation, qui soutient ce standard ouvert, salue la décision et lance un appel aux autres pays européens.
La nouvelle aurait pu passer inaperçue, perdue qu’elle était au milieu d’un document de spécifications techniques. Elle n’a cependant pas mis longtemps à revenir aux oreilles, ou plutôt aux yeux, des membres de la Document Foundation, qui s’en sont fait l’écho le 19 mars dernier : l’Allemagne demande désormais de façon tout à fait formelle à ses services publics de recourir à deux formats pour l’enregistrement de leurs documents : le PDF et Open Document Format (ODF). « Il ne s’agit pas d’une recommandation ou d’une préférence, il s’agit d’une obligation », jubile Florian Effenberger, directeur exécutif de la Document Foundation.
L’Allemagne précise la doctrine de sa Deutschland Stack
Cette allusion explicite à ODF intervient dans le cadre de la définition, par l’Allemagne, de sa nouvelle politique en matière de souveraineté, baptisée Deutschland Stack, et censée conduire à la création d’un socle technologique commun (la « stack ») pour l’ensemble des systèmes d’information utilisés par ou destinés aux services publics.
Les grandes lignes de ce socle ont été adoptées et présentées le 18 mars dernier par l’IT-Planungsrat, l’organe allemand de coordination en charge de la numérisation de l’administration publique. Elles reposent sur quatre grands principes.
D’abord, une mise en place progressive sous contrôle fédéral, puis un socle technique commun obligatoire garantissant l’interopérabilité (intégrant les principaux services de base comme la gestion de l’identité ou les mécanismes d’échange et de conservation des données). Elles prévoient ensuite un recours admis et encouragé à l’intelligence artificielle avec une logique de standardisation.
Le cadre de la Deutschland Stack dispose enfin que les services publics doivent recourir à des solutions achetées prioritairement sur le marché européen, et opter pour des licences open source pour les développements réalisés via les agences fédérales ou régionales.
Ces quatre piliers sont accompagnés d’une série de principes architecturaux (acheter plutôt que faire, adopter systématiquement des logiques DevOps ou DevSecOps, raisonner exclusivement sous forme de services et d’API, etc.) et de quelques normes techniques, dont le caractère contraignant se justifie au regard des exigences d’interopérabilité évoquées précédemment. À ce niveau, l’IT-Planungsrat spécifie effectivement deux options pour les documents : PDF/UA (pour PDF/Universal Accessibility, ou accessibilité universelle des PDF) et ODF.
La feuille de route liste les formats qui font office de normes techniques pour la mise en oeuvre des technologies sémantiques au sein de l’administration allemande – source (PDF)
À ce stade, ces grands principes et les contraintes afférentes constituent un cadre normatif, dont les contours exacts pourront cependant évoluer jusqu’à l’horizon 2028, présenté comme le premier palier de mise en œuvre de cette nouvelle politique.
L’Allemagne montre la voie pour la Document Foundation
L’administration allemande risque donc de continuer à enregistrer des documents en .docx ou .xlsx pendant encore quelques années, mais l’essentiel n’est pas là pour la Document Foundation, qui voit dans cette décision de l’IT-Planungsrat une reconnaissance au plus haut niveau de la problématique des formats ouverts et par essence indépendants de tout fournisseur.
Rappelons que l’association, basée en Allemagne et qui milite depuis 2010 sur le sujet des formats libres et ouverts, décrie régulièrement Microsoft, qu’elle accuse d’entretenir une impression fallacieuse d’ouverture en ayant réussi à faire d’Office Open XML (OOXML) une norme ISO, alors que c’est une version différente du format qui est implémentée dans ses logiciels.
« La décision de l’Allemagne de placer l’ODF au cœur de son système de gouvernance nationale confirme ce que nous affirmons depuis des années : les formats de documents ouverts et indépendants des fournisseurs ne sont pas une préoccupation marginale pour quelques spécialistes en technologies et défenseurs des logiciels libres. Ils constituent une infrastructure fondamentale pour des administrations publiques démocratiques, interopérables et souveraines », argue Florian Effenberger.
L’association profite de l’occasion pour appeler les autres pays d’Europe à réagir en maniant l’aiguillon de la souveraineté : « À ce stade, la question est claire pour tous les autres gouvernements européens : qu’attendez-vous ? Avec cette décision, la distinction entre ceux qui se soucient de la souveraineté numérique et ceux qui ne s’en soucient pas devient flagrante », écrit-elle dans un nouveau billet daté du 23 mars.
Elle a ensuite remis le couvert deux jours plus tard pour une occasion toute trouvée en ce 25 mars : le dernier mercredi du mois de mars est en effet traditionnellement et depuis 2008 la Journée du document libre au sein de la communauté open source :
« L’utilisation de LibreOffice dans l’administration publique, l’exigence d’ODF dans les politiques d’achat public et la possibilité pour les citoyens d’ouvrir un document gouvernemental sans avoir à acheter de licence logicielle propriétaire ne sont pas de petites victoires, mais la construction progressive d’un espace public numérique qui appartient à tous. »
La France ne s’est pas, à ce stade, dotée d’un cadre aussi normatif que celui envisagé par l’Allemagne, mais le recours à l’open source, aux suites bureautiques libres et aux formats ouverts fait progressivement son chemin chez certaines administrations et collectivités, comme à Lyon ou Échirolles par exemple, dont Next publiait récemment le retour d’expérience.
L’Organisation européenne pour la recherche nucléaire (CERN) avait annoncé il y a cinq ans deux expériences pour transporter de l’antimatière… dans une camionnette. Elle rappelait alors que son usine d’antimatière était « le seul endroit au monde où l’on produit des antiprotons de basse énergie ». C’est-à-dire des « équivalents » des protons dans l’antimatière.
Le CERN prévoyait que les expériences soient opérationnelles en 2023. Le calendrier s’est étiré, mais l’expérience BASE est finalement « parvenue à transporter un piège rempli d’antiprotons d’un bout à l’autre du site principal du CERN ». L’ensemble pèse 1 tonne et peut passer des portes standards de laboratoire.
Dans le détail, l’expérience comprend un nuage de 92 antiprotons dans un piège de Penning cryogénique portatif. Le dispositif est ensuite déconnecté de l’installation, chargé dans un camion, transporté et l’expérience a été poursuivie après le transport. C’est peut-être un détail pour vous, mais pour eux ça veut dire beaucoup.
Le CERN parle d’un véritable tour de force : « l’antimatière est très difficile à conserver, car elle s’annihile au contact de la matière ». C’est une première mondiale selon le CERN. L’objectif est de transporter des antiprotons vers d’autres laboratoires en Europe, notamment l’université Heinrich-Heine de Düsseldorf pour effectuer des mesures de très haute précision sur l’antimatière.
Ce n’est pas encore gagné car pour arriver à l’université Heinrich-Heine, cela prendrait au moins huit heures de route. Christian Smorra, chef du projet BASE-STEP, explique que « cela signifie que l’aimant supraconducteur du piège devra rester à une température inférieure à 8,2 kelvins pendant tout ce temps. Donc, en plus de l’hélium liquide, il nous faudrait un groupe électrogène pour alimenter un réfrigérateur cryogénique dans le camion. Nous étudions actuellement les possibilités ».
Une fois cette étape franchie, il reste le « défi le plus important » : transférer les antiprotons jusqu’à l’expérience sans qu’ils disparaissent. Mais le jeu en vaut la chandelle pour les scientifiques car ils pensent pouvoir ainsi mesurer l’antimatière avec « une précision au moins 100 fois supérieure », précise Stefan Ulmer, porte-parole de l’expérience BASE.
Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.
Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.
L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.
L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.
Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.
Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.
Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.
Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.
Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.
En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.
Diffusions non consenties de multiples contenus à caractère sexuel
Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »
Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.
Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».
Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.
Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.
Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.
Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».
Loi allemande vouée à évoluer
En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.
De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.
Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.
Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.
Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.
Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.
Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).
Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.
Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.
À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.
En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.
Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.
Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.
C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.
Le Centre national des œuvres universitaires et scolaires (Cnous) a signalé mardi 24 mars avoir été victime d’une exfiltration de données personnelles. Ces informations ont été obtenues par l’intermédiaire de sa plateforme de prise de rendez-vous avec les 27 établissements régionaux (les Crous) qui constituent son réseau.
L’organisme chiffre précisément la population concernée : en l’occurrence, 774 000 personnes différentes, dont les données « sont issues de rendez-vous pris sur les dix dernières années ».
« Parmi elles, 139 000 personnes ont fait l’objet d’une exfiltration de pièces jointes déposées dans l’application et 635 000 ont fait l’objet d’une exfiltration de données très limitée (nom, prénom, adresse mail, objet et date du rendez-vous) », précise le Cnous.
Il indique avoir pris connaissance de cette exfiltration la veille de son communiqué, soit le 23 mars, vraisemblablement suite à la revendication exprimée par l’attaquant supposé sur un forum spécialisé.
Illustration : Flock
Le Cnous affirme s’être acquitté de ses obligations réglementaires et avoir temporairement suspendu l’accès au site concerné (mesrdv.etudiant.gouv.fr), « le temps de procéder aux corrections nécessaires et de garantir une réouverture dans des conditions de sécurité renforcées ». Les services sociaux des Crous restent, dans l’intervalle, accessibles par téléphone (09 72 59 65 65). « Un dépôt de plainte est en cours. Chaque personne concernée sera informée de la situation par le Cnous », déclare encore l’organisme.
Cette attaque, dont le mode opératoire précis (ingénierie sociale, infostealer ou autre) n’a pas été précisé, participe à une vague de vols de données touchant le monde de l’éducation. Ces derniers jours, des incidents cyber de grande ampleur ont ainsi touché l’Éducation nationale et le secrétariat général à l’enseignement catholique.
Jensen Huang change son fusil d’épaule et promet comprendre les inquiétudes des joueurs, ajoutant que lui non plus n’aime pas l’IA slop. Il affirme que ce n’est pas ce que veut faire DLSS 5, rappelant une fois encore que la mise en oeuvre revient aux créateurs de jeu. Dans le même temps, Capcom, incriminé pour Resident Evil Requiem, publie un document pour expliquer sa position sur l’utilisation de l’IA générative.
Jensen Huang est intervenu cette semaine dans le podcast de Lex Fridman, un informaticien et chercheur en intelligence artificielle qui a passé des années au MIT. La vidéo dure près de 2h30 et de nombreux sujets ont été abordés avec le patron de NVIDIA. Une transcription est également disponible sur le site de Lex Fridman.
Huang aux joueurs : je vous comprends, je n’aime « pas non plus l’AI slop »
Parmi les sujets abordés, il y avait évidemment DLSS 5, la dernière version du Deep Learning Super Sampling de NVIDIA. Sa promesse, pour rappel, est de « transformer la fidélité visuelle dans les jeux » et de passer à un rendu photoréaliste. La grogne est rapidement montée chez les joueurs et les développeurs. Les déclarations de Jensen Huang suite à ces retours n’étaient pas vraiment du genre à apaiser les esprits : « Eh bien, tout d’abord, ils ont complètement tort ».
Le patron de NVIDIA commence par affirmer que « GeForce reste, encore aujourd’hui, notre stratégie marketing numéro un ». Une manière de rappeler que NVIDIA fait aussi des produits pour les joueurs (et pas seulement des puces pour l’IA), même si les nouveautés matérielles – la série des RTX 50 Super par exemple – se font attendre. À la place, NVIDIA mise sur le logiciel, avec DLSS 5 donc.
La question de l’IA slop dans DLSS 5 arrive rapidement : « Je pense que leur point de vue est logique et je comprends leur raisonnement, car je n’apprécie pas non plus l’AI slop », affirme Jensen Huang. Changement de discours complet par rapport à sa précédente intervention.
DLSS « en parfaite cohérence avec […] le style et l’intention de l’artiste »
Le patron de NVIDIA revient ensuite sur sa ligne concernant le rapport avec les développeurs, inchangée depuis le début de cette affaire : « ce n’est tout simplement pas ce que DLSS 5 essaie de faire […] DLSS 5 est conditionné par la 3D, guidé par la 3D ». Jensen Huang affirme respecter « scrupuleusement la géométrie » de l’image déterminée par les créateurs des jeux : « Chaque image est améliorée, mais rien ne change ».
Il ajoute que « DLSS 5 permet également, car le système est ouvert, d’entraîner vos propres modèles pour la détermination, et vous pourriez même, à l’avenir, l’utiliser avec un prompt ». Il serait ainsi possible de demander à DLSS 5 de transformer un rendu pour qu’il ressemble à tel ou tel exemple. Le réseau de neurones ferait alors en sorte de transformer les images « dans ce style, en parfaite cohérence avec le talent artistique, le style et l’intention de l’artiste ».
Les créateurs sont toujours replacés au centre du processus décrit par Jensen Huang, ce sont eux qui décident de l’utiliser (et la manière de le faire) ou non : « Tout cela est fait pour les créateurs, afin qu’ils puissent créer quelque chose de plus beau mais toujours dans le style qu’ils souhaitent. Je pense qu’ils ont eu l’impression que les jeux allaient sortir tels quels, comme ils le font d’habitude, puis qu’on allait les post-traiter. Ce n’est pas ce que le DLSS est censé faire ».
Capcom souffle le chaud et le froid sur l’utilisation de l’IA générative
Il y a quelques jours, Capcom revenait sur la question de l’IA générative, comme le rapporte PC Gamer (sur la base d’une traduction automatique d’une session de questions/réponses avec les investisseurs). Attention, si le document a été mis en ligne le 23 mars, la réunion date du 16 février, soit bien avant l’annonce de DLSS 5.
Cette mise en ligne, après l’annonce de NVIDIA et alors que la polémique enflait, avec une mise en avant spécifique de la question de l’IA générative, n’est certainement pas anodine. Depuis la présentation de DLSS 5 le 16 mars, les critiques pleuvent sur les rendus présentés par NVIDIA, notamment avec les personnages de Resident Evil Requiem qui « ressemblent au genre de conneries que les fans en colère font en ligne », lâchait Kotaku. Capcom en profite donc pour jouer les pompiers au passage.
« Nous n’intégrerons pas d’éléments générés par IA dans le contenu de nos jeux […] Cependant, nous avons l’intention d’utiliser activement cette technologie pour améliorer l’efficacité et accroître la productivité dans nos processus de développement des jeux. C’est pourquoi, nous regardons actuellement comment l’utiliser dans divers domaines, tels que les graphismes et l’audio », peut-on lire dans le résumé (en japonais, traduit automatiquement) des questions/réponses.
Quoi qu’il en soit, Capcom était un des partenaires du lancement de DLSS 5 avec une citation de Jun Takeuchi, producteur exécutif et directeur général de Capcom, dans le communiqué de presse : « DLSS 5 marque une nouvelle étape importante dans l’amélioration de la fidélité visuelle, permettant aux joueurs de s’immerger davantage dans l’univers Resident Evil ».
Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.
Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.
Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.
Explosion des contenus illégaux réalistes générés par IA
En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport« Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».
Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».
En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».
Nouvelle victimisation pour les enfants représentés
Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.
Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).
Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.
Des technologies qui « abaissent le seuil » de création de CSAM
L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».
Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.
Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs.
Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».
Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».
OVHcloud fait une nouvelle incursion dans le domaine de l’IA générative avec l’annonce, mercredi 25 mars, d’un accord engageant portant sur l’acquisition de la startup française Dragon LLM.
Venue du monde de la traduction automatique, dans lequel elle a évolué depuis 2011 sous le nom Lingua Custodia, cette dernière se positionne comme un producteur de grands modèles de langage (LLM) spécialisés, pensés initialement pour le secteur financier.
« Grâce à cette acquisition, OVHcloud renforce ses équipes avec de nouveaux experts de fine-tuning. En internalisant les briques technologiques développées par Dragon LLM, OVHcloud proposera à ses clients de nouveaux services dans l’IA générative pour les données sensibles, déployables dans le Cloud et On-Premise », déclare le groupe roubaisien dans un communiqué (PDF).
OVHcloud annonce à cette occasion la création de son « lab AI », une division chargée de concevoir et commercialiser ces services associés à l’entraînement ou à la spécialisation des grands modèles de langages. Le groupe confirme ainsi son ambition de ne pas se limiter à l’hébergement d’infrastructures dédiées à l’IA générative, mais bien de remonter une partie de la chaîne de valeur.
Le montant de cette acquisition, qui doit donc encore être finalisée, n’a pas été communiqué.
Lingua Custodia a opéré son pivot vers Dragon LLM à partir de 2024 en postulant, avec succès, au Large AI Grand Challenge lancé par la Commission européenne. L’entreprise, basée en région parisienne, a dans ce cadre pu accéder à plusieurs millions d’heures d’utilisation des supercalculateurs Leonardo (Italie) et Jupiter (Allemagne), pour une valeur cumulée de l’ordre de 10 millions d’euros.
Dragon LLM a livré en novembre 2025 une première incarnation concrète de sa vision en matière de modèles spécialisés et verticaux, avec la publication, sur Hugging Face, de deux LLM Open Finance basés respectivement sur Llama 3.1 et Qwen 3, conçus en partenariat avec l’Agefi et soutenus financièrement par Bpifrance. Ces modèles open source à 8 milliards de paramètres se déclinent également en modèles distribués sous licences commerciales, comptant de 12 milliards à 70 milliards de paramètres, toujours spécialisés en finance et notamment en traduction de documents.
Dragon LLM revendique des performances supérieures à celles des modèles généralistes sur des missions spécifiques au monde de la finance – crédit Dragon LLM
En novembre dernier, Octave Klaba, redevenu CEO d’OVHcloud, avait développé lors du sommet annuel du groupe l’idée selon laquelle l’IA et les grands modèles de langage s’installeraient bientôt comme une forme de surcouche omniprésente au-dessus des applications métier.
Fondée en 2024 et financée à hauteur de 30 millions de dollars un an plus tard, cette équipe de 50 personnes développe un robot humanoïde baptisé Sprout, officiellement dévoilé le 27 janvier dernier. Tout en rondeurs, ce robot de 107 cm pour 22,7 kg est présenté par la startup comme une plateforme de développement dédiée à la création de robots pensés pour le service à la personne.
« Conçu pour les innovateurs dans les domaines de la robotique, de l’IA, de l’enseignement supérieur, du divertissement, du commerce et de l’hôtellerie, Sprout combine mobilité bipède, interaction expressive et manipulation dans un robot léger, robuste et élégant. Son corps à 29 degrés de liberté, son interface vocale naturelle et son design doux et ergonomique le rendent idéal pour déployer des robots dans les mêmes environnements que les personnes », explique ainsi l’entreprise dans la fiche de présentation (PDF) de l’appareil.
Rob Cochran, cofondateur de Fauna Robotics, et le robot Sprout – crédit Fauna Robotics
Amazon a confirmé que les équipes de Fauna et ses deux cofondateurs rejoindraient sa division robotique, sans préciser plus avant ses plans. « Grâce à l’expertise d’Amazon en matière de robotique et à ses décennies d’expérience dans l’acquisition de la confiance des clients à domicile grâce à nos activités de vente au détail et d’appareils, nous sommes impatients d’inventer de nouvelles façons d’améliorer et de simplifier la vie de nos clients », déclare un porte-parole cité par Bloomberg.
Les dernières acquisitions d’Amazon en matière de robots concernaient plutôt la logistique et le transport, activités situées au cœur de son modèle. Le géant du e-commerce a cependant déjà manifesté son intérêt pour la robotique « personnelle » : on se souvient par exemple d’Astro, son petit robot domestique lancé en 2021, qui s’est rapidement révélé un échec technique et commercial.
Surprise, OpenAI tire un trait sur Sora, l’application de vidéos générées par intelligence artificielle. L’entreprise donnera des détails dans un second temps. Cela entraine aussi la fin du partenariat avec Disney, même si les deux partenaires chercheraient d’autres moyens de travailler ensemble.
« Nous disons adieu à l’application Sora »
C’est via un message sur X qu’OpenAI annonce, par surprise, la fin de son application Sora : « Nous disons adieu à l’application Sora […] Nous vous en dirons plus prochainement, notamment sur le calendrier de fermeture de l’application et de l’API, ainsi que sur les modalités de sauvegarde de votre travail ». Aucun détail supplémentaire n’est donné.
OpenAI se recentre ainsi sur l’IA générative pour le codage et le « travail », au sens large du terme. Un changement de cap déjà initié avec GPT-5.4 qui est justement tourné vers les tâches « professionnelles » ou encore la place de plus en plus importante de l’application Codex. Sur ces deux terrains, OpenAI se tire la bourre avec Anthropic et son IA Claude.
Une autre source confie à Reuters qu’il « s’agissait d’un grand retournement de situation ». Retournement brutal et rapide puisque, pas plus tard que ce lundi, OpenAI publiait un billet de blog expliquant que son modèle et l’application Sora intégraient des « protections en béton ». Le lendemain, c’est l’annonce de sa mise au placard.
Selon le Wall Street Journal, le CEO de l’entreprise, Sam Altman, aurait annoncé aux employés que l’entreprise n’arrêterait pas que Sora, mais tous les produits utilisant ses modèles de génération de vidéos, y compris une version de Sora pour les développeurs et la prise en charge de vidéos dans ChatGPT.
Changement de cap
Sam Altman confirme aussi la réorientation stratégique de l’entreprise. « Les dirigeants d’OpenAI débattent depuis un certain temps du sort de Sora. Faire fonctionner l’application vidéo IA nécessitait d’importantes ressources de calcul et laissait les autres équipes avec moins de ressources », explique une source à Reuters.
À Axios, un porte-parole d’OpenAI explique que l’équipe de Sora continuera de « se concentrer sur la recherche en simulation du monde pour faire progresser la robotique et aider les gens à résoudre des problèmes du monde réel ».
OpenAI vise pour rappel une entrée en bourse cette année, mais l’entreprise brûlerait pour le moment du cash à vitesse grand V. Des investissements ont été annoncés le mois dernier, notamment 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA.
Pour rappel, Sora avait été annoncé en février 2024, puis était disponible en décembre 2024. Une v2 est arrivée en octobre 2025, avec dans le même temps une application de doomscrolling de vidéos générées par cette IA. Sora s’est malheureusement illustré avec des deepfakes et des contenus racistes, mais aussi pour avoir utilisé sans autorisation du contenu pour entrainer son IA.
Illustration : Flock
Disney « respecte » la décision d’OpenAI, mais a été « pris au dépourvu »
En décembre, un coup de tonnerre retentissait dans le monde de l’IA générative et des vidéos : un investissement d’un milliard de dollars de Disney dans OpenAI, avec un accord de licence sur trois ans lui permettant d’exploiter l’image de plus de 200 personnages Disney (Mickey, Marvel, Star Wars…).
Cet accord avait rapidement soulevé des « inquiétudes extrêmes » de la part de certains acteurs de cette industrie, surtout face à un Disney généralement très protecteur de son image.
Qu’en est-il du côté de Disney avec l’annonce de la fin de Sora ? « Nous respectons la décision d’OpenAI de quitter le secteur de la génération vidéo et de déplacer ses priorités ailleurs », explique un porte-parole de l’entreprise à plusieurs de nos confrères américains.
C’est la version polie, la réalité était plus brutale selon Reuters : « Lundi soir, Walt Disney et les équipes d’OpenAI travaillaient ensemble sur un projet lié à Sora […] À peine 30 minutes après cette réunion, l’équipe Disney a été prise au dépourvu par l’annonce qu’OpenAI allait abandonner complètement l’outil ».
Selon une source d’Hollywood Reporter, Disney quitterait l’accord signé avec OpenAI l’an dernier. Toujours selon Reuters, qui se base sur deux sources proches du dossier (comme le veut la formule consacrée), « la transaction entre les sociétés n’a jamais été terminée et aucune somme d’argent n’a été transférée ». Une autre source affirme que les deux protagonistes « discutent de la possibilité de nouer un autre partenariat ou d’investir ensemble ».
Disney va « continuer à collaborer avec les plateformes d’IA »
Disney ne jette pas l’éponge sur l’IA : « Nous apprécions la collaboration constructive entre nos équipes et ce que nous en avons appris, et nous continuerons à collaborer avec les plateformes d’IA pour trouver de nouvelles façons de rencontrer les fans là où ils se trouvent tout en adoptant de manière responsable les nouvelles technologies qui respectent la propriété intellectuelle et les droits des créateurs », précise le porte-parole de l’entreprise.
Nos confrères ajoutent que ce chamboulement « place Google dans une position de pouvoir en matière de génération vidéo par IA », avec Veo dont la version 3 (avec le son en plus de l’image) est disponible depuis près d’un an.
Epic Games a initié mardi 24 mars le licenciement de plus de 1 000 employés, et annoncé la décision en interne via un email reproduit sur son site. Cette coupe dans les effectifs s’accompagne d’un plan de réduction des coûts de 500 millions de dollars par an. Les deux mesures combinées doivent permettre à Epic de revenir à une position « plus stable », explique Tim Sweeney, CEO d’Epic.
Dans sa lettre aux employés, ce dernier invoque d’abord le contexte général de l’industrie du jeu vidéo, avec une croissance ralentie, des dépenses d’investissements en berne, des consoles de dernière génération dont les ventes plafonnent et une concurrence accrue entre le jeu vidéo et d’autres formes de divertissement.
À ces éléments de langage entendus dans la plupart des grands plans de licenciement enclenchés par l’industrie, notamment chez Riot Games ou Ubisoft, s’ajoutent des facteurs plus spécifiquement liés à Epic, au premier rang desquels la baisse de popularité de Fortnite. Tim Sweeney :
« Malgré le succès indéfectible de Fortnite, l’un des jeux les plus populaires au monde, nous avons rencontré des difficultés à maintenir la magie de Fortnite à chaque saison ; nous n’en sommes qu’aux prémices de notre retour sur mobile et de l’optimisation de Fortnite pour les milliards de smartphones à travers le monde ; et en tant que pionniers du secteur, nous avons essuyé de nombreuses critiques dans une bataille qui ne commence que récemment à porter ses fruits pour nous et pour tous les développeurs. »
Cette bataille, censée profiter à l’ensemble des développeurs, c’est bien sûr le combat engagé en justice par Epic contre Google et Apple afin de limiter le contrôle et les coûts associés à la distribution sur les kiosques d’applications mobiles. Un terrain sur lequel Epic peut effectivement se targuer de premières victoires significatives, ayant conduit Apple à transiger et Google à ouvrir plus largement les vannes du Play Store.
Logo Epic Games
Le CEO d’Epic appelle maintenant ses équipes à construire de nouvelles expériences Fortnite pour relancer la dynamique et évoque la migration engagée vers l’Unreal Engine 6 à la fois pour le jeu et pour l’outil de création associé, Unreal Editor pour Fortnite (UEFN). « C’est ce que nous souhaitons faire pour nos joueurs, et nous voulons emmener avec nous d’autres développeurs partageant les mêmes idées dans ce projet afin de construire ensemble un avenir du divertissement toujours plus ouvert et dynamique. »
En ces temps troublés par l’avènement des grands modèles de langage, Tim Sweeney prend soin de préciser que ce plan de licenciements n’est pas lié à l’IA :
« Puisque le sujet est désormais d’actualité, je tiens à préciser que les licenciements ne sont pas liés à l’IA. Dans la mesure où elle améliore la productivité, nous souhaitons disposer d’un maximum de développeurs talentueux pour créer du contenu et des technologies de pointe. »
Epic avait déjà licencié 900 personnes, soit environ 16 % de son effectif de l’époque, en septembre 2023. Sweeney tenait déjà un discours similaire quant aux facteurs conjoncturels et à la nécessité de réduire les coûts de fonctionnement. « Depuis un certain temps, nous dépensons beaucoup plus d’argent que nous n’en gagnons », écrivait-il alors.