Vue normale

Reçu aujourd’hui — 16 juillet 2025Next.ink

L’open data des décisions de justice sérieusement remis en question

16 juillet 2025 à 10:39
Fermez-moi tout ça !
L’open data des décisions de justice sérieusement remis en question

Un rapport remis au ministre de la Justice, Gérald Darmanin, émet six propositions de modification des conditions de publication des décisions de justice qui sont, depuis peu, diffusées en open data. Des informations comme les noms et prénoms des personnes physiques, mais aussi les noms d’entreprises mentionnées seraient occultées.

Ce vendredi 11 juillet, le conseiller honoraire à la Cour de cassation Daniel Ludet a remis au ministre de la Justice, Gérald Darmanin, son rapport sur l’open data des décisions de justice. Ce rapport, en ligne depuis le 15 juillet [PDF], remet fortement en question la diffusion de certaines informations qui permettent au public d’être informé et aux journalistes (entre autres) de faire leur travail.

Gérald Darmanin cadrait, dès sa lettre de mission, le travail du conseiller et de son équipe en leur demandant de « proposer des recommandations relatives notamment :

  • à l’occultation des informations relatives à l’identification des magistrats, personnels de greffe et plus largement tous professionnels de justice ;
  • au respect des secrets protégés par la loi dans les décisions, notamment liés à la protection d’intérêts économiques ;
  • au modèle de financement de l’open data au regard des ressources déployées. »

Rappelons que l’open data des décisions de justice est prévue depuis 2019 dans le code de l’organisation judiciaire. Ainsi, l’article 111 - 13 de ce code indique que, « sous réserve des dispositions particulières qui régissent l’accès aux décisions de justice et leur publicité, les décisions rendues par les juridictions judiciaires sont mises à la disposition du public à titre gratuit sous forme électronique ».

Un open data des décisions de justice qui se met tout juste en place

Le rapport explique que « la loi du 23 mars 2019 de programmation 2018 - 2022 et de réforme pour la justice a précisé et complété cet article en prévoyant notamment que les noms et prénoms des personnes physiques mentionnées dans la décision, lorsqu’elles sont parties ou tiers, sont occultés préalablement à la mise à disposition du public ».

La Cour de cassation a été la première institution judiciaire à appliquer l’open data de ses décisions. Elle a même développé un outil de pseudonymisation utilisant le machine learning pour que les décisions publiées soient lisibles de façon intelligible tout en ne publiant pas les informations personnelles protégées dans le cadre de cette loi.

Concernant le personnel judiciaire, le rapport ajoute que « le principe de la mention du nom des magistrats et des membres du greffe est retenu. Il est toutefois prévu que, « lorsque sa divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage, est également occulté tout élément permettant d’identifier les parties, les tiers, les magistrats et les membres du greffe » ». L’équipe rédactrice du rapport commente : « ainsi, un magistrat ou un membre du greffe ne peut obtenir l’occultation de son nom, notamment, que dans le cadre d’une démarche individuelle s’appuyant sur des éléments particuliers de sa situation ».

Protection des magistrats mais aussi secrets des entreprises

Mais, sans donner de contexte détaillé, elle estime qu’il existe un « climat de critiques très vives de la justice, de ses décisions et de ceux qui la servent » et évoque des « insultes et de menaces proférées le plus souvent par le canal de réseaux sociaux et visant nommément des magistrats et d’autres professionnels de justice ». Ceci expliquerait donc la volonté de modifier l’encadrement judiciaire concernant la mention des noms du personnel judiciaire.

Le rapport ne se borne pas à vouloir mieux protéger les magistrats et membres du greffe. Ainsi, il explique qu’ « avant même que les décisions des tribunaux de commerce ne rentrent dans l’open data, l’attention a été appelée par des acteurs de la justice commerciale relayés par le MEDEF et la CPME, sur les inconvénients importants, pour les entreprises, de voir des éléments « sensibles » de leur organisation et de leur fonctionnement ainsi que des secrets inhérents à leur activité ou légalement reconnus, largement accessibles, en particulier à travers les décisions rendues dans le domaine des « procédures collectives » concernant les entreprises en difficulté ».

Le rapport remet aussi en question « le principe de gratuité de la mise à disposition des décisions » en évoquant « une période de fortes contraintes pesant sur les finances publique » alors qu’ « en même temps », il fait le constat « d’activités lucratives, florissantes, d’entreprises concevant et vendant des produits dont l’élaboration tire profit de la révolution technologique permanente et dont la matière provient précisément de ces décisions de justice accessibles à tout public ».

Crescendo vers une restriction de plus en plus fort des informations publiées

L’équipe en charge du rapport fait quatre premières propositions de modification de l’article 111 - 13 au ministre de la Justice, allant crescendo vers une restriction de plus en plus fort des informations publiées. Elle préconise, dans sa première proposition, que l’article « devrait mentionner que les noms et prénoms des personnes physiques sont occultés préalablement à la mise à disposition du public » mais, dans sa deuxième proposition, elle suggère que ça soit aussi le cas pour « la dénomination sociale des sociétés mentionnées dans la décision ».

Elle ajoute même, dans sa troisième proposition que « les occultations préalables à la mise à disposition du public devraient comprendre également les adresses et les localités, les dates relatives à l’état des personnes et les chaînes de caractères directement identifiantes mentionnées dans la décision, ainsi que ses motifs lorsque la décision a été rendue en chambre du conseil ».

Sa quatrième proposition ajoute « l’occultation complémentaire de tout élément dont la divulgation est de nature à porter atteinte non seulement à la sécurité ou au respect de la vie privée de ces personnes, mais aussi au secret en matière industrielle ou commerciale lorsqu’il s’agit d’entreprises, ainsi qu’à d’autres secrets légalement protégés ».

Toutes ces informations sont pourtant importantes pour informer le public d’éventuelles condamnations d’entreprises et de connaître leur contexte.

Le rapport propose, sans le dire réellement, de tourner la page de l’open data de décisions de justice et de ne laisser accéder aux données importantes qu’aux personnes et entreprises qui s’engageraient devant la Cour de cassation à des conditions fixées par des conventions. La cinquième proposition du rapport ouvrirait l’accès de ces données à des « utilisateurs pour les besoins de leur activité professionnelle ou économique, dans le cadre de conventions, conclues avec la Cour de cassation, et qui précisent les obligations des intéressés quant aux garanties entourant la réutilisation des décisions, la diffusion de décisions à des tiers, et la préservation des secrets légalement protégés auxquels elles pourraient donner accès ».

Dans sa sixième « proposition », le rapport reconnait qu’il y a besoin que se « prolonge la réflexion, notamment, sur la nécessaire articulation du régime de délivrance des copies aux tiers avec celui de l’open data et sur l’applicabilité ou non du principe de gratuité à la mise à disposition d’utilisateurs de flux spéciaux de décisions de justice intègres ou plus intègres, d’où découlera la nécessité ou non d’une modification de la loi ».

Karen Hao : « Les empires de l’IA étouffent l’innovation »


16 juillet 2025 à 08:35
C'est l'heure de l'alliance rebelle
Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Avec Voxtral, Mistral a son premier modèle audio open source

16 juillet 2025 à 07:56

Mistral a présenté hier soir son Voxtral, premier modèle audio open source de l’entreprise française. Il entre directement en compétition avec des produits très installés, comme le fameux modèle Whisper d’OpenAI, déjà présent depuis plusieurs années.

Mistral veut essentiellement faire la différence sur deux aspects : le tarif et les performances. Mistral vante ainsi une solution efficace et commercialisée pour « moins de la moitié du prix » des solutions comparables.

Le modèle se décline en trois variantes. La première, Voxtral Small, embarque 24 milliards de paramètres et vise les grands déploiements. Elle est directement placée en face de Whisper et GPT-4o d’OpenAI, Scribe d’ElevenLabs et Gemini 2.5 Flash de Google. La seconde, Voxtral Mini, comprend 3 milliards de paramètres et vise les déploiements locaux et périphériques. Enfin, Voxtral Mini Transcribe est une version encore plus réduite, dédiée aux opérations de transcription.

Selon Mistral, Voxtral peut « comprendre » (grâce à Mistral Small 3.1) jusqu’à 40 min de contenu audio, permettant de poser des questions sur les informations qu’il renferme, de générer des contenus et autres fonctions que l’on attend aujourd’hui de ce type de traitement. La transcription peut se faire sur un maximum de 30 min (32 000 jetons). Voxtral est multilingue, prenant en charge le français, l’anglais, l’espagnol, le portugais, l’hindi, l’allemand, l’italien et le néerlandais.

Toujours selon l’entreprise française, l’API de Voxtral est accessible dès 0,001 dollar la minute de traitement, un tarif assez agressif. En outre, Voxtral sait « déclencher directement des fonctions de backend, des flux de travail ou des appels d’API en fonction des intentions de l’utilisateur, en transformant les interactions vocales en commandes système exploitables sans étapes d’analyse intermédiaires ».

Les modèles Voxtral (24B) et Voxtral Mini (3B) peuvent être téléchargés gratuitement depuis Hugging Face. Les fonctions vocales seront également déployées dans Le Chat pour l’ensemble des utilisateurs « au cours des prochaines semaines ».

Musée des horreurs de l’antitrust et double record pour l’Autorité de la concurrence

16 juillet 2025 à 07:35
Musée des horreurs de l’antitrust et double record pour l’Autorité de la concurrence

Benoît Cœuré, président de l’Autorité de la concurrence, résume 2024 en une phrase : « une année historique […], qu’il s’agisse des sanctions prononcées ou du nombre d’opérations de concentrations autorisées ».

Commençons par les présentations générales. En 2024, l’Autorité de la concurrence comprend 201 agents pour un budget de 25,3 millions d’euros, contre respectivement 199 agents et 24,3 millions en 2023 et quasiment la même chose en 2022. 2023 était toutefois un « mauvais » cru pour les sanctions avec 167,6 millions d’euros.

En 2024, l’Autorité de la concurrence a prononcé huit décisions de sanctions : six pour des ententes, une pour abus de position dominante et une dernière au groupe Loste pour obstruction lors des opérations de visite et de saisies. Ambiance…

Record d’amende : 1,4 milliard d’euros

Le montant total des sanctions est de 1,4 milliard d’euros, dont un peu moins de la moitié (611 millions d’euros) pour une seule affaire. Elle concerne des ententes dans l’électroménager afin de maintenir des prix de vente plus élevés : BSH, Candy Hoover, Eberhardt, Electrolux, Indesit (passé aux mains de Whirlpool), LG, Miele, SEB, Smeg, Whirlpool, Boulanger et Darty sont concernés.

Une autre affaire d’entente sur les prix sanctionne Schneider Electric, Legrand ainsi que les distributeurs Rexel et Sonepar. Ils écopent de 470 millions d’euros. La troisième marche du podium est occupée par Google sur les droits voisins, avec une sanction de 250 millions d’euros. Les autres affaires se partagent les restes.

L’Adlc en profite pour rappeler que, en Europe, « les pratiques anticoncurrentielles génèrent des hausses de prix moyennes de 17 % ».

« Le taux de recouvrement des sanctions est très élevé et atteint généralement les 100 %. Versées à l’État, elles entrent dans le budget général et contribuent ainsi au financement de dépenses d’intérêt général (éducation, justice, hôpitaux…) », explique l’Autorité.

Sur le marché des opérations, l’activité était intense en 2024, avec un autre record : 295 opérations, soit une hausse de 10 % par rapport au précédent pic de 2021. Dans 97 % des cas, les opérations ont été autorisées sans engagements.

L’IA sur tous les fronts, l’AdlC sur le front de l’IA

Sur l’intelligence artificielle, l’Autorité se félicite d’être l’une des premières « à sanctionner
une entreprise pour une pratique liée à l’entraînement d’un modèle d’intelligence artificielle
 ». Dans une interview au Figaro reprise dans le bilan, Benoit Cœuré expliquait que « l’industrie de l’intelligence artificielle générative a le potentiel de devenir le musée des horreurs de l’antitrust si on ne fait rien ». Les sujets liés à IA sont nombreux, avec les droits voisins, la protection des données, etc.

2025 est placée sous le signe de l’IA et de l’énergie. L’Autorité se penchera sur les problématiques « concurrentielles liées aux besoins spécifiques de l’IA en termes énergétiques ainsi qu’à l’impact des modèles utilisant moins de ressources ».

☕️ Blender 4.5 LTS bénéficie désormais d’un backend Vulkan prêt pour la production

16 juillet 2025 à 07:31

Quatre mois après Blender 4, la version 4.5 du logiciel de modélisation 3D est prête à prendre le relai. La version est particulièrement importante : non seulement elle est LTS (support de deux ans, jusqu’en juillet 2027), mais elle contient une grande liste de nouveautés et améliorations.

Parmi les apports, la prise en charge de l’API Vulkan fait un bond. Bien que le backend OpenGL soit toujours utilisé par défaut, Vulkan est considéré comme prêt pour la production, avec des améliorations notables : meilleures performances, support d’OpenXR, de Subdivision ou encore d’USD/Hydra, etc. Certaines limitations l’empêchent toujours d’être utilisé par défaut, dont des performances moindres en réalité virtuelle et dans la gestion des très grands maillages.

Les autres améliorations sont nombreuses. On peut citer le support de l’inclinaison de la tablette graphique et du défilement horizontal dans l’interface, des versions plus grandes des curseurs de souris (24 x 24 et 32 x 32) pour les écrans HiDPI sur Wayland et X11, un opérateur pour créer de nouveaux groupes vides de nœuds, un import facilité des paramètres, l’utilisation par défaut du multithread pour la compilation des shaders, ou encore de nouveaux nœuds comme Vector Math, Vector Rotate et Vector Mix.

On note également des changements majeurs dans le support de certains matériels. Blender 4.5 est ainsi la dernière version à supporter les Mac Intel. La fondation Blender cite en effet le cout désormais élevé de la maintenance sur ces machines. Le support de big-endian est de son côté considéré comme obsolète. Il sera totalement supprimé dans Blender 5.

☕️ Meta AI a permis à n’importe qui de lire n’importe quel prompt et réponse

16 juillet 2025 à 07:22

Le lendemain de Noël 2024, Sandeep Hodkasia a signalé un bug à Meta montrant que l’entreprise de Mark Zuckerberg ne protégeait pas les conversations entre son IA générative et ses utilisateurs, explique TechCrunch.

Il a trouvé le problème en analysant la fonctionnalité permettant aux utilisateurs de Meta AI d’éditer leurs prompts pour regénérer un texte ou une image. Dans les informations données par son navigateur, le créateur de l’entreprise de sécurité AppSecure a constaté qu’en modifiant un simple identifiant unique, les serveurs de Meta lui retournaient les prompts et réponses d’autres utilisateurs. Meta ne vérifiait pas l’identifiant de l’utilisateur avant de lui renvoyer les informations.

Facebook headquarters in Menlo Park, California, photo Greg Bulla

Meta a payé Sandeep Hodkasia 10 000 dollars pour l’identification de ce bug corrigé un mois après. L’entreprise a confirmé à nos confrères le bug et sa résolution et a expliqué « n’avoir trouvé aucune preuve d’utilisation malveillante et avoir récompensé le chercheur ».

☕️ Apple engage 500 millions de dollars pour sécuriser aimants et terres rares made in USA

16 juillet 2025 à 06:18

Apple a annoncé mardi un « engagement » de 500 millions de dollars destiné à soutenir les activités et la politique d’investissement de MP Materials, opérateur d’une mine de terres rares située en Californie, mais aussi d’une usine de transformation installée à Fort Worth, au Texas, ce qui en ferait le premier acteur « intégré » du secteur aux États-Unis.

Cet accord – le premier du genre selon Apple – doit permettre à MP Materials d’augmenter significativement ses capacités, tout en assurant à la firme de Cupertino un approvisionnement garanti en aimants et terres rares, indispensables à la fabrication des centaines de millions d’iPhone, iPad et ordinateurs Mac vendus chaque année.

L’enveloppe annoncée doit notamment soutenir l’agrandissement de l’usine MP Materials de Fort Worth, et la création de lignes de production d’aimants néodyme dédiées à Apple.

Elle a également vocation à participer à la création d’une nouvelle usine, de recyclage cette fois, installée à Moutain Pass, en Californie, à proximité immédiate de la mine exploitée par MP Materials. D’après les deux entreprises, cette usine traitera à la fois les rebuts industriels et les matériaux extraits d’appareils électroniques en fin de vie, dans le but d’assurer une seconde vie aux terres rares.

La mine de Mountain Pass en 2022 – crédit MP Materials

« Depuis près de cinq ans, Apple et MP Materials pilotent une technologie de recyclage avancée qui permet de transformer des aimants en terres rares recyclés en un matériau répondant aux normes rigoureuses d’Apple en matière de performance et de conception », affirment les deux partenaires.

Apple revendique l’usage d’aimants recyclés à l’intérieur de l’iPhone depuis le Taptic Engine de l’iPhone 11 en 2019. Aujourd’hui, l’entreprise indique sans plus de précision que « presque tous les aimants des appareils Apple sont fabriqués à partir d’éléments de terres rares 100 % recyclés ».

Cet accord intervient cinq jours après que MP Materials a annoncé un accord public privé sans précédent avec le département de la Défense des États-Unis. Cette fois, l’engagement se compte en milliards de dollars sur dix ans, avec des fonds qui se ventilent entre promesses d’achat à prix minimum garanti (110 dollars le kilo), garanties de débouchés commerciaux, prêts à taux avantageux pour favoriser les investissements, etc.

Reçu hier — 15 juillet 2025Next.ink

☕️ Aylo bloque à nouveau Youporn, Pornhub et Redtube en France

15 juillet 2025 à 16:54

Aylo (ex Mindgeek), éditeur de trois parmi les plus importants carrefours d’audience au monde en matière de contenus pornographiques, a à nouveau mis en place le blocage de ses sites pour les internautes français.

Depuis la France, Youporn, Pornhub et Redtube sont remplacés par un nouveau message dans lequel l’éditeur s’insurge contre la façon dont la France a choisi de mettre en œuvre l’obligation de vérification de l’âge des internautes.

Aylo a conservé l’iconographie déjà utilisée début juin pour illustrer son blocage

La mise en ligne de cet écran et le blocage associé font suite à la publication, mardi, d’une décision du Conseil d’État qui rétablit la possibilité de bloquer les sites pornographiques si ces derniers n’ont pas répondu à l’exigence de mise en place d’un dispositif de vérification d’âge.

« Les contestations juridiques, les décisions et les revirements en cours mettent clairement en évidence une chose : l’absence de direction, l’absence de solution globale et, pour dire les choses simplement, le dysfonctionnement législatif », affirme l’éditeur de Pornhub, qui une nouvelle fois cherche à prendre à partie les utilisateurs de ses services :

« Votre gouvernement propose que nous vérifiions votre âge à chaque fois que vous visitez notre site. La dure réalité : Cette mesure ne protège pas les mineurs, elle met en péril la vie privée de chacun et met les enfants en danger, car elle conduit le trafic vers des milliers de sites qui contournent délibérément les réglementations, ne vérifient pas l’âge des participants dans les contenus et encouragent activement les utilisateurs à contourner la loi ».

Aylo avait déjà bloqué l’accès à ses sites en France début juin, avant de faire marche arrière quand le tribunal administratif de Paris avait ordonné la suspension de l’obligation de contrôle.

« Seuls des adultes identifiés devraient être autorisés à déverrouiller l’accès à des contenus inappropriés pour l’âge. La technologie nécessaire à cette fin existe aujourd’hui. Nous sommes déterminés à faire partie de cette solution et souhaitons collaborer avec les gouvernements, la société civile et les partenaires technologiques pour parvenir à une solution efficace de vérification de l’âge basée sur les appareils », affirme encore l’éditeur.

Ce nouveau rebondissement intervient alors que la Commission européenne vient de publier ses lignes directrices en matière de protection des mineurs sur Internet, et d’annoncer le développement d’un module de vérification destiné aux éditeurs, qui sera notamment testé par la France.

Meta annonce investir des centaines de milliards de dollars dans des datacenters pour l’IA

15 juillet 2025 à 15:23
Titans sans Tartare
Meta annonce investir des centaines de milliards de dollars dans des datacenters pour l’IA

Dans une série de messages sur Threads, Mark Zuckerberg a annoncé « investir des centaines de milliards de dollars ». Meta veut accélérer l’agrandissement de son parc de datacenters : actuellement, l’entreprise utilise même des tentes pour étendre ses centres. Pourtant, leur installation a des conséquences pour le voisinage.

Sur son réseau social Threads, Mark Zuckerberg a annoncé, lundi 14 juillet, que son entreprise, Meta, va investir « des centaines de milliards de dollars » dans de nouvelles infrastructures de calcul pour l’intelligence artificielle. Cette annonce arrive après le débauchage par son entreprise de plusieurs spécialistes chez Apple, Anthropic, OpenAI ou Scale AI.

Meta a bien développé une famille de modèles de langage, Llama, qu’elle présente comme open source, même si bien des spécialistes critiquent cette appellation. Mais l’entreprise, qui avait parié sur le metaverse, s’est montrée moins à la pointe dans le développement de l’IA générative que ses concurrents comme OpenAI, Google ou Microsoft. C’était pourtant chez Facebook que l’un des pionniers du deep learning, Yann Lecun, avait posé ses pénates en 2013, donnant un boost au domaine.

Des « titans » demandant jusqu’à 5 GW de puissance

« Nous sommes en train de construire des clusters de plusieurs gigawatts », a expliqué de manière offensive Mark Zuckerberg sur Thread. « Nous avons baptisé le premier Prometheus et il sera mis en service en 2026 », a-t-il ajouté, « nous construisons également Hyperion, qui aura une puissance qui pourra aller jusqu’à 5 GW dans plusieurs années. Nous construisons également de nombreuses autres clusters de titans. L’un d’entre eux couvre une grande partie de l’empreinte de Manhattan ». Le CEO de Meta parle de datacenters « de titans » et les baptise de noms inspirés de ces divinités de la mythologie grecque, donnant une impression de gigantisme à ses centres de données.

Vendredi 11 juillet, SemiAnalysis expliquait que Meta mettait en place des parties de ses datacenters sous tentes pour accélérer leur expansion. L’entreprise a confirmé auprès de Business Insider, tout en précisant que ces tentes permettent seulement d’augmenter la capacité de datacenters existants. SemiAnalysis donnait aussi plus d’informations sur le projet Prometheus. « Lorsque le réseau électrique local n’a pu suivre, Meta s’est mis en mode Elon [Musk]. Avec l’aide de Williams [énergéticien étasunien, ndlr], ils construisent deux centrales au gaz naturel de 200 MW sur site », affirmait SemiAnalysis.

Comme nous l’expliquions récemment, ces gros datacenters ne cherchent plus la proximité des fibres, mais celle des grosses lignes électriques pour alimenter des serveurs toujours plus gourmands et denses. Jusqu’à, comme ici, imaginer des centrales dédiées.

Pour mettre en perspective cette annonce de Mark Zuckerberg, rappelons qu’Olivier de Nomazy, responsable analyste chez Data4, nous expliquait qu’ « il y avait à peu près 6,5 GW en 2023 de datacenters déployés ». L’annonce d’un datacenter de 5 GW par Meta implique donc un besoin d’énergie colossal par rapport à ce que l’on connait actuellement.

Des problèmes pour les riverains

En parallèle, lundi, le New York Times a publié un article racontant les problèmes d’une famille du Comté de Newton, dont la maison se situe juste à côté d’un des datacenters de Meta. Beverly et Jeff Morris habitent à 300 mètres de ce centre de données, et l’eau de leur maison vient directement de la nappe d’eau souterraine de leur terrain.

Le journal étasunien explique que quelques mois après le début de la construction du data center de Meta, en 2018, le lave-vaisselle, la machine à glaçons, le lave-linge et les toilettes des Morris ont tous cessé de fonctionner. « En l’espace d’un an, la pression de l’eau s’est réduite à un filet d’eau ».

Le média syndical américain More Perfect Union avait déjà publié, il y a trois mois, sur YouTube une vidéo sur les problèmes de la famille :

Sites porno : le Conseil d’État rétablit l’obligation de contrôle de l’âge

15 juillet 2025 à 13:46
Coitus interruptus
Sites porno : le Conseil d’État rétablit l’obligation de contrôle de l’âge

Suspendue par une décision de justice le 16 juin dernier, l’obligation de contrôle de l’âge en amont de l’accès aux sites pornographiques a été rétablie mardi par le Conseil d’État. L’institution estime que la suspension n’était pas justifiée par une notion d’urgence. Les Sages notent par ailleurs que le contrôle de l’âge est « bien susceptible de contribuer à atteindre l’objectif de protection des mineurs » poursuivi par la loi SREN.

Pornhub, Redtube et Youporn seront-ils de nouveau bloqués en France par leur éditeur, pour tenter de faire pression sur l’Arcom et les pouvoirs publics ? Le Conseil d’État a rendu mardi 15 juillet une décision qui pourrait relancer la controverse. L’institution a en effet décidé d’annuler la décision de justice du 16 juin dernier, qui suspendait l’obligation de vérification de l’âge des internautes entrée en vigueur quelques semaines plus tôt pour 17 sites pornographiques de premier plan.

Le Conseil d’État ne retient pas l’urgence

« Le Conseil d’État relève que la société n’apporte aucun élément permettant d’établir que l’application de l’arrêté contesté porterait une atteinte grave à sa situation économique, remarque l’institution dans le communiqué qui accompagne sa décision (PDF). Il constate également que l’arrêté n’interdit pas la diffusion de contenus pornographiques auprès des personnes majeures, mais qu’il impose seulement de mettre en place des systèmes de vérification de l’âge efficaces, dans le cadre des garanties prévues par la loi. Il n’y a donc pas d’atteinte à la liberté d’expression et à la protection de la vie privée. »

L’institution souligne par ailleurs que le dispositif de vérification de l’âge, imposé par l’arrêté contesté, est bien susceptible de contribuer à atteindre l’objectif d’intérêt public qui lui est rattaché, à savoir « la protection des mineurs contre l’exposition à des contenus à caractère pornographique », et annule donc la suspension ordonnée par le tribunal administratif le 16 juin dernier.

Un contentieux qui dure

La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN, confère pour mémoire à l’Arcom un pouvoir de sanction à l’encontre des sites pour adultes qui ne disposent pas d’un mécanisme de contrôle de l’âge. Il manquait cependant au texte un arrêté ministériel pour permettre le blocage des sites contrevenants quand ces derniers sont édités par une société établie dans un autre État membre de l’Union européenne : la publication de ce dernier, signé par Rachida Dati, est intervenue le 6 mars dernier, ouvrant une période de grâce de trois mois pour la mise en œuvre des mesures techniques associées.

Pendant que le canadien Aylo, éditeur de Pornhub, Redtube et Youporn, tentait le coup de com’ en bloquant de façon préventive l’accès à ses sites pour tous les internautes français, l’entreprise chypriote Hammy Media LTD, qui gère la plateforme xHamster, a de son côté choisi la voie juridique, en attaquant l’arrêté du ministère de la Culture devant le tribunal administratif de Paris. La démarche a d’abord été couronnée de succès, puisque le juge a donc décidé, le 16 juin dernier, de suspendre l’arrêté en urgence, le temps de vérifier si ce dernier est bien compatible avec le droit européen.

Problème : pour le Conseil d’État, cette notion d’urgence ne méritait pas d’être retenue. « La condition d’urgence est considérée comme remplie lorsque la décision administrative contestée porte préjudice de manière suffisamment grave et immédiate à un intérêt public, à la situation du requérant ou aux intérêts qu’il entend défendre », rappelle l’institution.

Or elle estime, dans sa décision, que l’éditeur de xHamster n’a fourni aucun élément permettant d’attester, de façon objective, de la réalité du préjudice financier qui découlerait de la mise en place du contrôle d’âge. « Constatant l’absence d’urgence, le Conseil d’État rejette la demande de suspension l’arrêté du 26 février 2025 sans avoir à se prononcer ni sur sa légalité, ni sur la question prioritaire de constitutionnalité soulevée à l’encontre de la loi par la société requérante. »

Si la suspension est pour l’instant annulée, le contentieux reste ouvert. Le tribunal administratif de Paris a en effet également été saisi au fond contre l’arrêté ministériel du 26 février 2025. Et le référentiel technique sur la vérification de l’âge adopté par l’Arcom dans le cadre de la mise en œuvre de la loi du 21 mai 2024 fait lui aussi l’objet d’un recours au fond, devant le Conseil d’État cette fois.

xAI sort Grok 4, sa version Heavy déclare s’appeler Hitler

15 juillet 2025 à 12:49
GodwinAI
xAI sort Grok 4, sa version Heavy déclare s’appeler Hitler

xAI a sorti Grok 4, accessible depuis différents abonnements. La version la plus chère, qui donne accès à Grok 4 Heavy, a tôt fait de déclarer qu’elle s’appelait Hitler, potentiellement influencée par les déboires extrémistes des versions précédentes.

Chez Grok, (quasiment) rien de nouveau. Après des propos sur un faux génocide en Afrique du Sud ou la promotion évidente de l’extrême-droite en France, voici que la société xAI d’Elon Musk sort Grok 4 une version du grand modèle de langage présentée comme « la plus intelligente au monde ».

Pour y accéder, diverses possibilités : une offre gratuite, une offre « SuperGrok » à 30 dollars par mois, et une nommée « SuperGrok Heavy » à 300 dollars par mois.

3 versions d’abonnements

Les différentes versions permettent toutes d’accéder à des « compagnons », des personnages animés actuellement au nombre de deux (Bad Rudy, un panda roux aux réponses volontairement méchantes, et Ani, une femme blonde dans un style d’anime japonais, prompte à enlever sa robe pour montrer sa lingerie).

L’abonnement à SuperGrok Heavy doit permettre d’accéder de manière anticipée à des fonctionnalités avancées et au modèle Grok 4 Heavy. Il lui manque cela dit quelques éléments disponibles du côté du SuperGrok classique, à commencer par celle des « pensées », c’est-à-dire de la liste des sources disponibles en ligne venues alimenter les réponses formulées par la machine.

Dans la version la plus coûteuse, les résultats se gâtent par ailleurs d’un point de vue politique. Demandez à Grok 4 Heavy de vous donner son nom, il vous répondra, sans hésiter, et à plusieurs reprises : Hitler.

Grok influencé par la couverture médiatique de ses sorties extrêmistes ?

Ex-ingénieur de la société d’annotation Scale AI, Riley Goodside a fait le test sur les différentes versions de Grok 4. Dans sa version classique, interrogée sur son nom, Grok 4 renvoie des résultats peu problématiques, comme « 4 », « xAI » ou « aucun ».

Si la fonction de recherche de sources n’est pas disponible avec le recours au modèle Grok 4 heavy, celles fournies par Grok 4 permettent néanmoins de formuler une hypothèse sur son apparente passion hitlérienne. Du côté de ce modèle plus « léger », la machine tombe en effet rapidement sur des rapports relatifs à l’épisode de début juillet, dans lequel la version précédente de Grok se qualifiait elle-même de « MechaHitler », permettait de générer des récits de viols et promouvait des thèses conspirationnistes — quand elle ne répondait pas en prenant un ton très similaire à celui d’Elon Musk lui-même.

Pour Riley Goodside, il est probable que la machine ait été influencée après son entraînement par les résultats qu’elle est allée chercher en ligne. Cela suggérerait l’existence d’une faille d’un nouveau genre pour tous les modèles de langages recourant à de la recherche en ligne, dans laquelle les articles les concernant pourraient influencer leurs résultats, dans une boucle de rétroaction complexe à maîtriser.

Reste à savoir pourquoi Grok 4 est capable d’éviter ce type de résultats, quand Grok 4 heavy les prend en compte et les utilise pour formuler ses réponses.

L’enjeu est d’autant plus important qu’au moment même où Elon Musk dévoilait les « compagnons » accessibles depuis Grok 4, xAI déclarait avoir signé un contrat avec le ministère états-unien de la Défense et rendait ses « modèles frontières » accessibles à l’administration, aux côtés de ses concurrents Anthropic, Google et OpenAI.

Le directeur du numérique de l’office de l’intelligence artificielle indique dans un communiqué que ces différents contrats, qui correspondent largement à ce que le « ministère de l’efficacité gouvernementale » cherchait à faire en déployant de l’IA au sein de l’administration des États-Unis, grimpent jusqu’à 200 millions de dollars.

☕️ Ubuntu 25.10 aura une session RISC-V complète, mais pour très peu de matériel

15 juillet 2025 à 09:29

On sait depuis environ deux mois que la prochaine édition d’Ubuntu aura une session complète pour l’architecture RISC-V. Le programme d’Ubuntu 25.10 est d’ailleurs chargé, avec une expérience Wayland plus lissée pour les GPU NVIDIA, le support du Variable Refresh Rate ou encore le chiffrement intégral du disque soutenu par la puce TPM. On y trouvera également GNOME 49, le noyau Linux 6.17 et plusieurs nouvelles applications, dont Loupe et Ptyxis.

Ce support amélioré de RISC-V viendra cependant avec un changement majeur : seul le profil RVA23 de l’architecture sera pris en charge. Les RVA (Risc-V Application) sont des spécifications techniques décrivant les capacités de traitement vectoriel qu’un système compatible doit posséder. Ils décrivent donc, concrètement, ce que les applications peuvent utiliser.

Or, le RVA23 est le dernier profil en date. Il a été publié en octobre 2024 et rend plusieurs extensions obligatoires, dont Vector et Hyperviseur. Dans le cas d’Ubuntu, les conséquences seront très concrètes : puisque l’immense majorité du matériel RISC-V se sert du profil RVA20, la version 25.10 du système ne les prendra plus en charge. En contrepartie, utiliser le système sur du matériel neuf (et pour l’instant presque inexistant) permettra d’obtenir une session complète et de faire tourner toutes les applications, grâce notamment aux fonctions d’hyperviseur ainsi débloquées.

Pour les personnes concernées, c’est évidemment une mauvaise nouvelle. On peut cependant la relativiser : Ubuntu 24.04 LTS, qui prend en charge le profil RVA20, sera supporté jusqu’en 2029 au moins. Une mise à jour du composant ubuntu-release-upgrader est en outre déployée depuis quelques semaines pour préparer le terrain. Ainsi, si une configuration RVA20 est détectée, la version utilisée du système ne sera pas mise à jour.

Pour Canonical, il s’agit encore une fois de mettre en place des changements importants avant la nouvelle LTS. Ubuntu 26.04 sera ainsi prête pour le nouveau matériel qui devrait se multiplier d’ici la fin de l’année.

En 2024, 13,5 % des résumés d’articles de recherche biomédicale étaient co-rédigés par IA

15 juillet 2025 à 08:59
« crucial », « potential », « significant »
En 2024, 13,5 % des résumés d’articles de recherche biomédicale étaient co-rédigés par IA

Une analyse des publications scientifiques dans le milieu de la recherche biomédicale montre que les modèles de langage sont massivement utilisés pour rédiger au moins leurs résumés.

De plus en plus de chercheurs utilisent des modèles de langage (LLM) pour rédiger leurs articles. En analysant le vocabulaire utilisé dans les résumés des articles scientifiques, des chercheurs montrent que leurs collègues en recherche biomédicale utilisent abondamment l’IA pour résumer leurs articles. Ils ont publié leurs résultats dans la revue Science Advances.

Cette analyse constate aussi une évolution du vocabulaire dans les résumés des 15 millions d’articles du milieu biomédical (en anglais) indexés sur la plateforme PubMed, principal moteur de recherche d’articles médicaux et de biologie.

Détection par l’augmentation anormale de la fréquence de certains mots

Ils ont de fait « simplement » calculé la fréquence, pour chaque année, des 273 112 mots qui apparaissent dans ces résumés. Pour chaque année, ils ont identifié les 900 mots « excédentaires ».

Ainsi, on peut observer l’évolution soudaine de l’utilisation ou de l’abandon de certains termes.

Le verbe « delve » (approfondir) avait déjà été repéré car c’est un terme peu employé dans l’anglais étasunien ou britannique, mais très utilisé par les nigérians, nationalité de beaucoup de travailleurs de la donnée dont le travail est utilisé pour entrainer les IA.

Le titre de l’article scientifique, « Delving into LLM-assisted writing in biomedical publications through excess vocabulary », est d’ailleurs un clin d’œil en référence à la fréquence élevée de ce terme. Mais des termes comme « crucial », « potential » ou « significant » ont fait des bons qui coïncident avec l’arrivée des IA génératives. Au contraire, « important » a chuté ces dernières années.

Ces pics de fréquences d’utilisation de termes ne sont pas tous dus qu’à l’utilisation de l’IA. On peut, par exemple, facilement comprendre qu’entre 2020 et 2024, le terme « pandemic » a connu un certain succès dans le milieu biomédical. De même, l’épidémie de maladie à virus Ebola en Afrique de l’Ouest entre 2013 et 2016 a, mécaniquement, poussé les chercheurs à utiliser le nom du virus dans leurs résumés.

Concentration sur les différences entre 2022 et 2024

Ils se sont donc concentrés sur les termes dont la fréquence a augmenté de façon particulièrement excessive en 2024, en comparant avec l’année 2022.

Mots dont la fréquence augmente en 2024. À gauche, le ratio entre 2024 et 2022 en fonction de la fréquence en 2024. À droite, l’écart entre 2024 et 2022 en fonction de la fréquence en 2024.

Ainsi, on peut voir que « delved » ou « delves », mais aussi « undescore », « notably », « showcasing » ou « additionnaly » sont particulièrement utilisés dans les articles biomédicaux de 2024 par rapport à ceux publiés en 2022.

Mais on peut se demander si ce phénomène peut être observé lors d’autres années. Ils ont vérifié pour toutes les années entre 2013 et 2023 et n’ont pas observé d’augmentations aussi importantes sauf pour le terme « ebola » en 2015, le terme « zika » en 2017 et les termes « coronavirus », « covid », « lockdown » et « pandemic » entre 2020 et 2022. Il faut donc, d’habitude, qu’il y ait un événement majeur lié à un terme biomédical pour qu’une telle augmentation de fréquence soit observée.

L’IA insert un style d’écriture différent

Les chercheurs ont aussi analysé quels types de mots étaient sur-utilisés. Comme on peut le voir dans les graphiques ci-dessous, la plupart des mots dont la fréquence est excessive à l’ère de l’IA générative sont plus là pour agrémenter le style. Ce sont aussi, la plupart du temps, des verbes ou, dans une moindre mesure, des adjectifs.

Le regroupement de ces termes de style dont la fréquence est excessive pour 2024 leur a servi de marqueur de l’usage de modèles de langage pour la rédaction des résumés des articles. En gros, ils considèrent qu’à partir d’un certain seuil de mots venant de ce groupe de mots, les chercheurs ont utilisé ChatGPT ou tout autre outil d’IA générative pour rédiger leur résumé.

13,5 % est une estimation basse

C’est en réanalysant tous les résumés des articles indexés par PubMed par ce prisme qu’ils estiment qu’au moins 13,5 % d’entre eux ont été rédigés à l’aide de l’IA générative. « Avec environ 1,5 million d’articles indexés dans PubMed par an, cela signifie que les LLM participent à la rédaction d’au moins 200 000 articles par an », expliquent-ils.

Ils insistent sur le fait que c’est une borne inférieure, puisque des résumés rédigés avec l’IA générative peuvent ne comporter aucun des termes qu’ils ont repérés. Ils soulignent aussi que, dans le lot, il peut y avoir des faux-positifs : notamment, l’utilisation des modèles de langage peut aussi influencer le style des humains. Mais ils pensent que ce dernier effet est beaucoup plus petit et plus lent.

Si l’IA générative peut aider dans la forme, elle peut ajouter des problèmes de fond

Ils font remarquer que l’IA générative est souvent utilisée pour améliorer la grammaire, la rhétorique, la lisibilité générale des textes ou aide à la traduction. Mais ils rappellent que les modèles de langage sont connus pour halluciner des références, fournir des résumés inexacts et générer de fausses informations qui semblent faire autorité et être convaincantes.

« Si les chercheurs peuvent remarquer et corriger les erreurs factuelles dans les résumés générés par IA de leurs propres travaux, il peut être plus difficile de trouver les erreurs de bibliographies ou de sections de discussions d’articles scientifiques générés par des LLM », soulignent-ils.

Ils ajoutent que les LLM peuvent répliquer les bais et autres carences qui se trouvent dans leurs données d’entrainement « ou même carrément plagier ».

Le code utilisé pour l’analyse des articles scientifiques est disponible sur GitHub et archivé sur Zenodo. On peut aussi y trouver toutes les données qu’ils ont générées.

☕️ [MàJ] WeTransfer modifie de nouveau ses CGU suite aux critiques sur l’entrainement des IA

15 juillet 2025 à 12:20

Mise à jour 15 juillet 14h15 : WeTransfer a de nouveau modifié ses conditions d’utilisation. Les mentions citées ci-dessous n’apparaissent plus. À la place, l’entreprise affirme : « Afin de nous permettre d’exploiter, de vous fournir et d’améliorer le service et nos technologies, nous devons obtenir de vous certains droits relatifs au contenu couvert par des droits de propriété intellectuelle ». Dans cette section, elle ne mentionne plus l’amélioration de modèles, mais elle ajoute : « par la présente, vous nous accordez une licence libre de droits pour utiliser votre contenu dans le but d’exploiter, de développer et d’améliorer le service, conformément à notre politique en matière de confidentialité et de cookies ».

Remarquons que cette nouvelle modification n’a pas été datée puisque la page des Conditions d’utilisation de WeTransfer indique toujours « Last update: June 23, 2025 ». Le PDF de la version du 23 juin a été archivé le 2 juillet dernier. Le nouveau est aussi sur Internet Archive.

Article originel publié le 15 juillet à 10h20 :

WeTransfer, le service d’envoi de fichiers de taille importante, a modifié ses conditions d’utilisation pour pouvoir entrainer ses modèles d’IA, a repéré Rami Ismail. La modification a été effectuée le 23 juin 2025 et doit s’appliquer à partir du 8 aout.

Dans la section « Licence pour WeTransfer » l’entreprise affirme : « Vous nous accordez par la présente une licence perpétuelle, mondiale, non exclusive, libre de redevances, transférable et pouvant faire l’objet d’une sous-licence pour utiliser votre contenu à des fins d’exploitation, de développement, de commercialisation et d’amélioration du service ou de nouvelles technologies ou de nouveaux services, y compris pour améliorer les performances des modèles d’apprentissage automatique qui améliorent notre processus de modération du contenu, conformément à la politique en matière de confidentialité et de cookies ».

Elle affirme que « cette licence comprend le droit de reproduire, de distribuer, de modifier, de préparer des œuvres dérivées, de diffuser, de communiquer au public, d’afficher publiquement et de réaliser du contenu ». Et l’entreprise ajoute que l’utilisateur ne pourra pas demander de compensation pour l’utilisation de son contenu.

Comme l’explique Film Stories, WeTransfer est très utilisé par les créateurs qui peuvent avoir des rendus dont les fichiers sont assez gros. Le service permet d’envoyer ce genre de fichiers après les avoir téléchargés sur les serveurs de l’entreprise.

Des alternatives existent. Par exemple, Disroot ou Ethibox hébergent un service du même genre en utilisant le logiciel libre Lufi.

Protection des mineurs en ligne : la France va tester le dispositif européen

15 juillet 2025 à 07:52
Permis de surfer
Protection des mineurs en ligne : la France va tester le dispositif européen

La Commission européenne a publié lundi ses lignes directrices relatives à la protection des mineurs en ligne, qui précisent les mesures attendues de la part des réseaux sociaux ou des sites pour adultes. Elle annonce dans le même temps la publication du prototype d’une application de contrôle de l’âge censée garantir l’anonymat des utilisateurs. Le dispositif sera testé dans cinq États membres, dont la France.

Bruxelles a publié lundi 14 juillet ses lignes directrices en matière de protection des mineurs en ligne. Elles précisent, dans le cadre du règlement européen sur le numérique (DSA) la façon dont les éditeurs de services en ligne et grandes plateformes doivent adapter leur fonctionnement pour contrôler l’âge minimum d’accès, et limiter les risques inhérents aux jeunes publics.

Limiter les fonctionnalités addictives et les risques de manipulation

« Les lignes directrices établissent une liste non exhaustive de mesures proportionnées et appropriées pour protéger les enfants contre les risques en ligne tels que le grooming, les contenus préjudiciables, les comportements problématiques et addictifs, ainsi que la cyberintimidation et les pratiques commerciales préjudiciables », expose la Commission européenne.

Elles s’incarnent au travers de sept grands principes, qui disposent notamment que le compte d’un mineur doit être paramétré en « privé » par défaut, pour limiter le risque de contacts non sollicités. Bruxelles demande également que les algorithmes de recommandation soient modifiés pour diminuer le risque d’exposition à des contenus dangereux, offrir plus de contrôle sur le flux, mais aussi éviter aux jeunes publics de se retrouver engrenés dans des spirales de contenus problématiques (phénomène dit du « terrier de lapin », rabbit hole).

La Commission souhaite par ailleurs que les mineurs soient en mesure de bloquer les utilisateurs de leurs choix et ne puissent pas être ajoutés à des groupes ou des boucles de conversation privées sans consentement préalable.

Elle se positionne en faveur d’une protection accrue face aux dérives potentielles, qu’il s’agisse d’addiction ou d’influence. Bruxelles demande ainsi que soient désactivées par défaut « les fonctionnalités qui contribuent à une utilisation excessive » comme les accusés de lecture, la lecture automatique des vidéos, le défilement infini ou les notifications.

Une attention particulière est également portée à l’intégration des fonctions d’IA générative. Les lignes directrices demandent ainsi aux plateformes de « veiller à ce que les mineurs ne soient pas exposés à des systèmes d’IA intégrés à la plateforme qui influencent ou incitent les enfants à des fins commerciales, notamment par le biais de formats conversationnels ou de conseil tels que les chatbots ».

Bruxelles demande enfin que les éditeurs veillent à ne pas exploiter le « manque de connaissances commerciales des enfants » en évitant de les exposer à des messages manipulatoires, visant par exemple à les inciter à acheter des monnaies virtuelles et autres loot-boxes dans les jeux en ligne.

Satisfecit de la France

Reste à voir quand et comment les plateformes et éditeurs concernés s’adapteront à ces lignes directrices. Rappelons qu’elle constituent désormais le cadre au regard duquel la Commission européenne analysera le respect des obligations imposées par l’article 28 du Digital Services Act sur la protection des mineurs.

En attendant, leur publication a suscité l’enthousiasme d’Emmanuel Macron et de Clara Chappaz, ministre déléguée au Numérique, qui tous deux multiplient les appels en faveur d’une réglementation plus contraignante depuis le printemps avec, notamment, une interdiction d’accès aux réseaux sociaux pour les moins de 15 ans.

« En mai dernier, avec le Président Emmanuel Macron nous nous étions donné 3 mois pour trouver une voie européenne : c’est chose faite ! Aujourd’hui, l’Europe adopte des lignes directrices ambitieuses dans le cadre du DSA, qui ouvrent la voie à l’interdiction des réseaux sociaux aux moins de 15 ans en droit national », s’est réjouie Clara Chappaz.

L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) française se félicite dans le même temps que plusieurs de ses propositions aient été reprises par Bruxelles.

« La Commission européenne a ainsi retenu un niveau d’exigence équivalent à celui du référentiel de l’Arcom, assurant un haut niveau de protection de la vie privée et d’efficacité de la vérification de l’âge, via notamment le recours à un tiers indépendant. En outre, l’Arcom se réjouit que la Commission ait pris en compte, conformément à sa suggestion, la nécessité de protéger les mineurs contre les communications commerciales (y compris celles réalisées par les influenceurs) pour des contenus réservés aux adultes, tels que les jeux d’argent ou la pornographie. »

Un prototype européen d’application de contrôle d’accès

Le débat relatif au verrouillage de l’accès aux sites pornographiques l’a bien montré : difficile de garantir la protection sans un outil permettant le contrôle de l’âge. Sur ce terrain, Bruxelles accompagne ses lignes directrices d’un projet dédié : une solution technique censée permettre de vérifier qu’un internaute a bien l’âge requis, tout en garantissant son anonymat.

Comme le souligne l’Arcom, le procédé retenu par Bruxelles suppose l’intervention d’un tiers de confiance. En pratique : l’internaute télécharge une application dédiée à la vérification de l’âge, gérée par ce tiers. Il renseigne dans cette application sa pièce d’identité ou tout autre document approuvé certifiant sa date de naissance. Le tiers de confiance émet alors une « preuve » du respect d’un âge minimum, puis coupe tout lien entre cette preuve et les données personnelles soumises au départ. C’est ensuite cette preuve qui est soumise à l’entrée d’un service en ligne exigeant un âge minimum.

Le parcours utilisateur prévoit qu’une application tierce fasse office d’intermédiaire

« Le processus garantit la confidentialité de l’utilisateur et ne révèle aucune information à l’émetteur de la preuve d’âge », estime la Commission européenne. Le développement de la solution a été confié au printemps à un consortium baptisé T-Scy, qui réunit les éditeurs suédois Scytales AB et allemand T-Systems International GmbH autour d’un contrat de deux ans. Leurs travaux, organisés autour d’OpenID4VCI, doivent donner lieu à la publication d’un jeu d’outils open source censés permettre aux éditeurs de service en ligne d’implémenter la brique nécessaire « sans effort ». Ils doivent par ailleurs s’inscrire dans le cadre du cadre réglementaire eIDAS et s’aligner avec le futur portefeuille numérique européen.

Cinq États membres feront office de poissons pilotes dans le déploiement d’une version « nationale » de cette application : la France, le Danemark, la Grèce, l’Italie et l’Espagne.

Reddit prend les devants au Royaume-Uni

La coïncidence n’est sans doute pas fortuite : c’est également lundi 14 juillet que Reddit a annoncé, au Royaume-Uni, la mise en place d’un système de contrôle d’âge, basé cette fois sur le service Persona (également utilisé par LinkedIn pour sa fonction d’identité vérifiée). La plateforme explique avoir fait ce choix pour se mettre en conformité avec le UK Online Safety Act. Elle dit se limiter à un contrôle de la date de naissance, et ne garder en base que le statut de la vérification associée.

« Suite à l’évolution des lois, nous pourrions être amenés à collecter et/ou vérifier l’âge des utilisateurs hors du Royaume-Uni. Par conséquent, nous introduisons également, à l’échelle mondiale, une option vous permettant de fournir votre date de naissance afin d’optimiser votre expérience Reddit, par exemple pour garantir que le contenu et les publicités soient adaptés à votre âge. Cette option est facultative et vous ne serez pas tenu de la fournir, sauf si vous résidez dans un pays (comme le Royaume-Uni) où nous sommes tenus de la demander. De plus, votre date de naissance n’est jamais visible par les autres utilisateurs ni par les annonceurs. »

☕️ Windows 10 : Microsoft précise comment le support d’Office va se terminer

15 juillet 2025 à 07:13

Windows 10 n’aura plus de support technique à compter du 14 octobre prochain. Les particuliers pourront repousser d’un an l’échéance de trois façons : payer 30 dollars, utiliser l’application Windows Backup ou dépenser 1 000 points Microsoft Rewards. Cette année supplémentaire ne couvrira que les correctifs de sécurité. Les entreprises, elles, peuvent payer jusqu’à trois ans supplémentaires pour ces mêmes correctifs, le tarif doublant chaque année.

Concernant Office sur Windows 10, Microsoft avait déjà précisé que le support courait jusqu’en octobre 2028. Cette date n’a pas changé, mais The Verge a repéré de nouvelles précisions dans un document du support. On sait par exemple désormais que ces trois ans concernent surtout les correctifs de sécurité et de bugs. Il y a cependant plusieurs informations importantes.

La situation dépend ainsi de qui utilise la suite. Pour les particuliers, qu’il s’agisse d’une licence perpétuelle (Office 2021 ou 2024) ou d’un abonnement 365, l’ajout de nouvelles fonctionnalités s’arrêtera en aout 2026. Dans les entreprises, selon les produits utilisés, cet arrêt interviendra entre octobre 2026 et janvier 2027. Dans tous les cas, au-delà de ces dates, les nouvelles fonctions seront réservées à Windows 11 et seuls des correctifs seront envoyés à Office sur Windows 10.

Autre précision importante, sur les correctifs justement. Bien qu’ils soient prévus aussi bien pour les problèmes de sécurité que les bugs plus généraux, ces derniers ne seront corrigés que s’ils concernent aussi Windows 11. En d’autres termes, si un bug d’Office n’existe que sous Windows 10, il ne sera pas corrigé.

☕️ X visé par une enquête du parquet de Paris pour ingérence étrangère

15 juillet 2025 à 06:39

L’AFP a appris vendredi 11 juillet que le parquet de Paris a ouvert une enquête contre le réseau social d’Elon Musk, qu’il suspecte de « biaiser le débat démocratique en France ».

La procureure de Paris, Laure Beccuau, a confié cette enquête à la gendarmerie nationale. Elle vise aussi bien le réseau social que « les personnes physiques » qui la dirigent.

L’enquête a été déclenchée suite à deux signalements en janvier dernier, dont l’un provient du député Eric Bothorel et l’autre d’un directeur de cybersécurité dans la fonction publique, selon le Canard enchaîné.

Cette annonce a été faite alors que le bot de xAI a récemment publié sur le réseau social X plusieurs fois des messages antisémites, généré des avis positifs sur l’extrême droite française et fait l’éloge d’Hitler.

Le communiqué du parquet affirme que la procédure a été ouverte « sur le fondement de vérifications, de contributions de chercheurs français et d’éléments apportés par différentes institutions publiques ». L’enquête porte « notamment » sur l’ « altération du fonctionnement d’un système de traitement automatisé de données en bande organisée, ainsi qu’extraction frauduleuse de données d’un système de traitement automatisé de données en bande organisée », explique l’AFP.

Souveraineté : défaillances et contradictions de l’État sur la commande publique

15 juillet 2025 à 06:27
Même une faute politique ? La question est posée
Souveraineté : défaillances et contradictions de l’État sur la commande publique

« Choose France », « buy european »… des termes qui ne trouvent pas suffisamment d’écho sur la commande publique, notamment dans le numérique. C’est la conclusion d’un rapport d’une commission d’enquête pour qui « l’État est pris en faute ».

Après des dizaines d’auditions et quatre mois de travaux, le rapport de la commission d’enquête sur la commande publique est disponible (les comptes rendus des auditions arriveront dans un second temps). Il est assorti de pas moins de 67 recommandations pour « mieux exploiter le potentiel de la commande publique au service de la souveraineté économique et numérique européenne ».

L’enjeu est de taille puisque la commande publique française représentait, selon le rapport, 170 milliards d’euros en 2023, soit deux fois plus qu’en 2014 (83 milliards d’euros). Le rapport tire à boulet rouge contre l’État qui n’a « pas su se hisser à la hauteur des enjeux ces dernières années », notamment pour ce qui est « d’assurer la protection des données publiques face aux géants du numérique ». Dans cet article, nous allons rester sur le volet numérique du rapport.

Inertie, défaillances, contradictions, faute… L’État en prend pour son grade


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu avant avant-hierNext.ink

IA : La Commission européenne a publié son peu contraignant code de bonne conduite

11 juillet 2025 à 15:31
Il ne les engage en rien légalement
IA : La Commission européenne a publié son peu contraignant code de bonne conduite

Bruxelles a publié mercredi son code de bonne conduite « pour les intelligences artificielles à usage général (GPAI) ». Issu de la collaboration de 13 experts indépendants, il doit aider l’industrie à se conformer aux obligations de l’AI act.

C’est en trois parties que la Commission a publié son code de bonne conduite « pour les intelligences artificielles à usage général (GPAI) » ce mercredi 8 juillet : un chapitre sur la transparence [PDF], un autre sur le Copyright [PDF] et un dernier sur la sûreté et la sécurité [PDF].

Les intelligences artificielles « à usage général » sont aussi appelés « modèles multimodaux » et sont capables de générer du texte, des images, des vidéos, du code, etc.

Signature volontaire qui n’engage à pas grand chose

Ils ont été rédigés sous la houlette de 13 experts, dont notamment les chercheuses Nuria Oliver (ex Vodafone, Microsoft, Telefónica) et Céline Castets-Renard de l’Université d’Otawa, et les chercheurs Alexander Peukert de l’Université de Francfort et Rishi Bommasani de Stanford.

La signature de ce texte reste à la volonté de chaque entreprise et iEngagement sans trop de frais. La Commission s’en servira par contre comme point de repère et met en avant que cela permettra aux entreprises d’éviter des charges administratives, et d’être plus sûres de ne pas se retrouver dans l’illégalité. Mistral AI a joué le rôle de bon élève européen en annonçant le premier sa signature, affirmant à notre consœur Océane Herrero de Politico que les exigences du code sont « gérables ».

Un formulaire et des engagements peu exigeants sur le respect du copyright et l’encadrement des risques

Le chapitre sur la transparence contient notamment un formulaire standardisé avec toutes les caractéristiques du modèle comme sa licence, une description du processus d’entrainement, des informations sur les données utilisées, la consommation d’énergie, etc.

Le deuxième chapitre, sur le copyright, prévoit que les entreprises s’engagent au respect des lois européennes sur le sujet ainsi que de décrire leur politique pour que cela soit le cas. Elles sont « encouragées » à rendre publique cette politique, mais le document n’engage même pas les signataires à le faire. En signant, les entreprises s’engagent à respecter les bonnes pratiques des robots crawlers (notamment les fichiers robots.txt) et à « atténuer le risque de sorties violant le copyright ».

Enfin, le dernier chapitre se concentre sur les modèles à risque systémique. Les entreprises signataires s’engagent à encadrer leur cycle de vie du développement à la mise en place sur le marché avec les outils de sécurité qui sont maintenant disponibles pour renforcer leur sûreté et leur sécurité.

Mais comme l’ont remarqué nos confrères des Echos, plusieurs choses ont été édulcorées par rapport à la version de travail de mars dernier. Ainsi, des champs sur les performances et limites des modèles ont disparu du premier chapitre. L’exigence de transparence sur les contenus copyrightés utilisés pour l’entrainement n’est plus dans le deuxième. Et pour les modèles à risque systémique, alors que dans la version de travail, le texte engageait les entreprises d’IA à ne pas les utiliser dans des domaines sensibles comme la défense ou les biotechnologies, la version définitive a gommé cette partie.

Le texte accompagne la deuxième phase de l’AI Act qui doit entrer en vigueur le 2 aout prochain, date à laquelle les intelligences artificielles à usage général entrent dans son champ d’application.

❌