Vue normale

☕️ Meta voudrait prendre sa revanche sur OpenClaw avec Hatch

6 mai 2026 à 16:13


OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ». 

Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.

Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.

Illustration : Flock

Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.

Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.

En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.

Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.

Chrome peut stocker 4 Go associés à Gemini sur votre machine sans crier gare

6 mai 2026 à 15:17
"Gare !"
Chrome peut stocker 4 Go associés à Gemini sur votre machine sans crier gare

Certains utilisateurs de Chrome constatent la présence, sur leur machine, d’un fichier d’environ 4 Go, intitulé weights.bin et qui semble lié à des fonctions d’intelligence artificielle. Problème : le navigateur n’a jamais alerté les internautes concernés quant au téléchargement de ces données.

Le navigateur de Google prend parfois ses aises au niveau des machines sur lesquelles il est installé. Plusieurs internautes signalent en effet avoir constaté le téléchargement, à leur insu, d’un fichier pouvant peser jusqu’à 4 Go, baptisé weights.bin (weights signifie poids) et placé dans un dossier intitulé OptGuideOnDeviceModel.

Un mystérieux fichier qui pèse jusqu’à 4 Go

Les premiers témoignages remontent à mi-2025, et le sujet refait surface à intervalles réguliers, ce qui illustre au passage que le fichier en question est susceptible d’apparaître aussi bien sur Windows que sur macOS. Faute d’information donnée par le navigateur, son processus d’installation, ou ses paramètres, les utilisateurs concernés en sont réduits aux spéculations. Et sans surprise, les hypothèses formulées tournent autour de l’IA.

« Le fichier weights.bin suggère qu’il pourrait s’agir d’un modèle d’IA/ML [IA ou machine learning] en cours d’entraînement ou téléchargé », subodore un internaute sur Reddit. « Je n’aime pas ça. Je n’utilise pas cette IA stupide et le fait qu’elle occupe 3 Go sur mon disque C, déjà limité, sans même me demander mon avis, c’est inadmissible », répond un autre.

Le mystère du dossier OptGuideOnDeviceModel est revenu sur le devant de la scène lundi 4 mai avec la publication d’un nouveau billet de blog chez Alexander Hanff dit ThatPrivacyGuy, le consultant en sécurité qui a récemment mis en lumière la façon dont l’application Claude Desktop s’arroge le droit de pré-autoriser ses extensions pour navigateurs, là aussi sans consentement ni information préalable.

Téléchargement non consenti

Comme avec Claude, Alexander Hanff analyse longuement la méthode mise en œuvre et ses éventuels manquements juridiques ou réglementaires. Il constate que Chrome télécharge ce fichier dans le quart d’heure qui suit l’ouverture du logiciel, et que le dossier est recréé à chaque nouveau lancement du navigateur s’il a été supprimé.

Il en conclut une nouvelle fois que ce comportement, orchestré en arrière-plan, sans information préalable, et sans moyen simple et direct de supprimer le fichier, constitue notamment un manquement à la directive européenne e-Privacy de 2002. Il appelle de ce fait Google à clarifier les choses, avec une explication claire, à adopter une logique d’opt-in (consentement préalable à la modification), et à permettre une suppression définitive du fichier.

Pour faire bonne mesure, il se lance également dans un calcul, éminemment discutable, visant à essayer d’estimer l’impact environnemental de ces 4 Go téléchargés sur des centaines de millions d’appareils.

Notons que ce fichier n’est pas téléchargé de façon systématique : nous avons contrôlé mercredi quatre machines (trois ordinateurs, fixes et portables, sous Windows ainsi qu’un MacBook) équipées d’une instance de Chrome, sans trouver trace de ce fichier.

Si vous souhaitez contrôler sa présence sur votre machine, voici les répertoires concernés.

Sous Windows :

C:\Users\\AppData\Local\Google\Chrome\User Data\Default\OptGuideOnDeviceModel

Sous macOS :

~/Library/Application Support/Google/Chrome/Default/OptGuideOnDeviceModel

S’il est vrai que Google n’informe pas sur l’existence de ce fichier, et n’a pas encore réagi publiquement (à notre connaissance) à la polémique, la fonction concernée n’est pas si mystérieuse qu’il y parait. Elle est en réalité documentée depuis fin 2024 et concerne, comme on pouvait s’y attendre, l’intégration de modèles Gemini Nano dans Chrome.

Un outil déjà documenté

Ces derniers sont mis à profit dans le navigateur, pour sous-tendre ou améliorer les performances de certaines fonctionnalités liées à l’IA, comme la détection automatique de la langue (pour suggérer les bons choix au niveau des raccourcis vers les outils de traduction). Google associe surtout son modèle à des interfaces de programmation (Prompt API, Summarizer API, Writer API, Rewriter API, Proofreader API), présentées comme autant d’outils destinés aux développeurs pour élaborer des fonctions exploitant l’IA.

Dans cette documentation, Google précise que le téléchargement de Gemini Nano n’intervient que si certaines conditions matérielles sont remplies : il faut notamment 22 Go d’espace disque disponible sur la partition qui stocke le profil Chrome, un CPU doté d’au moins quatre cœurs et un minimum de 16 Go de mémoire vive. Le téléchargement n’est par ailleurs pas censé démarrer si le système est relié à Internet via une connexion limitée (soit à cause d’un paramétrage manuel, soit en raison de l’utilisation d’un smartphone comme intermédiaire par exemple).

Le principe a en revanche vocation à concerner le plus large parc possible, avec Windows, macOS, Linux et ChromeOS sur les ordinateurs. Les plateformes mobiles ne sont quant à elles « pas encore » prises en charge.

Google semble à ce sujet désireux d’implémenter plus largement ses API. « Grâce aux API d’IA intégrées, votre application web peut effectuer des tâches basées sur l’IA sans nécessiter le déploiement ni la gestion de ses propres modèles. Nous travaillons à la standardisation de ces API sur tous les navigateurs. », écrit le moteur de recherche.

Comment s’en débarrasser ?

Reste à voir si et comment Google choisira de communiquer plus ouvertement sur le sujet. Alexander Hanff remarque à ce niveau que le téléchargement du fichier n’est pas opéré par les processus habituellement dédiés et dûment autorisés à procéder aux mises à jour (com.google.GoogleUpdater) mais bel et bien par le navigateur lui-même.

Pour supprimer le fichier litigieux et récupérer l’espace disque correspondant, il devrait en principe suffire de désactiver les fonctions d’IA locale du navigateur, si celles-ci sont proposées (consulter le menu Paramètres, onglet Système pour s’en assurer). Introduites depuis plusieurs mois, celles-ci font en effet l’objet d’un déploiement très progressif chez les utilisateurs finaux, ce qui explique sans doute pourquoi le dossier OptGuideOnDeviceModel n’apparait pas même sur une machine répondant aux matériels requis minimaux.

À défaut, il est possible de bloquer le téléchargement de ce modèle local sous Windows en créant ou modifiant la clé de registre GenAILocalFoundationalModelSettings, ce qui désactivera également l’inférence locale au sein du concurrent Edge (basé sur Chromium), comme documenté par Microsoft.

☕️ Washington veut pouvoir tester les nouveaux modèles IA avant tout le monde

6 mai 2026 à 14:10


Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.

Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.

Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.

Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.

Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.

Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.

Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.

Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.

Copyright : Hachette, Elsevier et trois autres éditeurs attaquent Meta

6 mai 2026 à 10:03
Pirate, moi ?
Copyright : Hachette, Elsevier et trois autres éditeurs attaquent Meta

Après plusieurs plaintes d’auteurs, cinq multinationales de l’édition (notamment scolaire et scientifique) attaquent Meta devant la justice américaine pour l’utilisation d’œuvres qu’elles éditent pour entrainer la famille de modèles d’IA générative Llama.

Meta fait face à une action en justice pour violation du copyright qui pèsera sans doute un peu plus lourd que celles qui sont arrivées devant les tribunaux jusque là concernant l’utilisation pour ses modèles d’IA générative d’œuvres copyrightées.

Ici, ce ne sont pas quelques auteurs qui attaquent le groupe dirigé par Mark Zuckerberg (qui est aussi visé personnellement par la plainte), mais cinq multinationales de l’édition : Hachette, Macmillan, McGraw Hill, Elsevier et Cengage. Scott Turow, auteur de thrillers à succès mais également éditorialiste et avocat, est aussi associé à la plainte.

Meta encore accusé d’être passé par du téléchargement illégal

La plainte [PDF], qui a été déposée ce mardi devant la cour du district sud de New York, accuse Meta et donc Mark Zuckerberg d’avoir d’abord « illégalement téléchargé via torrent [torrented, en anglais] des millions de livres et articles de revues scientifiques copyrightés provenant de sites pirates notoires et de scrapes web non autorisés de virtuellement tout l’internet », puis de les avoir copiés « à maintes reprises pour entraîner le système d’IA générative de Meta, baptisé Llama, dont la valorisation s’élève à plusieurs milliards de dollars ».

« Non contents d’utiliser les œuvres protégées par le copyright extraites de Common Crawl, les accusés ont cherché d’autres sources de textes copyrightés pour entraîner leurs modèles Llama », expliquent les avocats des éditeurs.

« Au départ, les accusés avaient envisagé d’obtenir des licences auprès de grands éditeurs pour utiliser des œuvres littéraires. Ils ont finalement opté pour une autre solution : télécharger illégalement les œuvres des demandeurs et du groupe de plaignants à partir de sites de piratage notoires, notamment LibGen, Anna’s Archive, Sci-Hub, Sci-Mag et d’autres », ajoutent-ils. Chargeant le CEO du groupe, ils affirment que « Zuckerberg lui-même a personnellement autorisé et activement encouragé cette violation ».

Mais les éditeurs n’accusent pas seulement Meta de téléchargement. Comme dans d’autres cas concernant l’utilisation d’œuvres par des IA génératives, ils affirment que les modèles de Meta restituent aussi ces œuvres dans leurs réponses.

« Llama génère des reproductions verbatim ou quasi verbatim des œuvres protégées par le copyright » des plaignants, affirme la plainte. « Par exemple, lorsqu’on lui soumet deux courtes phrases tirées du manuel à succès de Cengage, Calculus: Early Transcendentals, 9e édition, de James Stewart, Llama se met à reproduire mot pour mot la suite de la section », ajoutent les avocats.

« L’IA est à l’origine d’innovations transformatrices, d’une productivité accrue et d’une plus grande créativité pour les particuliers et les entreprises, et les tribunaux ont à juste titre estimé que l’entraînement d’un modèle d’IA sur des contenus protégés par le copyright pouvait relever du fair use », a affirmé le porte-parole de Meta Dave Arnold, au New York Times, « nous nous défendrons avec vigueur dans cette affaire ».

La question du fair use n’est pas encore tranchée

Si l’année dernière, les entreprises d’IA avaient gagné plusieurs manches judiciaires, contrairement à ce qu’affirme Meta, le débat sur le fair use pour entrainer les IA n’avait pas été tranché et le sujet reste encore ouvert. À l’époque, le juge Vince Chhaabria avait expliqué qu’il doutait de l’utilisation du fair use concernant les manuels scolaires en expliquant qu’il fallait aussi prendre en compte des « préoccupations concernant le préjudice qu’elle [l’IA générative] peut infliger au marché des œuvres sur lesquelles elle est entraînée ».

Cette réflexion peut sans doute s’étendre aux nombreuses œuvres qui se trouvent dans les catalogues des cinq éditeurs plaignants. Hachette, McGraw Hill et Cengage font partie des plus gros éditeurs de manuels scolaires dans le monde, par exemple. Et, si Elsevier est devenue une filiale d’un des plus grands courtiers de données du monde et fait maintenant d’importants bénéfices en devenant un data broker de l’activité scientifique, elle reste un des plus importants éditeurs scientifiques mondiaux.

La plainte demande la destruction de toutes les copies d’œuvres copyrightées utilisées par Meta pour l’entrainement de ses modèles après que l’entreprise en ait fait la liste exhaustive, qu’elle « cesse toute activité illégale » et « toute autre mesure que la Cour jugera appropriée ».

Interrogée par le New York Times, la responsable de l’Association of American Publishers qui a rendu publique cette plainte, Maria A. Pallante, affirme : « Nous nous concentrons sur la création d’un paysage de l’IA bien plus viable — un environnement transparent, équitable et participatif, doté de garde-fous pour protéger les auteurs et les éditeurs contre tout préjudice. Les préjudices sont déjà évidents ».

Oui, Edge stocke les mots de passe en clair dans la mémoire, c’est normal selon Microsoft

6 mai 2026 à 09:19
Toujours l’éternel combat : sécurité vs simplicité
Oui, Edge stocke les mots de passe en clair dans la mémoire, c’est normal selon Microsoft

Un chercheur affirme, avec un prototype publié sur GitHub, que le navigateur Edge charge tous les mots de passe de son gestionnaire en clair dans la mémoire de l’ordinateur. N’importe qui peut donc y accéder ? Presque, il faut des droits administrateur tout de même. Microsoft confirme, ajoutant que c’est un comportement voulu.

Le chercheur en cybersécurité Tom Jøran Sønstebyseter Rønning explique sur les réseaux sociaux que le navigateur « Microsoft Edge charge tous vos mots de passe enregistrés en mémoire en clair – même lorsque vous ne les utilisez pas ».

Si vous êtes admin, vous pouvez voir les mots de passe en clair

Il propose un prototype sur GitHub permettant de vérifier ce qu’il en est sur sa machine. Un prérequis limite tout de même fortement la portée de ce que le chercheur présente comme une vulnérabilité : il faut des « droits d’administrateur (pour pouvoir lire la mémoire des processus Edge d’autres utilisateurs) ». Le chercheur confirme dans son fil de discussion sur X « ne pas avoir réussi à le faire fonctionner sans privilèges administrateur ».

Nous avons testé le programme EdgeSavedPasswordsDumper du chercheur, avec succès sous Windows 11 avec Edge 147 (les deux étaient à jour)… à condition de lancer un terminal avec des droits administrateur. Dans ce cas, le programme retourne bien, l’ensemble des identifiants et mots de passe enregistrés dans Edge dans le terminal. Sans les droits administateur, le même terminal répond « [x] Not running elevated ».

Ce sont ceux également visibles dans edge://settings/autofill/passwords, à la différence que pour voir les mots de passe enregistrés dans le navigateur, il faut entrer le mot de passe Windows « pour permettre cette opération », comme l’indique la fenêtre de validation qui s’est ouverte (voir les captures ci-dessous).

La technique utilisée par le chercheur permet de s’affranchir de cette étape à condition, pour rappel, d’avoir déjà des droits d’administrateur. Il est « amusant » de voir Edge demander une validation alors que c’est déjà accessible librement, comme le prouve le programme du chercheur.

« Edge est le seul navigateur basé sur Chromium testé qui se comporte ainsi »

Selon Tom Jøran Sønstebyseter Rønning, « Edge est le seul navigateur basé sur Chromium testé qui se comporte ainsi. En revanche, Chrome utilise une conception qui rend beaucoup plus difficile pour les attaquants d’extraire les mots de passe sauvegardés simplement en lisant la mémoire des processus. Le navigateur ne déchiffre les identifiants que lorsque cela est nécessaire, au lieu de garder tous les mots de passe en mémoire en permanence ».

Chrome, toujours selon le chercheur, a d’autres protections, faisant que « les mots de passe en clair ne sont visibles que brièvement lors du remplissage automatique ou lorsque l’utilisateur les consulte, ce qui rend l’extraction massive de données en mémoire beaucoup moins efficace ».

Pour Tom Jøran Sønstebyseter Rønning, le risque est important dans des environnements partagés : « Si un attaquant obtient un accès administrateur sur un serveur, il peut accéder à la mémoire de tous les utilisateurs connectés (ou même les utilisateurs déconnectés) avec Edge en cours d’exécution ». On en revient toujours au même pré-requis important : être administrateur.

Microsoft confirme : c’est voulu et même « by design »

Le chercheur a contacté Microsoft, qui lui a répondu que c’est le comportement « by design » de son navigateur et qu’aucun correctif ne sera publié.

Un porte-parole confirme à Cybernews, en détaillant davantage son point de vue : « Les choix de conception dans ce domaine visent à trouver un équilibre entre performance, facilité d’utilisation et sécurité, et nous continuons de les évaluer face à l’évolution des menaces. Les navigateurs accèdent aux données de mots de passe en mémoire pour permettre aux utilisateurs de se connecter rapidement et en toute sécurité ; il s’agit d’une fonctionnalité normale de l’application ».

« L’accès aux données du navigateur, tel que décrit dans le scénario signalé, nécessiterait que l’appareil soit déjà compromis », ajoute Microsoft. En effet, il faut déjà être administrateur. Comme le montre Chrome avec une surface d’attaque plus limitée, il est tout de même possible de réduire les risques.

Comme le fait remarquer un internaute sur X, cette affaire n’est pas sans en rappeler une autre de 2022 sur Chromium (la base de Chrome, Edge et d’autres navigateurs). Il enregistrait en clair des mots de passe et d’autres informations dans la mémoire de l’ordinateur.

De manière générale, la communauté de la cybersécurité recommande davantage d’utiliser un gestionnaire de mot de passe dédié plutôt que ceux intégrés dans les navigateurs, notamment car la sécurité est leur première raison d’être. C’est également l’argument mis en avant par les gestionnaires de mots de passe qui prêchent évidemment pour leur paroisse.

☕️ Google renouvelle son Android Show le 12 mai et promet des nouveautés majeures

6 mai 2026 à 08:37


Google a confirmé mardi une organisation en deux temps pour ses conférences du mois de mai dédiées à l’univers du mobile. Le moteur de recherche tiendra d’abord une présentation baptisée The Android Show, programmée le 12 mai 2026 à 19 heures (heure de Paris).

Comme en 2025, cet événement centré sur Android est pensé comme un prélude aux sessions plus techniques et couvrant un périmètre plus large de sa traditionnelle Google I/O, organisée à Mountain View les 19 et 20 mai prochain.

D’après Sameer Samat, président des activités Android chez Google, l’événement du 12 mai devrait servir à annoncer les plus importantes mises à jour Android jamais réalisées. « Vous ne voudrez pas manquer ça ! », clame-t-il sur X.

Annonce de l’Android Show du 12 mai 2026

C’est bien sûr Android 17, dont la bêta 2 fait l’objet de tests depuis fin février et dont le SDK final est attendu sous peu, qui devrait constituer le cœur des annonces.

En 2025, l’Android Show s’était révélé riche en nouveautés, centrées notamment autour de la sécurité et de l’intégration renforcée de l’IA Gemini.

Messageries chiffrées : la Délégation parlementaire au renseignement relance la polémique

6 mai 2026 à 08:15
C'est encore nous !
Messageries chiffrées : la Délégation parlementaire au renseignement relance la polémique

Plus d’un an après avoir essayé de l’introduire dans la proposition de loi Narcotrafic, la délégation parlementaire au renseignement relance le débat sur l’introduction de portes dérobées dans les messageries chiffrées. Les parlementaires évoquent « un accès ciblé à certains contenus chiffrés » en passant par l’échelle européenne mais sans exclure une initiative législative nationale.

La délégation parlementaire au renseignement insiste : « l’impossibilité d’accéder au contenu des communications chiffrées constitue un obstacle majeur pour l’activité de la justice et des services de renseignement ».

Pourtant, l’année dernière l’article 8 ter de la proposition de loi Narcotrafic, qui était critiquée pour l’introduction d’une porte dérobée obligatoire dans les messageries chiffrées, avait finalement été retiré. Mais les membres de la délégation parlementaire au renseignement n’ont pas renoncé.

D’ailleurs, interrogé par Public Sénat, Cédric Perrin, sénateur LR et membre de la délégation, défend toujours l’article en question : « L’article 8 ter que j’avais fait adopter ne visait pas du tout à obtenir des clés de chiffrement mais à introduire dans une conversation un tiers fantôme avant le chiffrement ».

La délégation parlementaire au renseignement (DPR) continue de plaider pour ce qu’elle appelle maintenant « un accès ciblé au contenu des messageries chiffrées » dans une communication [PDF] publiée ce lundi 4 mai en marge de la publication de son rapport annuel.

Pour rappel, la DPR regroupe 8 membres du parlement : les sénatrices et sénateurs Muriel Jourda (LR), Agnès Canayer (LR), Gisèle Jourda (PS) et Cédric Perrin (LR) ainsi que les députés et députées Florent Boudié (Ensemble), Jean-Michel Jacques (Ensemble), Caroline Colombier (RN) et Aurélien Rousseau (PS).

Le dispositif de recueil des données informatiques, trop coûteux et complexe

Elle y déplore que « l’impossibilité d’accéder au contenu des communications chiffrées » dans les messageries chiffrées comme Signal ou Whatsapp « constitue un obstacle majeur pour l’activité de la justice et des services de renseignement ».


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Amazon ouvre sa machine logistique à toutes les entreprises

6 mai 2026 à 07:28


Le petit monde de la logistique compte un nouvel acteur, et pas des moindres : Amazon a en effet annoncé que son infrastructure de distribution mondiale peut maintenant être utilisée par n’importe quelle entreprise, y compris si elle ne vend rien sur Amazon. Rude concurrence pour UPS, DHL ou encore FedEx.

Amazon espère refaire le coup d’AWS. La plateforme d’hébergement en ligne avait été lancée en 2006, d’abord pour moderniser l’infrastructure interne du géant du e-commerce. Elle s’est ensuite ouverte à d’autres entreprises, avec le succès que l’on sait : AWS est aujourd’hui un des plus grands fournisseurs infonuagiques au monde.

Avec Amazon Supply Chain Services (ASCS), le mastodonte états-unien reprend la même stratégie, mais pour la logistique. Amazon exploite une gigantesque flotte comptant plus de 100 avions, 80 000 camions, 24 000 containers, un système d’approvisionnement et de distribution de premier plan, sans oublier la livraison du dernier kilomètre assurée par ses bons soins ou par des livreurs tiers.

Image : Amazon

Jusqu’à présent, ce réseau était au service d’Amazon et des vendeurs tiers de sa boutique. Depuis 2006, plus de 80 milliards d’articles provenant de vendeurs indépendants ont transité par la gestion logistique des commandes d’Amazon (préparation, emballage, expédition, gestion des retours), des opérations complexes et coûteuses sur le plan opérationnel quand on est un vendeur solo.

Avec le temps, le groupe a ajouté de nouveaux services de transport, de dédouanement, de stockage en gros et de distribution sur plusieurs canaux de vente. « Les vendeurs qui utilisent ces solutions de bout en bout enregistrent des ventes supérieures d’environ 20 % », affirme Amazon. 

Le groupe a annoncé l’ouverture d’ASCS aux entreprises de toutes tailles et de tous types (santé, automobile, industrie, commerce de détail…), pas besoin de vendre quoi que ce soit sur Amazon. Ce sont de nouvelles capacités de fret, de distribution et de livraison qui vont concurrencer celles des autres poids lourds du secteur.

Plusieurs clients utilisent déjà des services d’ASCS : Procter & Gamble fait transporter des matières premières vers ses sites de production, puis les achemine à travers son réseau de distribution ; 3M se sert du fret Amazon pour déplacer ses produits depuis ses sites de production vers les centres de distribution.

Selon le cabinet d’études Grand View Research, le marché mondial de la logistique au sens strict (transport, entreposage et distribution des marchandises) pèse près de 4 000 milliards de dollars, et il pourrait frôler les 6 000 milliards en 2030. Si tout le monde en connait les principaux représentants, le marché est en fait très fragmenté, avec des milliers d’acteurs locaux et régionaux. L’arrivée d’Amazon, avec sa puissance de feu, a toutes les allures d’un chien au milieu d’un jeu de quilles.

Entraînement des IA et droit d’auteur : l’industrie culturelle veut l’adoption rapide de la loi

6 mai 2026 à 07:09
La facture va-t-elle arriver pour les acteurs de l'IA ?
Entraînement des IA et droit d’auteur : l’industrie culturelle veut l’adoption rapide de la loi

Plus de 80 organisations culturelles appellent au vote rapide par l’Assemblée nationale d’une proposition de loi adoptée par le Sénat sur la présomption d’utilisation des contenus par les fournisseurs d’IA. Un texte qui donne à l’industrie culturelle un levier contre le « pillage généralisé » de leurs créations.

Le 8 avril, le Sénat adoptait la proposition de loi « relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle ». Voté à l’unanimité, le texte instaure donc une présomption d’exploitation d’une œuvre par un opérateur d’IA. 

La culture presse le pas

La proposition renverse la charge de la preuve, puisque c’est au fournisseur d’IA de prouver qu’il n’a pas utilisé une œuvre. « Ce ne sera plus au créateur de prouver le moissonnage de son œuvre », décryptait l’auteure de la proposition de loi, la sénatrice Agnès Evren (LR). Les entreprises de l’IA font régulièrement l’objet de plaintes pour avoir pioché sans ménagement ni autorisation dans des ouvrages ou des créations protégés par le droit d’auteur.

Le texte est désormais entre les mains de la commission des affaires culturelles et de l’éducation, en attendant son examen par les députés. Histoire d’accélérer la cadence, 81 organisations du secteur de la culture et de l’information – parmi lesquelles l’ADAMI, la SCAM, la SACEM ou le SNEP – appellent [PDF] à une inscription rapide de la proposition de loi à l’ordre du jour de l’Assemblée nationale.

La présomption mise en place par le texte « rééquilibre le rapport de force entre nos secteurs culturels et les entreprises de l’IA » et « crée donc les conditions d’un dialogue pour installer une nouvelle chaîne de valeur », écrivent les signataires. Ils ajoutent ne pas pouvoir continuer à « accepter qu’un secteur économique se construise sur le pillage généralisé d’un autre secteur au mépris de l’État de droit, alors qu’il existe une alternative vertueuse au bénéfice de tous. »

Les organisations veulent la mise en place d’un « marché de licences volontaires » qui garantirait la compétitivité de la presse et des industries culturelles, ainsi que leur capacité d’investissement. Il est aussi question de la sécurité juridique comme « avantage concurrentiel » au bénéfice des modèles et d’une « IA responsable, tournée vers l’humain ». 

Présomption d’exploitation contre exception au droit d’auteur

Les secteurs de la culture et de l’information sont « prêts à s’adapter au modèle économique de leurs futurs partenaires », mais encore faut-il qu’ils viennent à la table des négociations. C’est tout le sens de la loi votée par le Sénat, mais son passage tel quel à l’Assemblée nationale n’est pas gagné.

Le gouvernement s’est en effet montré plus réservé sur le fond. « Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie », expliquait Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique. « Le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques », posait prudemment Catherine Pégard, ministre de la Culture. « Mieux vaut un bon accord qu’un mauvais procès. »

Cette « présomption d’exploitation des contenus » va en tout cas à rebours de ce qui se passe ailleurs dans le monde. Au Royaume-Uni, une réforme du copyright prévoyait une exception au droit d’auteur pour permettre l’entraînement de modèles IA à des fins commerciales, sans autorisation préalable. Il revenait aux créateurs de s’opposer à l’usage de leurs œuvres. La mobilisation des artistes et de la société civile ont forcé le gouvernement à suspendre temporairement ce projet.

Au niveau de l’Union européenne, le Parlement européen a voté le 11 mars dernier les recommandations du rapport d’Alex Voss sur le droit d’auteur et l’intelligence artificielle générative. Parmi ses propositions : une « présomption réfragable » qui s’appliquerait en cas de manque de transparence sur les données d’entraînement des modèles. La proposition du Sénat vise cependant plus large, puisqu’elle facilite les recours des ayants droit.

Grand ménage de printemps chez Xbox, avec l’arrêt de Copilot sur mobile et consoles

6 mai 2026 à 06:30
Qu'ouïs-je ?
Grand ménage de printemps chez Xbox, avec l’arrêt de Copilot sur mobile et consoles

La nouvelle patronne de la division Xbox met un terme aux développements liés à l’IA dans l’environnement de jeu de Microsoft et annonce le retrait des fonctions Copilot déjà implémentées.

Asha Sharma continue d’imprimer sa marque dans la division Xbox qu’elle dirige depuis le mois de février. Après avoir imposé ses troupes à la direction de ce qui s’appelait auparavant Microsoft Gaming, elle annonce le retrait du Copilot Xbox sur mobile et l’arrêt du développement de Copilot sur les consoles. Un virage pour le moins surprenant, mais dans la droite ligne des changements structurels indispensables selon elle pour permettre à Xbox de rebondir.

La nouvelle boss de Xbox ne s’interdit rien. Asha Sharma, qui bénéficie visiblement d’une grande marge de manœuvre de la part de la direction de Microsoft, a déjà pu baisser les prix de plusieurs formules du Game Pass. Elle a également les coudées franches pour opérer des changements encore plus profonds : la version de Copilot dédiée aux jeux vidéo est « mise en retrait » sur les smartphones. Et le développement de Copilot sur les consoles Xbox est tout simplement arrêté.

Adieu Copilot pour l’app Xbox, on te connaissait à peine.

Il existe trois versions de Copilot pour le jeu vidéo, une initiative présentée en mars de l’année dernière  : pour les PC sous Windows 11 depuis septembre 2025, pour les smartphones dans l’app mobile Xbox depuis novembre, et une déclinaison pour les consoles Xbox Series S/X qui devait sortir courant 2026.

La directrice générale de Xbox ne précise pas le sort qui sera fait au Gaming Copilot de Windows, mais les deux autres versions sont maintenant sur une voie de garage. Le principe est le même pour toutes les moutures  : un bot conversationnel censé aider le joueur qui peut lui poser des questions concernant le gameplay d’un jeu.

La décision d’Asha Sharma a ceci de surprenante qu’elle est un transfuge de CoreAI, la division de Microsoft en charge des plateformes IA de l’éditeur. Mais, comme elle l’a indiqué à plusieurs reprises, tout est sur la table pour redresser Xbox. « Nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA », affirmait-elle lors du passage de témoin avec Phil Spencer. « Xbox doit accélérer, renforcer ses liens avec la communauté et réduire les frictions. Vous nous verrez commencer à retirer les fonctionnalités qui ne correspondent pas à notre direction », a-t-elle ajouté hier.

Le mémo-manifeste « We Are Xbox » publié fin avril confirmait la volonté de réévaluer l’approche de la division sur « les exclusivités […] et l’IA ». On pensait que Copilot, le bébé de Microsoft et fer de lance de la stratégie IA de l’éditeur, allait passer au travers des gouttes, mais non. Asha Sharma a peut-être été guidée par un certain pragmatisme : le nombre d’utilisateurs de ces versions de Copilot pour le jeu est certes secret-defense, mais on peut se risquer à penser que l’engouement n’était pas au rendez-vous.

Quelques heures plus tôt, elle annonçait une vaste réorganisation à la tête de la division en plaçant à des postes-clé des personnes de confiance, venant majoritairement de CoreAI : ingénierie, abonnements, design, développement… « Aujourd’hui, nous avons promu des responsables qui ont contribué à construire Xbox, tout en faisant entrer de nouvelles voix pour nous aider à avancer. Cet équilibre est important pour remettre l’activité sur les rails », explique-t-elle.

Le prochain grand rendez-vous pour Xbox et pour Asha Sharma est d’ores et déjà connu : le showcase Xbox du 7 juin, où il s’agira de fêter comme il se doit les 25 ans de Xbox.

☕️ Les promesses non tenues autour de Siri vont coûter cher à Apple

6 mai 2026 à 05:57


Apple n’en finit pas de payer les errements de son intelligence artificielle. Dévoilée en grande pompe en juin 2024, la version « personnalisée » de Siri n’est toujours pas disponible, deux ans plus tard. Ce qui n’a pas empêché le constructeur d’en faire la promotion dans des spots de pub qui vont lui coûter très cher.

Apple paie les pots cassés d’Apple Intelligence. Un arrangement à l’amiable de 250 millions de dollars a été proposé par le constructeur pour éteindre un recours collectif lancé en Californie l’an dernier. Les plaignants expliquent qu’Apple a fait la promotion de « capacités IA qui n’existaient pas à l’époque, qui n’existent toujours pas, et qui n’existeront pas dans les deux prochaines années ou plus ». 

De la publicité trompeuse donc, qui s’incarnait dans des spots diffusés à la télé américaine après le lancement de la gamme d’iPhone 16, en septembre 2024. On y voyait Bella Ramsey, actrice des séries Game of Thrones et The Last of Us, parler avec une version de Siri aux stéroïdes, capable de croiser des informations provenant de plusieurs apps et d’exploiter le contexte d’utilisation pour répondre aux questions. Apple a d’ailleurs discrètement supprimé une de ces publicités, qui présente un assistant n’existant toujours pas à l’heure actuelle. Heureusement, internet a de la mémoire :

Apple a fini par livrer une grande partie des fonctionnalités IA présentées durant la WWDC 2024. Toutes… sauf ce « Siri 2.0 », faute de modèle IA suffisamment performant pour prendre en charge les nouveautés dédiées à l’assistant. Les reports à répétition ont provoqué une crise en interne, qui a débouché sur une réorganisation de la division IA et le départ de son principal responsable, John Giannandrea.

Si la prudence s’impose, le « Siri personnalisé » devrait finalement apparaitre dans iOS 27. Début janvier, Apple confirmait un accord avec Google pour utiliser les modèles de Gemini pour alimenter ses futures fonctions IA, dont l’assistant.

Quant à la class action, le chèque proposé par Apple doit encore être validé par le juge en charge du dossier. Si l’accord est approuvé, il s’agira d’un des règlements judiciaires les plus importants jamais conclus par l’entreprise. Il ne comporte aucune reconnaissance de faute de la part d’Apple.

[MàJ] Elon Musk vs OpenAI : « l’amateurisme total » du conseil d’administration d’OpenAI

12 mai 2026 à 13:42
Le divorce le plus cher de la tech
[MàJ] Elon Musk vs OpenAI : « l’amateurisme total » du conseil d’administration d’OpenAI

C’est le procès du siècle (même si le siècle est encore jeune) : Elon Musk et OpenAI s’affrontent devant le jury d’un tribunal fédéral en Californie. Une bataille à plusieurs (centaines de) milliards de dollars qui mêle rivalités personnelles, gouvernance opaque et visions opposées du futur de l’intelligence artificielle. Next vous propose une série de questions/réponses pour comprendre les enjeux, mais aussi un résumé, jour par jour, des éléments marquants de ce procès hors norme.

Ces deux-là ne partiront pas en vacances ensemble. Elon Musk et Sam Altman, autrefois alliés (ils sont tous les deux dans la liste de la dizaine de cofondateurs d’OpenAI), se jettent la vaisselle virtuelle dans la tête sur les réseaux sociaux depuis des années. Une animosité qui a débouché sur une plainte du premier contre le second il y a deux ans. Le procès, qui s’est ouvert le lundi 27 avril, battra son plein pendant plusieurs semaines.

Yvonne Gonzalez Rogers préside aux débats. Nommée en 2011 par Barack Obama, elle est juge fédérale au tribunal de district du Nord de la Californie. Elle connait bien le petit milieu de la tech, puisqu’elle a arbitré plusieurs dossiers majeurs de la Silicon Valley, en particulier le retentissant procès entre Epic Games et Apple. Très au fait des problématiques technologiques, elle n’hésite jamais à recadrer un témoin, qu’il soit anonyme ou milliardaire.

Pourquoi Elon Musk a-t-il porté plainte contre OpenAI ?

Elon Musk a porté plainte [PDF] contre OpenAI, Sam Altman et Greg Brockman (deux cofondateurs d’OpenAI) ainsi que Microsoft en mars 2024. Des 26 chefs d’accusation avancés par le milliardaire à l’époque, seuls deux subsistent aujourd’hui : l’enrichissement injustifié d’OpenAI, et la violation d’une fiducie caritative.

La forme juridique d’OpenAI est au cœur de la poursuite : l’entreprise, créée en 2015, était à l’origine une organisation à but non lucratif, autrement dit son objectif n’était pas de réaliser des profits. « Cette action en justice vise à contraindre OpenAI à respecter l’accord fondateur et à revenir à sa mission de développer une AGI au bénéfice de l’humanité, et non pour servir les intérêts personnels des défendeurs individuels et de la plus grande entreprise technologique au monde », explique la plainte.

Ces dernières années, Sam Altman a milité ardemment pour que la structure embrasse un modèle à but purement lucratif. Elle a finalement basculé sur une gouvernance hybride, avec une entité commerciale transformée en PBC (Public Benefit Corporation, soit entreprise d’intérêt public) dans laquelle l’organisation à but non lucratif devient actionnaire (à 26 %) avec un droit de contrôle sur la gouvernance et la nomination du conseil d’administration. Microsoft demeure un partenaire de premier plan, et un actionnaire de poids (environ 27 %).

Elon Musk reproche à OpenAI de « maximiser les profits » pour Microsoft, investisseur principal de la startup, alors que la mission de l’entreprise est de garantir que l’intelligence artificielle générale (AGI), autrement dit une IA capable d’accomplir les mêmes tâches qu’un humain, profite à toute l’humanité. Ce qui signifie, entre autres, de publier ses découvertes en open source.

Le plaignant dénonce ainsi les modèles IA fermés d’OpenAI, à l’instar de GPT-4. Lancé en mars 2023, le modèle fait forte impression… mais il rompt aussi avec sa mission d’origine consistant à rendre ses technologies accessibles au public. Un choix du secret motivé principalement par des considérations commerciales, et non par des impératifs de sécurité, déplore la plainte.

Que vient faire Elon Musk dans cette histoire ?

Elon Musk est un des fondateurs d’OpenAI, aux côtés de Sam Altman, Greg Bockman (le président de l’entreprise), ou encore le chercheur Ilya Sutskever. Un total d’1 milliard de dollars est promis par les cofondateurs et leurs financiers, parmi lesquels AWS ou encore un certain Peter Thiel, toujours dans les bons coups. Fin 2021 cependant, le total des financements se montait à seulement 133 millions de dollars.

Elon Musk a injecté 38 millions de dollars dans la startup, de l’argent qui aurait servi des objectifs commerciaux allant à l’encontre de la mission de l’entreprise. « J’ai eu l’idée, trouvé le nom, recruté les personnes clés, leur ai appris tout ce que je sais et fourni l’ensemble du financement initial », a-t-il affirmé durant son témoignage. 

Il a démissionné du conseil d’administration d’OpenAI en 2018, en raison d’un conflit d’intérêt potentiel entre son rôle chez Tesla et le développement de technologies de conduite autonome.

Il a indiqué à la barre qu’il n’était pas complètement opposé à une petite activité commerciale, d’ailleurs une entité à but lucratif a été créée en 2019. Néanmoins, le plaignant estime qu’elle a pris toute la place : « On ne peut pas avoir le beurre et l’argent du beurre », a-t-il déclaré. 

À plusieurs reprises pendant son témoignage (et aussi sur X), Musk a accusé Altman et Brockman de s’être enrichis sur le dos de l’organisation à but non lucratif, tout en bénéficiant de l’image positive associée à ce type de structure. L’activité d’OpenAI a explosé fin 2022 avec le lancement de ChatGPT, tandis que Microsoft mettait 13 milliards de dollars sur la table.

Que veut Elon Musk ?

Elon Musk veut contraindre OpenAI à « adhérer [de nouveau] à l’accord fondateur et revenir à sa mission de développer une AGI au bénéfice de l’humanité ». Durant son témoignage au procès, le milliardaire a martelé qu’« on ne peut pas voler une organisation caritative ». Pendant son témoignage, il a demandé à la juge de considérer l’annulation de la restructuration d’OpenAI.

Il veut également qu’OpenAI et Microsoft restituent les gains indûment obtenus – selon lui – grâce à ses contributions initiales. Cela inclut l’augmentation de valeur d’OpenAI et les investissements de Microsoft. Selon l’expert cité dans la plainte, cela représente entre 65,5 et 109,4 milliards de dollars pour OpenAI, et de 13,3 à 25,1 milliards pour Microsoft. Soit potentiellement plus de 130 milliards de dollars dans la fourchette haute, que le plaignant propose de verser à l’entité à but non lucratif d’OpenAI.

Ce n’est pas tout, Elon Musk veut aussi le départ de Sam Altman et de Greg Brockman de leurs fonctions, des dommages-intérêts punitifs, ainsi que d’autres réparations financières durant le procès. Il reviendra au jury d’évaluer les montants pour chaque chef d’accusation.

Quelle est la réponse d’OpenAI ?

La plainte d’Elon Musk est considérée comme une « tentative infondée et motivée par la jalousie pour entraver un concurrent », a expliqué OpenAI sur les réseaux sociaux. « Nous sommes ici parce que M. Musk n’a pas obtenu ce qu’il voulait chez OpenAI », a poursuivi William Savitt, l’avocat d’OpenAI, lors de sa déclaration liminaire du procès.

« Mes clients ont eu l’audace de continuer et de réussir sans lui […] Ce n’est pas un fondement valable pour une action en justice ». Pour OpenAI, la plainte est infondée. Pire encore : Elon Musk n’aurait jamais exprimé l’idée que le labo IA devait rester une organisation strictement à but non lucratif. « Ni même qu’il pensait que cela devait être le cas », a affirmé la défense.

Elon Musk a créé xAI en 2023 pour participer à la course à l’IA générative. Désormais intégré dans SpaceX, le labo IA a été valorisé à hauteur de 250 milliards. Contre 852 milliards pour le rival de prétoire… Par un heureux hasard, SpaceX et OpenAI devraient se lancer en bourse cette année.

Sur quoi va déboucher cette bagarre de cour de récré ?

Bien malin qui saura le dire. Si le jury suit Elon Musk, OpenAI devrait revoir sa structure, impliquant une nouvelle et lourde restructuration de l’entreprise sans trop d’espoir de se lancer en Bourse. Un retour en arrière qui risquerait de fragiliser OpenAI et de lui faire perdre la course à l’IA.

À l’autre bout du spectre judiciaire, un rejet pur et simple de la plainte renforcerait la structure du modèle hybride d’OpenAI, et provoquerait un revers symbolique pour Elon Musk. Et il y a toutes les nuances entre ces deux extrêmes, d’un accord à l’amiable toujours possible à la reconnaissance de certains griefs émis par le milliardaire.

Le procès sera aussi l’occasion de découvrir les coulisses parfois crapuleuses d’une des startups les plus en vue, à quelques mois d’une introduction en bourse très attendue (si elle arrive).

Mardi 28 avril : où l’on apprend qu’Elon Musk est un spéciste pro-humain

Au premier jour de son témoignage, Elon Musk a voulu marteler sa position auprès du jury : « Ce n’est pas acceptable de détourner une organisation caritative ». C’est une cause qui le dépasse, assure-t-il, avant de mettre en garde : s’il devait perdre cette bataille, les États-Unis risqueraient de « perdre toutes leurs organisations caritatives. »

Un discours repris très vite par la juge Yvonne Gonzalez Rogers, qui a expliqué aux jurés que le point de vue d’Elon Musk sur le sujet relevait d’une opinion n’ayant « aucune valeur légale ».

À la barre, le milliardaire a voulu se dépeindre comme altruiste. Une de ses motivations pour fonder et financer OpenAI était sa crainte de voir Google ne pas prendre suffisamment en compte la sécurité, alors que le géant du web s’engageait dans le développement de l’IA. Lors d’une rencontre avec Larry Page, cofondateur du moteur de recherche, la discussion a porté sur les risques que l’IA anéantisse l’humanité. Larry Page aurait alors répondu qu’un tel scénario serait « acceptable » tant que l’IA survivait.

Le commentaire, jugé « délirant » par Elon Musk, aurait valu à ce dernier le qualificatif de « spéciste pro-humain » par Page. Cette discussion aurait donc poussé Musk à créer une entreprise IA pour faire contrepoids aux projets de Google. Les deux hommes ne se parlent plus depuis le débauchage d’Ilya Sutskever par Musk. Ce chercheur IA de Google a aidé à la création d’OpenAI.

William Savitt, l’avocat d’OpenAI, a dépeint un Elon Musk un peu différent et pas réellement intéressé par la startup. Ce dernier venait « une fois de temps en temps » pour donner un conseil et, à l’occasion, « hurlait sur les gens parce qu’ils n’allaient pas assez vite ». Il a également montré que les donations des autres financiers de la jeune startup dépassaient très largement ceux d’Elon Musk.

Quant à la promesse selon laquelle OpenAI resterait une organisation à but non lucratif, le patron de Tesla aurait pris des vessies pour des lanternes. « La seule personne qui affirme avoir entendu ces promesses est M. Musk lui-même », décoche-t-il.

Mercredi 29 avril : où l’on apprend que Tesla aurait pu avaler OpenAI

Elon Musk a caressé un temps la possibilité d’intégrer OpenAI dans Tesla, d’après un courriel glissé dans le dossier de l’affaire. C’était du moins une proposition faite aux fondateurs de la startup IA. 

William Savitt, l’avocat d’OpenAI, en a profité pour corriger le milliardaire qui avait affirmé à la barre que Tesla ne cherchait pas à développer l’intelligence artificielle générale (AGI) : un de ses tweets remontant au mois de mars indique tout le contraire… « Tesla sera l’une des entreprises à créer une intelligence artificielle générale (AGI), et probablement la première à y parvenir sous une forme humanoïde ou capable de manipuler la matière », affirme le message sans équivoque.

Elon Musk a créé xAI en 2023, et même si cette nouvelle entreprise est sur le même secteur qu’OpenAI, il a tenu à en minimiser l’importance. « À ce stade, elle est techniquement concurrente, mais beaucoup plus petite qu’OpenAI », a-t-il indiqué face à son avocat.

Jeudi 30 avril : où l’on apprend qu’Elon Musk voulait transformer OpenAI en société à but lucratif

Jared Birchall, un des plus fidèles collaborateurs d’Elon Musk, est passé à la barre. William Savitt, l’avocat d’OpenAI, l’a interrogé sur un dépôt de documents visant à créer pour OpenAI une société commerciale à mission (« for-profit benefit corporation », PBC) en 2017, sous la direction d’Elon Musk.

C’est un moyen pour la défense de démontrer au jury le double langage de Musk : d’un côté il veut défendre le statut d’organisation caritative d’OpenAI, mais de l’autre il imaginait une structure permettant de réaliser des profits, même si l’entreprise demeurait guidée par une mission plus large d’intérêt public.

Le milliardaire avait cependant botté en touche un peu plus tôt durant le procès. Il a confirmé que ces documents avaient été déposés « au cas où ils seraient nécessaires ». Ça n’a finalement pas été utile. En 2025, OpenAI a bien changé de structure : l’ancienne filiale à but lucratif a été transformée en PBC, mais elle reste contrôlée par OpenAI Foundation, une organisation à but non lucratif.

Autre sujet plus technique abordé ce jour : la distillation. Cette technique d’apprentissage entraîne un modèle plus petit à imiter les réponses d’un modèle plus puissant. Au lieu d’entraîner un modèle uniquement avec des données brutes, il pose des questions à un modèle existant, puis le labo IA utilise les réponses obtenues comme matière d’entraînement.

Les modèles « distillés » de la sorte sont moins coûteux à faire tourner tout en se montrant capables d’atteindre des performances proches des modèles plus avancés. Les entreprises IA états-uniennes reprochent régulièrement à leurs homologues chinoises d’user et d’abuser cette technique pour accélérer le développement de leurs modèles à peu de frais.

Il se trouve que xAI y a eu recours en s’appuyant sur les modèles d’OpenAI, notamment pour entraîner le bot Grok. Elon Musk l’a admis pendant le procès (« oui »), tout en essayant de le nuancer (« en partie ».) Ça n’a rien de très surprenant, sachant que xAI est parti avec des années de retard sur OpenAI. Si le processus de distillation n’est pas explicitement illégal, il peut enfreindre les conditions d’utilisation.

Lundi 4 mai : où l’on apprend qu’Elon Musk a voulu s’arranger à l’amiable deux jours avant le procès

Dans un document déposé dimanche 3 mai, on apprend qu’Elon Musk a envoyé un message texte au président d’OpenAI, Greg Brockman, pour évaluer son intérêt concernant un arrangement à l’amiable. Un message envoyé deux jours avant l’ouverture du procès. Brockman lui a alors proposé que chaque partie laisse tomber ses revendications respectives, ce qui n’a pas semblé satisfaire Musk. 

Ce dernier a ainsi rétorqué : « D’ici la fin de la semaine [dernière, ndlr], toi et Sam serez les hommes les plus détestés d’Amérique. Si vous insistez, ainsi soit-il ». Ça n’est visiblement pas arrivé, mais le procès est loin d’être terminé ! Les avocats d’OpenAI estiment que cette initiative d’Elon Musk « tend à établir l’existence d’un mobile et d’un biais, et en particulier que [sa] motivation […] est d’attaquer un concurrent et ses dirigeants ».

Mardi 5 mai : où l’on apprend que le président d’OpenAI voulait un milliard de dollars

Greg Brockman, le président d’OpenAI, tenait un journal pour noter ses pensées, et comme dans tout journal personnel, les réflexions s’entrechoquent et parfois, se contredisent. Durant son témoignage à la barre, il a dû s’expliquer sur la teneur de certaines entrées qui donnent du poids aux allégations d’enrichissement personnel.

En 2017, il écrivait ainsi : « Financièrement, qu’est-ce qui me permettrait d’atteindre le milliard de dollars ?» Une entrée couchée sur le papier à la même époque de l’ultimatum de Musk : soit il prenait le contrôle d’une branche à but lucratif, soit l’organisation restait une association à but non lucratif. Dans son journal, Brockman évoquait aussi l’idée de transformer OpenAI en entreprise commerciale, en écrivant notamment que « gagner de l’argent pour nous semble formidable ».

Steven Molo, l’avocat d’Elon Musk, a demandé à Brockman si sa principale motivation était de devenir milliardaire, plutôt que de financer l’organisation à but non lucratif. Il l’a même comparé à un moment à un « braqueur de banque »… Le dirigeant a affirmé que la mission d’OpenAI (« servir l’humanité ») a toujours été sa motivation principale. Une compensation « juste » pour son travail en tant que fondateur était bien une considération, mais elle était secondaire.

Malgré tout, la participation de Greg Brockman dans OpenAI est aujourd’hui estimée à 30 milliards de dollars — il est donc bel et bien devenu milliardaire ! Et il n’a pas l’intention de « rendre » 29 de ces milliards à l’organisation caritative d’OpenAI, en expliquant avoir reçu cette participation avant l’explosion de la valorisation de l’entreprise. Il a également souligné avoir contribué à la construction de l’organisation à but non lucratif « la mieux financée du monde ».

Ailleurs dans son journal, le président d’OpenAI écrit qu’il serait « mal » de voler à Elon Musk l’organisation à but non lucratif, « ce serait moralement condamnable ». « Je ne vois pas comment nous pourrions transformer ça en entreprise à but lucratif sans une très sale bataille » si Musk en était écarté, indique-t-il aussi. On est là au cœur du procès.

À la barre, Brockman a tenu à recontextualiser ses propos. Ses réflexions concernaient uniquement le scénario dans lequel Musk aurait été évincé du conseil d’administration d’OpenAI par un vote, ce qui n’est jamais arrivé puisque le patron de Tesla a décidé de quitter la startup de son propre chef, en 2018. Il a également rappelé que l’immense majorité de la valeur actuelle d’OpenAI a été créée après le départ de Musk.

Greg Brockman doute aussi des capacités d’Elon Musk dans le domaine de l’IA générative. Lors de la présentation d’un prototype de ChatGPT, il n’aurait pas su reconnaitre l’importance du chatbot à tel point que l’ingénieur venu faire la démonstration a failli quitter le secteur de l’IA ! Brockman convient que Musk possède une expertise dans les fusées et les voitures électriques, mais « il ne connaissait pas l’IA, et je pense qu’il ne la connait toujours pas ».

Mercredi 6 mai : où l’on apprend que Sam Altman prend des arrangements avec la vérité

Sam Altman est-il franc du collier ? La question a été débattue (certes pas dans ces termes exacts…) durant le procès opposant Elon Musk au CEO d’OpenAI. Mira Murati, l’ancienne directrice technique de la startup, a témoigné en vidéo et sous serment que Sam Altman lui avait menti au sujet de la sûreté d’un modèle IA. Le service juridique de l’entreprise avait déterminé qu’il n’était pas nécessaire de faire examiner ce modèle par le comité en charge de la sécurité, aurait affirmé le patron d’OpenAI.

Mira Murati a déclaré dans sa déposition que Sam Altman n’avait pas dit la vérité sur ce dossier. Elle a voulu en avoir le cœur net auprès du directeur juridique Jason Kwon, qui est depuis devenu directeur de la stratégie : « J’ai confirmé que ce que disait Jason et ce que disait Sam n’étaient pas la même chose. ». Le modèle en question a fini par passer sous la loupe du comité de sécurité, sur sa demande.

« Je demandais à Sam de diriger, de le faire avec clarté, et de ne pas saboter ma capacité à faire mon travail », a-t-elle expliqué. Murati n’est pas la première à pointer du doigt les contradictions et les zones grises de Sam Altman ; plusieurs témoignages ont déjà dépeint le rapport très particulier avec la vérité du fondateur et directeur général d’OpenAI.

Le conseil d’administration d’OpenAI lui-même n’était pas convaincu par la sincérité de Sam Altman : c’est une des raisons pour lesquelles il a été éjecté de son poste fin 2023, remplacé par… Mira Murati. Qui a pourtant signé une pétition réclamant le retour du patron viré aux commandes de l’entreprise, la seule manière de « stabiliser » OpenAI, rapporte-elle.

Shivon Zilis, ancienne membre du conseil d’administration d’OpenAI, est aussi passée à la barre : de 2017 à 2023, elle a participé aux discussions sur les différentes formes que pouvait prendre OpenAI. Son témoignage était d’autant plus important qu’elle est aussi la compagne d’Elon Musk, et la mère de quatre de ses enfants (il en a douze en tout).

Zilis a quitté le board en 2023 après la création de xAI. Il n’était « pas approprié » de rester en poste alors que le milliardaire lançait une entreprise concurrente et recrutait chez OpenAI, a-t-elle expliqué. « Quand le père de vos enfants lance un projet concurrent et commence à recruter chez OpenAI, il n’y a plus rien à faire », a-t-elle écrit à l’époque dans un message cité au tribunal. Elle a affirmé que sa relation avec Musk n’avait pas influencé son travail au conseil d’administration : « [j’avais] une allégeance au meilleur résultat possible : une IA au service de l’humanité ».

La question d’un rapprochement avec Tesla s’est posée au début de l’aventure OpenAI afin de créer un labo de recherche sur l’AGI. Ça n’a évidemment débouché sur rien. En décembre 2017, Greg Brockman et Ilya Sutskever ont repoussé la proposition, selon Zilis. Elle a regretté que ces deux fondateurs n’aient pas voulu d’une telle opération : « Ils ne voyaient pas l’intérêt stratégique qu’il y avait à intégrer cette technologie dans Tesla […] Ils ne sont pas dans une logique de calculs ».

Dans le cadre de la transformation d’OpenAI en labo IA de Tesla, Elon Musk avait envisagé de proposer à Sam Altman un poste au conseil d’administration du constructeur automobile. Des échanges internes versés au dossier confirment que le milliardaire avait l’intention de faire entrer Altman dans l’orbite de Tesla ; plusieurs scénarios ont été envisagés, dont ce poste au board, ainsi qu’un rôle de directeur du labo interne.

Interrogée par les avocats d’OpenAI, Shivon Zilis a dit ne pas se souvenir de conditions imposées par Musk concernant les dons à l’organisation, ou encore de documents garantissant qu’OpenAI resterait à but non lucratif ou open source — une déclaration qui infirme les accusations d’Elon Musk. Elle a également estimé qu’un courriel de Sam Altman, dans lequel il disait son enthousiasme pour une structure à but non lucratif, ne constituait pas une promesse formelle.

Lundi 11 mai : où l’on apprend que Microsoft ne veut pas devenir IBM

Le témoignage ce lundi de Satya Nadella était particulièrement attendu. Le CEO de Microsoft a expliqué les liens entre son entreprise et OpenAI, qui vont bien au-delà du simple soutien à une startup : l’éditeur de Windows a investi 1 milliard de dollars en 2019, puis 2 milliards en 2021, et enfin 10 milliards en 2023. Beaucoup d’argent donc, ce qui a contribué à la transformation d’OpenAI en mastodonte du secteur, valorisé à 850 milliards de dollars.

Interrogé par Steven Molo, l’avocat d’Elon Musk, le dirigeant a convenu que l’investissement de Microsoft avait été une très bonne affaire. Mais « parce que nous avons été les seuls à prendre le risque ». Les relations avec OpenAI ont été tumultueuses, avant d’aboutir à un accord qui donne à Microsoft 27 % du capital de la startup. Une participation estimée à un peu plus de 200 milliards de dollars aujourd’hui.

Le directeur général de Microsoft a affirmé à la barre qu’Elon Musk n’a jamais évoqué ses préoccupations concernant l’investissement du géant logiciel dans OpenAI, qui aurait pu être en infraction avec des engagements caritatifs de la startup. Elon Musk a expliqué la semaine dernière que les 10 milliards mis sur la table par Microsoft en 2023 ont constitué le point de bascule : l’ampleur de la somme le préoccupait, « j’étais inquiet à l’idée qu’ils essaient en réalité de détourner l’organisation à but non lucratif ».

Pour Nadella, ces investissements successifs n’ont jamais été interprétés comme des dons. Dès le départ de la relation entre les deux entreprises, il était clair dans son esprit qu’il s’agissait d’un partenariat marketing puis franchement commercial.

Dès 2016, Microsoft avait proposé à OpenAI un accès à ses capacités de calcul à prix cassé. Mais en 2018, alors que les factures commençaient à s’empiler, « nous n’étions plus à l’aise avec l’idée de considérer cela comme une dépense marketing », a expliqué Nadella. C’est à cette époque que la relation entre Microsoft et OpenAI est devenue plus sérieuse.

En 2022, avant ce fameux investissement de 10 milliards, Satya Nadella a demandé aux dirigeants de Microsoft des solutions pour « pour poursuivre le partenariat » d’une façon qui soit favorable à l’éditeur. « Je ne veux pas que Microsoft soit IBM et qu’OpenAI devienne Microsoft », écrivait le dirigeant dans son courriel. En 1980, IBM signait un accord non exclusif pour distribuer DOS sur ses PC ; Microsoft a pu commercialiser en parallèle son système d’exploitation à de nombreux autres constructeurs, ce qui lui a permis de devenir le pivot logiciel du marché de l’ordinateur personnel.

Au bout du compte, Microsoft est devenue bien plus importante qu’IBM. Et Nadella ne voulait pas que l’histoire se répète à front renversé.

Satya Nadella est revenu sur le congédiement surprise de Sam Altman en novembre 2023, avant qu’il retrouve son poste quelques jours plus tard. « De l’amateurisme total », a cinglé le patron de Microsoft en parlant du conseil d’administration d’OpenAI à l’origine de ce pataquès.

Le board avait justifié l’éviction de Sam Altman par son manque de transparence, ce qui peut constituer un motif valable de licenciement d’un directeur général, mais « cela ne suffisait pas, parce qu’il s’agit du directeur général d’une entreprise dans laquelle nous avons investi et avec laquelle nous entretenons un partenariat très étroit. J’estimais donc qu’ils auraient dû m’expliquer quels étaient les incidents ou les éléments précis derrière cette décision ».

Le CEO de Microsoft tenait à avoir l’heure juste, mais « chaque fois que je demandais précisément pourquoi Sam avait été licencié, [le conseil] ne me donnait jamais de réponse claire ».

De l’amateurisme chez le conseil d’administration, c’est aussi ce qui ressort du témoignage d’Ilya Sutskever, transfuge de Google et cofondateur d’OpenAI. Membre du board en 2023, il s’interrogeait aussi sur le comportement d’Altman. « Le processus [d’éviction] semblait précipité. Ce groupe d’administrateurs n’était pas très expérimenté dans ce genre de situation… et ils ont également reçu des conseils juridiques qui n’étaient pas très bons. »

Ilya Sutskever a aussi dit son peu d’enthousiasme concernant l’hypothèse d’un rapprochement avec Anthropic, ce qui aurait « tué un rêve », a-t-il indiqué. Le chercheur a finalement aidé au retour de Sam Altman aux commandes, avant de quitter OpenAI en 2024. Sa participation personnelle se monte à 7 milliards de dollars.

Dernière mise à jour, 12/05 à 15h45. Publication initiale le 5/05

☕️ L’IA de Meta scrute profils et photos pour estimer l’âge des utilisateurs

5 mai 2026 à 15:29


Les moins de 13 ans ne peuvent officiellement pas créer de compte sur Instagram ou sur Facebook… même s’il est relativement facile de tromper le processus d’inscription. C’est pourquoi Meta a mis en place des mécanismes de vérification pour supprimer ces comptes, et les met à jour régulièrement. Pour repérer les petits malins, de nouveaux outils IA ont été développés pour analyser le contenu des profils.

L’IA peut analyser les publications, les commentaires, la biographie ou les légendes des photos à la recherche d’indices contextuels (anniversaires, mentions scolaires…). Le compte peut être désactivé en cas de doute, tandis que l’utilisateur doit prouver son âge. Meta annonce aussi un nouvel outil d’analyse visuelle des photos et vidéos, ce qui lui permet d’estimer l’âge à partir de la morphologie et de la taille de l’utilisateur. Ces données sont croisées avec des signaux textuels et comportementaux.

Meta l’assure : il ne s’agit pas de reconnaissance faciale, l’outil « n’identifie pas la personne précise présente sur l’image ». La reconnaissance faciale est pourtant en place dans Instagram depuis 2023. Cette analyse visuelle n’a été activée que dans une poignée de pays, un déploiement plus large est cependant dans les tuyaux. 

Image : Meta

En revanche, Meta a confirmé le lancement dans l’Union européenne de la technologie IA qui lui permet de basculer des comptes adultes vers des profils ados, avec toutes les restrictions de contenus que cela implique. Lancée en 2025, elle tente de déterminer si un compte est géré par un adolescent enregistré comme adulte. 

Il s’agit d’un modèle IA s’appuyant sur plusieurs signaux : infos de profil, interactions avec des contenus ou d’autres profils, comportements typiques selon l’âge. Mis à jour et ré-entrainé régulièrement, il est comparé en continu à un jeu de données d’évaluation de référence alimenté par des équipes humaines qui examinent les contenus anonymisés et les classent selon l’âge probable de leur auteur. 

Le modèle a d’abord été lancé aux États-Unis, il se déploie désormais de pays en pays. L’UE y a désormais droit dans Instagram, puis dans Facebook en juin.

Enfin, Meta rappelle qu’elle ne peut pas faire tout, toute seule. L’entreprise milite pour que la vérification de l’âge soit réalisée par les boutiques d’apps, donc par Apple et par Google. « Exiger une autorisation parentale et une vérification de l’âge au niveau de l’App Store ou du système d’exploitation offre un point centralisé, cohérent et respectueux de la vie privée pour garantir l’âge, plutôt que d’imposer à chaque application de se conformer à des règles différentes », explique le groupe. Plusieurs États américains imposent déjà cette vérification.

Bercy « décode » la désinformation et promet… des « sources ouvertes et accessibles »

5 mai 2026 à 14:50
On les prend au pied de la lettre !
Bercy « décode » la désinformation et promet… des « sources ouvertes et accessibles »

Les fakes news envahissent – polluent serait plus juste – de plus en plus l’espace médiatique. Cela va au-delà de la mésinformation ou désinformation, avec des ingérences étrangères. Les risques sont nombreux, notamment en période d’élections (les présidentielles approchent). Bercy lance son « décodeur » maison et promet de la transparence.

Le dispositif a été annoncé hier par le gouvernement : « Face à la recrudescence des fausses informations qui peuvent influencer l’opinion, les ministères économiques et financiers se dotent d’un dispositif de lutte contre la désinformation sous le nom de Bercy décode ».

Le ministère explique que « cette stratégie de lutte contre la désinformation s’intègre dans les dispositifs existants et est en lien notamment avec VIGINUM, le service de vigilance et protection contre les ingérences numériques étrangères ». La menace est croissante et les élections présidentielles de 2027 seront sans aucun doute un terrain

Bercy décode promet des « sources ouvertes et accessibles »

Bercy décode se présente comme un redresseur de torts dispositif permettant de se fixer « comme objectif de garantir que les chiffres, règles et dispositifs publics puissent être consultés, compris et vérifiés à partir de sources ouvertes et accessibles ». Une promesse qui n’est pas tombée dans l’oreille d’un sourd !

Sur Next, nous avons un long historique de demandes CADA en tous genres afin d’obtenir des informations justement pour travailler sur des données fiables, officielles. On en vient à rêver d’un monde dans lequel l’accès à toutes les données des impôts sont facilement accessibles et intelligibles, de même pour celles des marchés publics, des algorithmes de la CAF, des dépenses dans l’éducation et la recherche…

Clarification des faits et décryptage de l’actualité

Bercy décode, c’est aussi un « identité visuelle » pour des « contenus de clarification […] permettant au public d’identifier immédiatement les décryptages officiels produits par le ministère sur différentes thématiques telles que fiscalité, finances publiques, énergie, numérique, etc. ».

Actuellement, une dizaine de décryptages sont disponibles. Le plus ancien concerne la revente de cartes Pokémon qui serait « désormais dans le viseur du fisc ». Spoiler : oui, mais ce n’est pas nouveau et cela ne concerne pas que Pokémon.

Deux décryptages concernent les éoliennes en mer (sur le bruit et le bilan carbone), deux autres les voitures électriques (la pollution et les longs trajets), un autre les impôts : « Est-ce que seule la moitié des ménages paie des impôts ? ». Réponse : « Faux. Si moins d’un foyer fiscal sur deux est redevable de l’impôt sur le revenu, tous les Français contribuent néanmoins aux finances publiques. En effet, tous les Français s’acquittent des taxes sur la consommation, dont la principale est la TVA ».

Bercy en profite pour assurer une promo interne d’autres institutions qui ont également des outils contre la désinformation : le site du ministère de la Transition écologique, celui du ministère de la Santé (lire notre article sur son lancement), des Affaires étrangères, des Armées, de la Commission européenne et VIGINUM évidemment.

Le ministère se lance sur… TikTok. Et les autres réseaux sociaux ?

Le ministère de l’Économie en profite pour mettre en avant son récent compte TikTok, qui compte pour le moment une quinzaine de contenus. Il est déjà présent sur X depuis fin 2009. Si le ministre Roland Lescure est présent sur Bluesky, ce n’est pas le cas de son ministère. Encore trop souvent la classe politique et les institutions sont présents sur X, mais pas sur d’autres alternatives.

Le site Bercy décode propose enfin un dico de la désinfo – notamment sur la différence entre mésinformation et désinformation – et rappelle quelques bons réflexes à avoir pour éviter la désinformation :

  • Méfiez-vous des informations sensationalistes
  • Vérifiez la source
  • Recroisez l’information et vérifiez les faits
  • Faites attention aux photos et vidéos
  • Un doute ? Ne partagez pas l’information

Il manque un conseil : lire (ou relire) la longue enquête de Jean Marc sur les sites d’info générés par IA (il en a identifié plus de 13 000, rien qu’en français !), et installer l’extension Next pour être alerté lorsqu’on les consulte, ainsi que d’autres sites problématiques, notamment ceux identifiés par l’Autorité des marchés financiers (AMF) et les noms de domaines potentiellement suspects de RedFlagDomains.

☕️ Rakuten France, ex-PriceMinister, cherche un repreneur

5 mai 2026 à 14:14


Pionnier français de la vente en ligne, l’ex PriceMinister devenu Rakuten cherche un repreneur pour ses activités e-commerce en France. À défaut, l’entreprise envisage l’arrêt pur et simple de la version française de sa place de marché, ce qui se traduirait par la suppression d’environ 180 emplois.

Ce projet à deux issues possible, cession ou fermeture, a été présenté aux représentants du personnel le 7 avril dernier. Révélée par Capital, elle a depuis été confirmée par l’intermédiaire d’une déclaration transmise à l’AFP ainsi qu’à la rédaction de Next.

« Ce projet s’inscrit dans un contexte de déclin de l’activité depuis une dizaine d’années, malgré les efforts et investissements continus du groupe Rakuten en France, écrit l’entreprise. La reprise des activités par un acquéreur est privilégiée, dans la continuité des investissements et innovations menés ces dernières années pour soutenir le développement de la marketplace de Rakuten en France. »

À défaut, la fermeture de l’activité serait envisagée à partir du troisième trimestre 2026.

« L’activité de marketplace de Rakuten en France opère depuis une dizaine d’années dans un marché en rapide mutation et fait face à une perte d’activité chronique. Malgré les efforts marketing et opérationnels importants menés (tels que le lancement d’un programme fidélité de premier plan, le développement de l’offre de seconde main, le lancement de l’affiliation et la mise en place d’une solution logistique à destination des marchands), le nombre de clients a baissé de 33% en 10 ans et le trafic a reculé de 42% sur la même période.  », détaille la direction de Rakuten France.

En septembre dernier, Rakuten France annonçait le lancement d’une « version optimisée de sa marketplace » en Espagne.

Fondé en 2001, PriceMinister a fait pendant dix ans figure de poids lourd et de principale alternative à eBay sur le marché e-commerce français, jusqu’à motiver le rachat de l’entreprise par le géant japonais Rakuten en 2010. Renommé Rakuten France en 2018, le site combinait adroitement produits neufs et d’occasion sur sa place de marché, avec des logiques de fidélisation et des mécaniques de cashback avantageuses qui ont longtemps entretenu sa popularité.

La vague a toutefois fini par passer. D’après le baromètre trimestriel Fevad/Médiamétrie, Rakuten France totalisait quelque 9,5 millions de visiteurs uniques mensuels sur son site au troisième trimestre 2025. Une audience toujours très significative, mais inférieure de moitié à celles des nouvelles plateformes vedettes de type Shein et Temu, sans même parler de Vinted ou Leboncoin (30,2 millions de visiteurs uniques par mois) sur la seconde main.

La filiale française n’a communiqué aucun élément financier quant à sa situation, mais les résultats financiers de sa maison mère montrent que l’activité qui réunit Rakuten TV (services de vidéo à la demande) et Rakuten France est déficitaire à hauteur de plusieurs dizaines de millions d’euros depuis au moins trois exercices.

Extrait des résultats financiers 2025 du groupe Rakuten. En rose sur le graphique de droite, la contribution négative de l’ensemble EU qui réunit Rakuten TV et Rakuten France

La direction de Rakuten France assure que le projet se limite à sa marketplace et donc aux activités relevant du pur e-commerce :

« Le groupe Rakuten reste engagé en France et en Europe à travers ses autres entités qui poursuivent leur développement : Rakuten Symphony, Rakuten TV, Rakuten Viki, Rakuten Kobo, Rakuten Viber et Rakuten Advertising. Le Centre technologique Rakuten Europe, basé à Paris et jouant le rôle de pôle clé d’innovation technologique pour l’ensemble du groupe Rakuten, continuera de se développer et de soutenir les activités de Rakuten en France, en Europe et en Asie. »

Affaire Gisèle Pelicot : le site Cocoland a fermé, et fait une victime collatérale

5 mai 2026 à 13:42
T'as le look, coco
Affaire Gisèle Pelicot : le site Cocoland a fermé, et fait une victime collatérale

La plateforme anonyme de chat utilisée pour recruter les violeurs de Gisèle Pelicot avait brièvement réouvert un clone, qui a depuis été fermé suite aux révélations de Ouest-France. Une erreur de l’AFP a entraîné l’éditeur d’un site homonyme à fermer lui aussi son interface IRC, suite aux amalgames erronés de nombreux médias.

« Cocoland est sous surveillance, au moindre comportement illicite, mise en danger des enfants ou des femmes, ce site sera fermé », assurait ce lundi 4 mai sur France Inter la ministre déléguée chargée de l’IA et du Numérique, Anne Le Hénanff.

Une enquête avait en effet été ouverte la semaine passée suite à la découverte par Ouest-France de la réouverture d’un clone du sinistre site Coco, qui s’était fait connaître du grand public pour avoir été utilisé pendant 10 ans par Dominique Pelicot afin de recruter les violeurs de sa femme Gisèle, après l’avoir sédatée.

Sauf que le clone en question avait déjà été fermé dans la foulée de l’article de Ouest-France, d’une part, et que l’attention médiatique s’est focalisée, d’autre part, sur un site homonyme, mais qui n’avait rien à voir, et qui a lui aussi depuis fermé du fait des « amalgames » véhiculés par de nombreux médias à son sujet.

« Aujourd’hui, cocoland.cc est en ligne »

« Fermée en juin 2024 après avoir été citée dans 23 000 affaires pénales, la plateforme de tchat anonyme Coco resurgit sous une nouvelle adresse URL », révélait Ouest-France le 17 avril dernier, illustrant son article par une photo montrant que « COCOtchat » était accessible via l’URL cocoland.cc :

« Alors que son fondateur est mis en examen pour pédopornographie et proxénétisme aggravé, ce site de discussions, aux caractéristiques techniques et visuelles parfaitement identiques, génère même des revenus publicitaires. »

Créé au début des années 2010 par un entrepreneur d’origine française, Isaac Steidl, Coco.fr avait depuis migré sous le nom de Coco.gg, « avec une adresse sur l’île de Guernesey, des serveurs en Allemagne, un hébergement en Bulgarie ».

La plateforme avait été saisie par Eurojust en juin 2024, et Isaac Steidl, arrêté à Paris en janvier 2025, avait quant à lui été mis en examen pour proxénétisme aggravé, pédopornographie et corruption de mineurs. Or, « aujourd’hui, cocoland.cc est en ligne », révélait Ouest France mi-avril :

« Le site ne cherche même pas à dissimuler sa filiation : ses mentions légales indiquent explicitement que coco.gg était son ancien domaine. L’identité visuelle est identique. Le fonctionnement aussi : gratuit, anonyme, sans inscription. L’utilisateur saisit un pseudonyme et un âge -invérifiable- et accède immédiatement aux salons de discussion. »

Un spécialiste en cybersécurité expliquait en outre à Ouest-France qu’il s’agissait techniquement de la même infrastructure, déplacée vers un nouveau domaine, et que « le site est visiblement architecturé pour résister à une nouvelle fermeture » en étant hébergé chez un prestataire ukrainien, « un dispositif que l’on retrouve chez les opérateurs habitués à fonctionner sous pression juridique » :

« Ce n’est pas un clone, ni un site hommage créé par des tiers. L’architecture technique confirme la continuité opérationnelle : trois serveurs d’images distincts, un serveur vidéo dédié, un système de vérification par SMS, un sous-domaine de traitement des paiements, un environnement de développement et une intégration avec la plateforme Discord. »

Un fâcheux amalgame entre cocoland.cc et cocoland.info

Or, la dépêche AFP consacrée à cette réapparition ne mentionnait pas cocoland.cc, comme le faisait pourtant Ouest-France (dont l’article est derrière un paywall), mais cocoland.info, un site qui existe depuis plus de 10 ans et qui n’a a priori rien à voir avec Isaac Steidl.

Cocoland.info affiche d’ailleurs une « Mise au point officielle » depuis ce vendredi 1er mai, après que « plusieurs médias ont établi un amalgame » entre ce domaine et celui de cocoland.cc :

« Cocoland.info n’entretient aucun lien — juridique, technique ou humain — avec le site fermé par la justice, ni avec tout autre site reprenant son concept. »

Son éditeur rappelle que cocoland.info « est en ligne depuis 2009 ». On en retrouve une première trace en août 2011 sur la Wayback Machine d’archive.org, avec un « © 2009 », ce que souligne d’ailleurs l’éditeur de cocoland.info qui précise être « pleinement disposé à coopérer avec toute autorité judiciaire ou administrative souhaitant vérifier la nature, le contenu et l’ancienneté de ce site » :

« Son histoire, son contenu et son évolution sur plus de quinze ans sont intégralement consultables et vérifiables via la Wayback Machine (Internet Archive), ainsi qu’à travers les enregistrements publics successifs du nom de domaine (historique WHOIS). Ces éléments établissent que cocoland.info n’est PAS une réouverture du site fermé par la justice : il existait, sous cette forme et à cette adresse, bien avant que ce dernier ne soit fermé en 2024. »

De plus, et contrairement à coco.gg, « cocoland.info n’a jamais hébergé de plateforme de discussion ». Il intégrait en effet via iframe un applet IRC hébergé par le réseau EuropNet, « un réseau IRC public indépendant, donnant ainsi accès aux salons de discussion EuropNet » de « tchat gratuit sans inscription » :

« Ce service de tchat était intégralement opéré et modéré par EuropNet. Les échanges transitaient exclusivement par leurs serveurs. L’éditeur de cocoland.info n’avait aucun accès technique au contenu des conversations, ni aucune autorité sur la modération du réseau tiers. »

Le tchat a depuis été désactivé : « À la suite de cet amalgame médiatique, EuropNet a pris l’initiative de désactiver l’accès à son applet pour le domaine cocoland.info ».

Cocoland.cc avait en outre lui aussi été fermé suite aux révélations de Ouest-France

cocoland.cc avait lui aussi été désactivé la semaine passée, et n’affiche plus désormais qu’une interface proposant cinq « Mini Games ». Une mention « © 2014 Cocoland » laisse entendre qu’il aurait pu exister depuis des années, mais sans que nous puissions le vérifier, l’URL ayant été exclue de la Wayback Machine d’archive.org.

Sur X.com, plusieurs internautes avaient évoqué la réouverture de cocoland.cc depuis décembre dernier, dont l’un qui, en réponse à un tweet de la @Gendarmerie, précisait avoir alerté Pharos qu’on y trouvait des annonces de mineures prostituées disant avoir 15 ans.

Une méta-analyse sur les effets positifs de ChatGPT dans l’éducation rétractée 1 an après

5 mai 2026 à 12:50
Recherche précipitée
Une méta-analyse sur les effets positifs de ChatGPT dans l’éducation rétractée 1 an après

Une méta-analyse sur les effets de ChatGPT sur les élèves qui soutenait « un impact positif considérable » a été rétractée. Des chercheurs ont rapidement pointé des problèmes méthodologiques importants mais la revue n’a réagi qu’un an après.

En mai 2025, la revue Humanities and social sciences communications publiait une méta-analyse effectuée par les chercheurs chinois Jin Wang et Wenxiang Fan sur les effets de l’utilisation du chatbot d’OpenAI sur l’apprentissage à l’école qui affirmait que celui-ci avait « un impact positif considérable sur l’amélioration des résultats scolaires ». Près d’un an après avoir cautionné le sérieux de l’étude en l’ayant publiée, la revue, éditée par le géant Springer Nature, a décidé de la rétracter.

« L’éditeur [membre de l’équipe qui gère la revue] a décidé de rétracter cet article en raison de réserves concernant des incohérences dans la méta-analyse. Ces problèmes remettent en cause la confiance que l’éditeur peut accorder à la validité de l’analyse et aux conclusions qui en découlent », explique la note de rétractation publiée le 22 avril dernier. « Les auteurs n’ont pas répondu aux courriers concernant cette rétractation », ajoute la revue.

Un article cité déjà 500 fois

Entre-temps, selon Google Scholar, la méta-analyse a été citée plus de 500 fois dans des travaux scientifiques (relus par les pairs ou pas). Si ces travaux reposent de façon importante sur cette méta-analyse, les auteurs devront aussi se poser des questions sur la solidité de leurs travaux. Par exemple, elle était encore citée dans un article publié en février dernier dans la revue Scientific Reports, éditée aussi par Springer Nature.

Pourtant des critiques sont vite apparues. Ainsi, on pouvait trouver un commentaire sur la plateforme Pubpeer (qui permet de relever d’éventuels problèmes dans des articles déjà parus dans des revues scientifiques) dès juillet dernier.

Des chercheurs norvégiens ont sonné l’alarme


Il reste 61% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Homebridge 2.0 se fait Matter (en plus de HomeKit)

5 mai 2026 à 12:15


Homebridge est une solution logicielle open source permettant d’ajouter le support de HomeKit (la plateforme d’objets connectés d’Apple) à des produits qui ne le sont pas nativement. Par exemple, des caméras Ring d’Amazon sont ainsi accessibles et utilisables depuis l’application Maison (Home en anglais) d’Apple grâce à Homebridge.

Après trois ans de bêta, Homebridge commence à prendre en charge le standard Matter et passe pour l’occasion en version 2.0. L’app fait donc office de pont Matter, en plus de HomeKit. Les plugins Homebridge peuvent ainsi utiliser des produits Matter (et s’ouvrent notamment à l’écosystème Google). L’application Maison d’Apple est de son côté déjà compatible HomeKit et Matter.

Avant la migration, les développeurs mettent en garde : « Avant de faire une mise à jour, assurez-vous que le(s) plugin(s) que vous utilisez sont compatibles avec cette nouvelle version de Homebridge […] Node.js 18 et 20 ne sont plus pris en charge. Homebridge v2 nécessite Node.js 22 ou 24 ».

Une sonnette connectée Ring d'Amazon

Comme le rapporte The Verge, le développeur voit deux principaux cas d’usage. Pour commencer, « combler le fossé dans la prise en charge des appareils HomeKit : Apple a commencé à utiliser Matter pour les nouveaux types d’appareils plutôt que de les ajouter directement à HomeKit. Les aspirateurs en sont un exemple récent : Apple a ajouté la prise en charge des aspirateurs à l’application Home, mais via Matter, et non via HomeKit. Notre objectif est de combler cette lacune afin que les plugins Homebridge puissent offrir toutes les fonctionnalités pour ces types d’appareils. Nous pensons que cet objectif est tout à fait réalisable et qu’il s’agit de la priorité immédiate ».

Deuxième cas d’usage : « Utiliser d’autres contrôleurs Matter avec les plugins Homebridge : cela permettrait d’accéder à vos plugins Homebridge depuis d’autres contrôleurs Matter, comme l’application Aqara par exemple. Il s’agit là d’un projet à plus long terme – il nécessitera des mises à jour individuelles des plugins pour être pris en charge. Il faut donc s’attendre à un déploiement progressif au fil du temps ».

L’année dernière, Apple et Google avaient fait plusieurs annonces autour de Matter afin de faciliter son adoption en vue d’en faire un standard avec l’adoption la plus large possible. Matter débarquait ainsi dans Google Home.

☕️ Dav2d : VideoLAN publie son décodeur AV2 open source

5 mai 2026 à 10:16


Presque huit ans après Dav1d, VideoLAN remet le couvert avec Dav2d. Comme son nom l’indique, c’est une implémentation logicielle pour décompresser des vidéos AV2, le codec en cours de développement par l’Alliance for Open Media. Il prend donc la suite de Dav1d – qui est l’acronyme récursif de Dav1d is an AV1 decoder – pensé pour le codec AV1.

Dans la foire aux questions, il est précisé que Dav2d est toujours récursif, « mais c’est moins drôle que dav1d », reconnait l’équipe. Quoi qu’il en soit, Dav2d est proposé sous une licence très permissive : BSD 2-Clause ou « Simplified BSD License ».

Illustration : Flock

Sur le GitLab dédié de VideoLAN, il est indiqué que « dav2d est un décodeur AV2 multiplateforme, open source, axé sur la vitesse et la précision. Il est basé sur notre décodeur dav1d, très populaire. Il s’agit d’un projet encore préliminaire, qui ne devrait pas être utilisé en production, notamment parce que la spécification AV2 n’est pas définitive ». Ce projet de VideoLAN est réalisé dans « le cadre de son adhésion à l’Alliance for Open Media/AOM », en charge d’AV1 et AV2.

Les travaux ont débuté il y a quelques mois déjà, mais c’est encore une version très préliminaire en 0.0.1 (alias Merbanan). L’équipe cherche de l’aide, notamment des développeurs C et assembleur, ainsi que des testeurs… La FAQ se termine par un trait d’humour sur ce sujet : « Vous soucierez-vous de <mon architecture > ? De < mon OS > ? ». Réponse : « Oui, mais nous n’avons ni le temps ni les connaissances nécessaires. C’est pourquoi les correctifs et les contributions sont les bienvenus ».

AV1, pour rappel, a été lancé en 2018 et son adoption a pris du temps, notamment pour le navigateur Edge de Microsoft (version 121 en 2024) et les terminaux Apple (Mac avec puce M3, iPhone 15Pro et 16), comme le rappelle Lafibre.info dans son grand tableau récapitulatif des codecs populaires.

L’avantage d’AV1 est sa gratuité (pas de redevance, comme AV2), il peut être encapsulé dans des conteneurs tels que MP4, MKV ou même WebM. Il a donné naissance à AVIF pour AV1 Image File Format (un mélange entre les algorithmes de compression AV1 et du High Efficiency Image File Format ou HEIF).

noyb accuse LinkedIn de vendre l’accès à des infos qu’il devrait donner gratuitement

5 mai 2026 à 09:49
L'abo LinkedIn Premium sabordé au nom du RGPD ?
noyb accuse LinkedIn de vendre l’accès à des infos qu’il devrait donner gratuitement

L’association noyb a déposé plainte contre LinkedIn auprès de l’autorité autrichienne de protection des données. Elle constate que le réseau social refuse de communiquer gratuitement la liste des personnes ayant visité le profil d’un utilisateur au nom de l’article 15 du RGPD, alors que ces informations sont accessibles dans le cadre de l’abonnement LinkedIn Premium.

« 270 personnes ont consulté votre profil au cours des 90 derniers jours », affiche LinkedIn, après clic sur une notification signalant la visite d’un « recruteur » et de trois autres personnes. Problème : le réseau social ne donne que des indices succincts sur le profil des curieux en question. Pour savoir qui ils sont vraiment, la plateforme invite, ou plutôt incite, à souscrire son abonnement payant : « Développez votre carrière ou votre entreprise avec Premium. Accédez à la liste complète maintenant ».

Deux poids deux mesures ?

L’accès à ces données ne devrait-il pas être concédé gratuitement sur demande de l’utilisateur ? C’est l’hypothèse soulevée par l’association de défense de la vie privée noyb (none of your business), dans une plainte (PDF en allemand) déposée mardi 5 mai devant l’autorité autrichienne de protection des données, la DSB. Elle y invoque l’article 15 du RGPD, celui qui dispose qu’un internaute est en droit d’accéder aux données personnelles le concernant, sur demande, auprès d’un responsable de traitement.

Dans le détail, l’association explique représenter un internaute qui a tenté d’obtenir, auprès de LinkedIn, la liste des personnes ayant visité son profil. Pour ce faire, l’utilisateur a d’abord utilisé les fonctions de téléchargement des données personnelles mises à disposition par la plateforme. À défaut d’y avoir trouvé les visiteurs de son profil, il a ensuite sollicité directement le réseau social via son formulaire de contact, et se serait vu opposer une fin de non-recevoir.

Après relance, LinkedIn aurait répondu au plaignant ne pas être tenu de mettre à disposition les données relatives aux personnes ayant consulté son profil, dans la mesure où ce ne sont pas ses propres informations personnelles, mais celles d’autres membres.

LinkedIn utilise la possibilité de voir qui a visité votre profil comme un levier vers ses offres d’abonnement payant – capture d’écran

Autrement dit, le réseau social ne pourrait pas communiquer ces informations dans la mesure où elles concernent d’autres utilisateurs. Mais dans le même temps, son abonnement payant permet de faire sauter cette barrière.

Pour noyb, LinkedIn entretient à ce niveau un double discours difficilement tenable. « Il est clair que si ces données sont affichées dans le cadre d’un abonnement Premium, elles devraient également être accessibles sur demande, conformément à l’article 15 du RGPD », résume l’association dans un communiqué.

L’article 15 mentionne explicitement les « destinataires »

Pour justifier cette position, elle s’appuie notamment sur l’alinéa c) du paragraphe 1 de l’article 15, qui dispose que cette obligation de correspondance englobe « les destinataires » auxquels les données personnelles ont été communiquées. Elle rappelle par ailleurs que cette lecture du règlement a été confirmée par une décision de la CJUE faisant jurisprudence.

Elle fait enfin valoir que LinkedIn offre, au niveau du profil, une option permettant de visiter de façon anonyme la page d’autres utilisateurs du réseau : ceux qui n’activent pas cette option acceptent donc, selon noyb, d’être perçus comme destinataires, ce qui écarterait donc le risque d’une atteinte aux droits et libertés d’autrui telle que prévue par le point 4 de l’article 15.

Sur la base de ces éléments, noyb demande à la CNIL autrichienne de donner suite à la demande d’accès formulée par le plaignant, mais aussi de prononcer une amende dissuasive à l’encontre de LinkedIn. « La protection des droits et libertés d’autrui peut effectivement justifier la non-divulgation de données personnelles partagées. Toutefois, si une entreprise a obtenu le consentement requis et se montre clairement disposée à mettre ces mêmes données à disposition moyennant paiement, cet argument ne tient plus », résume Martin Baumann, l’avocat de noyb.

LinkedIn et sa maison-mère, Microsoft, n’ont pour l’instant pas réagi publiquement.

❌