Vue normale

Reçu — 6 mai 2026 Next - Articles gratuits

☕️ Meta voudrait prendre sa revanche sur OpenClaw avec Hatch

6 mai 2026 à 16:13


OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ». 

Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.

Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.

Illustration : Flock

Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.

Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.

En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.

Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.

Chrome peut stocker 4 Go associés à Gemini sur votre machine sans crier gare

6 mai 2026 à 15:17
"Gare !"
Chrome peut stocker 4 Go associés à Gemini sur votre machine sans crier gare

Certains utilisateurs de Chrome constatent la présence, sur leur machine, d’un fichier d’environ 4 Go, intitulé weights.bin et qui semble lié à des fonctions d’intelligence artificielle. Problème : le navigateur n’a jamais alerté les internautes concernés quant au téléchargement de ces données.

Le navigateur de Google prend parfois ses aises au niveau des machines sur lesquelles il est installé. Plusieurs internautes signalent en effet avoir constaté le téléchargement, à leur insu, d’un fichier pouvant peser jusqu’à 4 Go, baptisé weights.bin (weights signifie poids) et placé dans un dossier intitulé OptGuideOnDeviceModel.

Un mystérieux fichier qui pèse jusqu’à 4 Go

Les premiers témoignages remontent à mi-2025, et le sujet refait surface à intervalles réguliers, ce qui illustre au passage que le fichier en question est susceptible d’apparaître aussi bien sur Windows que sur macOS. Faute d’information donnée par le navigateur, son processus d’installation, ou ses paramètres, les utilisateurs concernés en sont réduits aux spéculations. Et sans surprise, les hypothèses formulées tournent autour de l’IA.

« Le fichier weights.bin suggère qu’il pourrait s’agir d’un modèle d’IA/ML [IA ou machine learning] en cours d’entraînement ou téléchargé », subodore un internaute sur Reddit. « Je n’aime pas ça. Je n’utilise pas cette IA stupide et le fait qu’elle occupe 3 Go sur mon disque C, déjà limité, sans même me demander mon avis, c’est inadmissible », répond un autre.

Le mystère du dossier OptGuideOnDeviceModel est revenu sur le devant de la scène lundi 4 mai avec la publication d’un nouveau billet de blog chez Alexander Hanff dit ThatPrivacyGuy, le consultant en sécurité qui a récemment mis en lumière la façon dont l’application Claude Desktop s’arroge le droit de pré-autoriser ses extensions pour navigateurs, là aussi sans consentement ni information préalable.

Téléchargement non consenti

Comme avec Claude, Alexander Hanff analyse longuement la méthode mise en œuvre et ses éventuels manquements juridiques ou réglementaires. Il constate que Chrome télécharge ce fichier dans le quart d’heure qui suit l’ouverture du logiciel, et que le dossier est recréé à chaque nouveau lancement du navigateur s’il a été supprimé.

Il en conclut une nouvelle fois que ce comportement, orchestré en arrière-plan, sans information préalable, et sans moyen simple et direct de supprimer le fichier, constitue notamment un manquement à la directive européenne e-Privacy de 2002. Il appelle de ce fait Google à clarifier les choses, avec une explication claire, à adopter une logique d’opt-in (consentement préalable à la modification), et à permettre une suppression définitive du fichier.

Pour faire bonne mesure, il se lance également dans un calcul, éminemment discutable, visant à essayer d’estimer l’impact environnemental de ces 4 Go téléchargés sur des centaines de millions d’appareils.

Notons que ce fichier n’est pas téléchargé de façon systématique : nous avons contrôlé mercredi quatre machines (trois ordinateurs, fixes et portables, sous Windows ainsi qu’un MacBook) équipées d’une instance de Chrome, sans trouver trace de ce fichier.

Si vous souhaitez contrôler sa présence sur votre machine, voici les répertoires concernés.

Sous Windows :

C:\Users\\AppData\Local\Google\Chrome\User Data\Default\OptGuideOnDeviceModel

Sous macOS :

~/Library/Application Support/Google/Chrome/Default/OptGuideOnDeviceModel

S’il est vrai que Google n’informe pas sur l’existence de ce fichier, et n’a pas encore réagi publiquement (à notre connaissance) à la polémique, la fonction concernée n’est pas si mystérieuse qu’il y parait. Elle est en réalité documentée depuis fin 2024 et concerne, comme on pouvait s’y attendre, l’intégration de modèles Gemini Nano dans Chrome.

Un outil déjà documenté

Ces derniers sont mis à profit dans le navigateur, pour sous-tendre ou améliorer les performances de certaines fonctionnalités liées à l’IA, comme la détection automatique de la langue (pour suggérer les bons choix au niveau des raccourcis vers les outils de traduction). Google associe surtout son modèle à des interfaces de programmation (Prompt API, Summarizer API, Writer API, Rewriter API, Proofreader API), présentées comme autant d’outils destinés aux développeurs pour élaborer des fonctions exploitant l’IA.

Dans cette documentation, Google précise que le téléchargement de Gemini Nano n’intervient que si certaines conditions matérielles sont remplies : il faut notamment 22 Go d’espace disque disponible sur la partition qui stocke le profil Chrome, un CPU doté d’au moins quatre cœurs et un minimum de 16 Go de mémoire vive. Le téléchargement n’est par ailleurs pas censé démarrer si le système est relié à Internet via une connexion limitée (soit à cause d’un paramétrage manuel, soit en raison de l’utilisation d’un smartphone comme intermédiaire par exemple).

Le principe a en revanche vocation à concerner le plus large parc possible, avec Windows, macOS, Linux et ChromeOS sur les ordinateurs. Les plateformes mobiles ne sont quant à elles « pas encore » prises en charge.

Google semble à ce sujet désireux d’implémenter plus largement ses API. « Grâce aux API d’IA intégrées, votre application web peut effectuer des tâches basées sur l’IA sans nécessiter le déploiement ni la gestion de ses propres modèles. Nous travaillons à la standardisation de ces API sur tous les navigateurs. », écrit le moteur de recherche.

Comment s’en débarrasser ?

Reste à voir si et comment Google choisira de communiquer plus ouvertement sur le sujet. Alexander Hanff remarque à ce niveau que le téléchargement du fichier n’est pas opéré par les processus habituellement dédiés et dûment autorisés à procéder aux mises à jour (com.google.GoogleUpdater) mais bel et bien par le navigateur lui-même.

Pour supprimer le fichier litigieux et récupérer l’espace disque correspondant, il devrait en principe suffire de désactiver les fonctions d’IA locale du navigateur, si celles-ci sont proposées (consulter le menu Paramètres, onglet Système pour s’en assurer). Introduites depuis plusieurs mois, celles-ci font en effet l’objet d’un déploiement très progressif chez les utilisateurs finaux, ce qui explique sans doute pourquoi le dossier OptGuideOnDeviceModel n’apparait pas même sur une machine répondant aux matériels requis minimaux.

À défaut, il est possible de bloquer le téléchargement de ce modèle local sous Windows en créant ou modifiant la clé de registre GenAILocalFoundationalModelSettings, ce qui désactivera également l’inférence locale au sein du concurrent Edge (basé sur Chromium), comme documenté par Microsoft.

☕️ Washington veut pouvoir tester les nouveaux modèles IA avant tout le monde

6 mai 2026 à 14:10


Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.

Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.

Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.

Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.

Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.

Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.

Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.

Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.

Copyright : Hachette, Elsevier et trois autres éditeurs attaquent Meta

6 mai 2026 à 10:03
Pirate, moi ?
Copyright : Hachette, Elsevier et trois autres éditeurs attaquent Meta

Après plusieurs plaintes d’auteurs, cinq multinationales de l’édition (notamment scolaire et scientifique) attaquent Meta devant la justice américaine pour l’utilisation d’œuvres qu’elles éditent pour entrainer la famille de modèles d’IA générative Llama.

Meta fait face à une action en justice pour violation du copyright qui pèsera sans doute un peu plus lourd que celles qui sont arrivées devant les tribunaux jusque là concernant l’utilisation pour ses modèles d’IA générative d’œuvres copyrightées.

Ici, ce ne sont pas quelques auteurs qui attaquent le groupe dirigé par Mark Zuckerberg (qui est aussi visé personnellement par la plainte), mais cinq multinationales de l’édition : Hachette, Macmillan, McGraw Hill, Elsevier et Cengage. Scott Turow, auteur de thrillers à succès mais également éditorialiste et avocat, est aussi associé à la plainte.

Meta encore accusé d’être passé par du téléchargement illégal

La plainte [PDF], qui a été déposée ce mardi devant la cour du district sud de New York, accuse Meta et donc Mark Zuckerberg d’avoir d’abord « illégalement téléchargé via torrent [torrented, en anglais] des millions de livres et articles de revues scientifiques copyrightés provenant de sites pirates notoires et de scrapes web non autorisés de virtuellement tout l’internet », puis de les avoir copiés « à maintes reprises pour entraîner le système d’IA générative de Meta, baptisé Llama, dont la valorisation s’élève à plusieurs milliards de dollars ».

« Non contents d’utiliser les œuvres protégées par le copyright extraites de Common Crawl, les accusés ont cherché d’autres sources de textes copyrightés pour entraîner leurs modèles Llama », expliquent les avocats des éditeurs.

« Au départ, les accusés avaient envisagé d’obtenir des licences auprès de grands éditeurs pour utiliser des œuvres littéraires. Ils ont finalement opté pour une autre solution : télécharger illégalement les œuvres des demandeurs et du groupe de plaignants à partir de sites de piratage notoires, notamment LibGen, Anna’s Archive, Sci-Hub, Sci-Mag et d’autres », ajoutent-ils. Chargeant le CEO du groupe, ils affirment que « Zuckerberg lui-même a personnellement autorisé et activement encouragé cette violation ».

Mais les éditeurs n’accusent pas seulement Meta de téléchargement. Comme dans d’autres cas concernant l’utilisation d’œuvres par des IA génératives, ils affirment que les modèles de Meta restituent aussi ces œuvres dans leurs réponses.

« Llama génère des reproductions verbatim ou quasi verbatim des œuvres protégées par le copyright » des plaignants, affirme la plainte. « Par exemple, lorsqu’on lui soumet deux courtes phrases tirées du manuel à succès de Cengage, Calculus: Early Transcendentals, 9e édition, de James Stewart, Llama se met à reproduire mot pour mot la suite de la section », ajoutent les avocats.

« L’IA est à l’origine d’innovations transformatrices, d’une productivité accrue et d’une plus grande créativité pour les particuliers et les entreprises, et les tribunaux ont à juste titre estimé que l’entraînement d’un modèle d’IA sur des contenus protégés par le copyright pouvait relever du fair use », a affirmé le porte-parole de Meta Dave Arnold, au New York Times, « nous nous défendrons avec vigueur dans cette affaire ».

La question du fair use n’est pas encore tranchée

Si l’année dernière, les entreprises d’IA avaient gagné plusieurs manches judiciaires, contrairement à ce qu’affirme Meta, le débat sur le fair use pour entrainer les IA n’avait pas été tranché et le sujet reste encore ouvert. À l’époque, le juge Vince Chhaabria avait expliqué qu’il doutait de l’utilisation du fair use concernant les manuels scolaires en expliquant qu’il fallait aussi prendre en compte des « préoccupations concernant le préjudice qu’elle [l’IA générative] peut infliger au marché des œuvres sur lesquelles elle est entraînée ».

Cette réflexion peut sans doute s’étendre aux nombreuses œuvres qui se trouvent dans les catalogues des cinq éditeurs plaignants. Hachette, McGraw Hill et Cengage font partie des plus gros éditeurs de manuels scolaires dans le monde, par exemple. Et, si Elsevier est devenue une filiale d’un des plus grands courtiers de données du monde et fait maintenant d’importants bénéfices en devenant un data broker de l’activité scientifique, elle reste un des plus importants éditeurs scientifiques mondiaux.

La plainte demande la destruction de toutes les copies d’œuvres copyrightées utilisées par Meta pour l’entrainement de ses modèles après que l’entreprise en ait fait la liste exhaustive, qu’elle « cesse toute activité illégale » et « toute autre mesure que la Cour jugera appropriée ».

Interrogée par le New York Times, la responsable de l’Association of American Publishers qui a rendu publique cette plainte, Maria A. Pallante, affirme : « Nous nous concentrons sur la création d’un paysage de l’IA bien plus viable — un environnement transparent, équitable et participatif, doté de garde-fous pour protéger les auteurs et les éditeurs contre tout préjudice. Les préjudices sont déjà évidents ».

Oui, Edge stocke les mots de passe en clair dans la mémoire, c’est normal selon Microsoft

6 mai 2026 à 09:19
Toujours l’éternel combat : sécurité vs simplicité
Oui, Edge stocke les mots de passe en clair dans la mémoire, c’est normal selon Microsoft

Un chercheur affirme, avec un prototype publié sur GitHub, que le navigateur Edge charge tous les mots de passe de son gestionnaire en clair dans la mémoire de l’ordinateur. N’importe qui peut donc y accéder ? Presque, il faut des droits administrateur tout de même. Microsoft confirme, ajoutant que c’est un comportement voulu.

Le chercheur en cybersécurité Tom Jøran Sønstebyseter Rønning explique sur les réseaux sociaux que le navigateur « Microsoft Edge charge tous vos mots de passe enregistrés en mémoire en clair – même lorsque vous ne les utilisez pas ».

Si vous êtes admin, vous pouvez voir les mots de passe en clair

Il propose un prototype sur GitHub permettant de vérifier ce qu’il en est sur sa machine. Un prérequis limite tout de même fortement la portée de ce que le chercheur présente comme une vulnérabilité : il faut des « droits d’administrateur (pour pouvoir lire la mémoire des processus Edge d’autres utilisateurs) ». Le chercheur confirme dans son fil de discussion sur X « ne pas avoir réussi à le faire fonctionner sans privilèges administrateur ».

Nous avons testé le programme EdgeSavedPasswordsDumper du chercheur, avec succès sous Windows 11 avec Edge 147 (les deux étaient à jour)… à condition de lancer un terminal avec des droits administrateur. Dans ce cas, le programme retourne bien, l’ensemble des identifiants et mots de passe enregistrés dans Edge dans le terminal. Sans les droits administateur, le même terminal répond « [x] Not running elevated ».

Ce sont ceux également visibles dans edge://settings/autofill/passwords, à la différence que pour voir les mots de passe enregistrés dans le navigateur, il faut entrer le mot de passe Windows « pour permettre cette opération », comme l’indique la fenêtre de validation qui s’est ouverte (voir les captures ci-dessous).

La technique utilisée par le chercheur permet de s’affranchir de cette étape à condition, pour rappel, d’avoir déjà des droits d’administrateur. Il est « amusant » de voir Edge demander une validation alors que c’est déjà accessible librement, comme le prouve le programme du chercheur.

« Edge est le seul navigateur basé sur Chromium testé qui se comporte ainsi »

Selon Tom Jøran Sønstebyseter Rønning, « Edge est le seul navigateur basé sur Chromium testé qui se comporte ainsi. En revanche, Chrome utilise une conception qui rend beaucoup plus difficile pour les attaquants d’extraire les mots de passe sauvegardés simplement en lisant la mémoire des processus. Le navigateur ne déchiffre les identifiants que lorsque cela est nécessaire, au lieu de garder tous les mots de passe en mémoire en permanence ».

Chrome, toujours selon le chercheur, a d’autres protections, faisant que « les mots de passe en clair ne sont visibles que brièvement lors du remplissage automatique ou lorsque l’utilisateur les consulte, ce qui rend l’extraction massive de données en mémoire beaucoup moins efficace ».

Pour Tom Jøran Sønstebyseter Rønning, le risque est important dans des environnements partagés : « Si un attaquant obtient un accès administrateur sur un serveur, il peut accéder à la mémoire de tous les utilisateurs connectés (ou même les utilisateurs déconnectés) avec Edge en cours d’exécution ». On en revient toujours au même pré-requis important : être administrateur.

Microsoft confirme : c’est voulu et même « by design »

Le chercheur a contacté Microsoft, qui lui a répondu que c’est le comportement « by design » de son navigateur et qu’aucun correctif ne sera publié.

Un porte-parole confirme à Cybernews, en détaillant davantage son point de vue : « Les choix de conception dans ce domaine visent à trouver un équilibre entre performance, facilité d’utilisation et sécurité, et nous continuons de les évaluer face à l’évolution des menaces. Les navigateurs accèdent aux données de mots de passe en mémoire pour permettre aux utilisateurs de se connecter rapidement et en toute sécurité ; il s’agit d’une fonctionnalité normale de l’application ».

« L’accès aux données du navigateur, tel que décrit dans le scénario signalé, nécessiterait que l’appareil soit déjà compromis », ajoute Microsoft. En effet, il faut déjà être administrateur. Comme le montre Chrome avec une surface d’attaque plus limitée, il est tout de même possible de réduire les risques.

Comme le fait remarquer un internaute sur X, cette affaire n’est pas sans en rappeler une autre de 2022 sur Chromium (la base de Chrome, Edge et d’autres navigateurs). Il enregistrait en clair des mots de passe et d’autres informations dans la mémoire de l’ordinateur.

De manière générale, la communauté de la cybersécurité recommande davantage d’utiliser un gestionnaire de mot de passe dédié plutôt que ceux intégrés dans les navigateurs, notamment car la sécurité est leur première raison d’être. C’est également l’argument mis en avant par les gestionnaires de mots de passe qui prêchent évidemment pour leur paroisse.

☕️ Google renouvelle son Android Show le 12 mai et promet des nouveautés majeures

6 mai 2026 à 08:37


Google a confirmé mardi une organisation en deux temps pour ses conférences du mois de mai dédiées à l’univers du mobile. Le moteur de recherche tiendra d’abord une présentation baptisée The Android Show, programmée le 12 mai 2026 à 19 heures (heure de Paris).

Comme en 2025, cet événement centré sur Android est pensé comme un prélude aux sessions plus techniques et couvrant un périmètre plus large de sa traditionnelle Google I/O, organisée à Mountain View les 19 et 20 mai prochain.

D’après Sameer Samat, président des activités Android chez Google, l’événement du 12 mai devrait servir à annoncer les plus importantes mises à jour Android jamais réalisées. « Vous ne voudrez pas manquer ça ! », clame-t-il sur X.

Annonce de l’Android Show du 12 mai 2026

C’est bien sûr Android 17, dont la bêta 2 fait l’objet de tests depuis fin février et dont le SDK final est attendu sous peu, qui devrait constituer le cœur des annonces.

En 2025, l’Android Show s’était révélé riche en nouveautés, centrées notamment autour de la sécurité et de l’intégration renforcée de l’IA Gemini.

☕️ Amazon ouvre sa machine logistique à toutes les entreprises

6 mai 2026 à 07:28


Le petit monde de la logistique compte un nouvel acteur, et pas des moindres : Amazon a en effet annoncé que son infrastructure de distribution mondiale peut maintenant être utilisée par n’importe quelle entreprise, y compris si elle ne vend rien sur Amazon. Rude concurrence pour UPS, DHL ou encore FedEx.

Amazon espère refaire le coup d’AWS. La plateforme d’hébergement en ligne avait été lancée en 2006, d’abord pour moderniser l’infrastructure interne du géant du e-commerce. Elle s’est ensuite ouverte à d’autres entreprises, avec le succès que l’on sait : AWS est aujourd’hui un des plus grands fournisseurs infonuagiques au monde.

Avec Amazon Supply Chain Services (ASCS), le mastodonte états-unien reprend la même stratégie, mais pour la logistique. Amazon exploite une gigantesque flotte comptant plus de 100 avions, 80 000 camions, 24 000 containers, un système d’approvisionnement et de distribution de premier plan, sans oublier la livraison du dernier kilomètre assurée par ses bons soins ou par des livreurs tiers.

Image : Amazon

Jusqu’à présent, ce réseau était au service d’Amazon et des vendeurs tiers de sa boutique. Depuis 2006, plus de 80 milliards d’articles provenant de vendeurs indépendants ont transité par la gestion logistique des commandes d’Amazon (préparation, emballage, expédition, gestion des retours), des opérations complexes et coûteuses sur le plan opérationnel quand on est un vendeur solo.

Avec le temps, le groupe a ajouté de nouveaux services de transport, de dédouanement, de stockage en gros et de distribution sur plusieurs canaux de vente. « Les vendeurs qui utilisent ces solutions de bout en bout enregistrent des ventes supérieures d’environ 20 % », affirme Amazon. 

Le groupe a annoncé l’ouverture d’ASCS aux entreprises de toutes tailles et de tous types (santé, automobile, industrie, commerce de détail…), pas besoin de vendre quoi que ce soit sur Amazon. Ce sont de nouvelles capacités de fret, de distribution et de livraison qui vont concurrencer celles des autres poids lourds du secteur.

Plusieurs clients utilisent déjà des services d’ASCS : Procter & Gamble fait transporter des matières premières vers ses sites de production, puis les achemine à travers son réseau de distribution ; 3M se sert du fret Amazon pour déplacer ses produits depuis ses sites de production vers les centres de distribution.

Selon le cabinet d’études Grand View Research, le marché mondial de la logistique au sens strict (transport, entreposage et distribution des marchandises) pèse près de 4 000 milliards de dollars, et il pourrait frôler les 6 000 milliards en 2030. Si tout le monde en connait les principaux représentants, le marché est en fait très fragmenté, avec des milliers d’acteurs locaux et régionaux. L’arrivée d’Amazon, avec sa puissance de feu, a toutes les allures d’un chien au milieu d’un jeu de quilles.

Entraînement des IA et droit d’auteur : l’industrie culturelle veut l’adoption rapide de la loi

6 mai 2026 à 07:09
La facture va-t-elle arriver pour les acteurs de l'IA ?
Entraînement des IA et droit d’auteur : l’industrie culturelle veut l’adoption rapide de la loi

Plus de 80 organisations culturelles appellent au vote rapide par l’Assemblée nationale d’une proposition de loi adoptée par le Sénat sur la présomption d’utilisation des contenus par les fournisseurs d’IA. Un texte qui donne à l’industrie culturelle un levier contre le « pillage généralisé » de leurs créations.

Le 8 avril, le Sénat adoptait la proposition de loi « relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle ». Voté à l’unanimité, le texte instaure donc une présomption d’exploitation d’une œuvre par un opérateur d’IA. 

La culture presse le pas

La proposition renverse la charge de la preuve, puisque c’est au fournisseur d’IA de prouver qu’il n’a pas utilisé une œuvre. « Ce ne sera plus au créateur de prouver le moissonnage de son œuvre », décryptait l’auteure de la proposition de loi, la sénatrice Agnès Evren (LR). Les entreprises de l’IA font régulièrement l’objet de plaintes pour avoir pioché sans ménagement ni autorisation dans des ouvrages ou des créations protégés par le droit d’auteur.

Le texte est désormais entre les mains de la commission des affaires culturelles et de l’éducation, en attendant son examen par les députés. Histoire d’accélérer la cadence, 81 organisations du secteur de la culture et de l’information – parmi lesquelles l’ADAMI, la SCAM, la SACEM ou le SNEP – appellent [PDF] à une inscription rapide de la proposition de loi à l’ordre du jour de l’Assemblée nationale.

La présomption mise en place par le texte « rééquilibre le rapport de force entre nos secteurs culturels et les entreprises de l’IA » et « crée donc les conditions d’un dialogue pour installer une nouvelle chaîne de valeur », écrivent les signataires. Ils ajoutent ne pas pouvoir continuer à « accepter qu’un secteur économique se construise sur le pillage généralisé d’un autre secteur au mépris de l’État de droit, alors qu’il existe une alternative vertueuse au bénéfice de tous. »

Les organisations veulent la mise en place d’un « marché de licences volontaires » qui garantirait la compétitivité de la presse et des industries culturelles, ainsi que leur capacité d’investissement. Il est aussi question de la sécurité juridique comme « avantage concurrentiel » au bénéfice des modèles et d’une « IA responsable, tournée vers l’humain ». 

Présomption d’exploitation contre exception au droit d’auteur

Les secteurs de la culture et de l’information sont « prêts à s’adapter au modèle économique de leurs futurs partenaires », mais encore faut-il qu’ils viennent à la table des négociations. C’est tout le sens de la loi votée par le Sénat, mais son passage tel quel à l’Assemblée nationale n’est pas gagné.

Le gouvernement s’est en effet montré plus réservé sur le fond. « Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie », expliquait Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique. « Le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques », posait prudemment Catherine Pégard, ministre de la Culture. « Mieux vaut un bon accord qu’un mauvais procès. »

Cette « présomption d’exploitation des contenus » va en tout cas à rebours de ce qui se passe ailleurs dans le monde. Au Royaume-Uni, une réforme du copyright prévoyait une exception au droit d’auteur pour permettre l’entraînement de modèles IA à des fins commerciales, sans autorisation préalable. Il revenait aux créateurs de s’opposer à l’usage de leurs œuvres. La mobilisation des artistes et de la société civile ont forcé le gouvernement à suspendre temporairement ce projet.

Au niveau de l’Union européenne, le Parlement européen a voté le 11 mars dernier les recommandations du rapport d’Alex Voss sur le droit d’auteur et l’intelligence artificielle générative. Parmi ses propositions : une « présomption réfragable » qui s’appliquerait en cas de manque de transparence sur les données d’entraînement des modèles. La proposition du Sénat vise cependant plus large, puisqu’elle facilite les recours des ayants droit.

Grand ménage de printemps chez Xbox, avec l’arrêt de Copilot sur mobile et consoles

6 mai 2026 à 06:30
Qu'ouïs-je ?
Grand ménage de printemps chez Xbox, avec l’arrêt de Copilot sur mobile et consoles

La nouvelle patronne de la division Xbox met un terme aux développements liés à l’IA dans l’environnement de jeu de Microsoft et annonce le retrait des fonctions Copilot déjà implémentées.

Asha Sharma continue d’imprimer sa marque dans la division Xbox qu’elle dirige depuis le mois de février. Après avoir imposé ses troupes à la direction de ce qui s’appelait auparavant Microsoft Gaming, elle annonce le retrait du Copilot Xbox sur mobile et l’arrêt du développement de Copilot sur les consoles. Un virage pour le moins surprenant, mais dans la droite ligne des changements structurels indispensables selon elle pour permettre à Xbox de rebondir.

La nouvelle boss de Xbox ne s’interdit rien. Asha Sharma, qui bénéficie visiblement d’une grande marge de manœuvre de la part de la direction de Microsoft, a déjà pu baisser les prix de plusieurs formules du Game Pass. Elle a également les coudées franches pour opérer des changements encore plus profonds : la version de Copilot dédiée aux jeux vidéo est « mise en retrait » sur les smartphones. Et le développement de Copilot sur les consoles Xbox est tout simplement arrêté.

Adieu Copilot pour l’app Xbox, on te connaissait à peine.

Il existe trois versions de Copilot pour le jeu vidéo, une initiative présentée en mars de l’année dernière  : pour les PC sous Windows 11 depuis septembre 2025, pour les smartphones dans l’app mobile Xbox depuis novembre, et une déclinaison pour les consoles Xbox Series S/X qui devait sortir courant 2026.

La directrice générale de Xbox ne précise pas le sort qui sera fait au Gaming Copilot de Windows, mais les deux autres versions sont maintenant sur une voie de garage. Le principe est le même pour toutes les moutures  : un bot conversationnel censé aider le joueur qui peut lui poser des questions concernant le gameplay d’un jeu.

La décision d’Asha Sharma a ceci de surprenante qu’elle est un transfuge de CoreAI, la division de Microsoft en charge des plateformes IA de l’éditeur. Mais, comme elle l’a indiqué à plusieurs reprises, tout est sur la table pour redresser Xbox. « Nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA », affirmait-elle lors du passage de témoin avec Phil Spencer. « Xbox doit accélérer, renforcer ses liens avec la communauté et réduire les frictions. Vous nous verrez commencer à retirer les fonctionnalités qui ne correspondent pas à notre direction », a-t-elle ajouté hier.

Le mémo-manifeste « We Are Xbox » publié fin avril confirmait la volonté de réévaluer l’approche de la division sur « les exclusivités […] et l’IA ». On pensait que Copilot, le bébé de Microsoft et fer de lance de la stratégie IA de l’éditeur, allait passer au travers des gouttes, mais non. Asha Sharma a peut-être été guidée par un certain pragmatisme : le nombre d’utilisateurs de ces versions de Copilot pour le jeu est certes secret-defense, mais on peut se risquer à penser que l’engouement n’était pas au rendez-vous.

Quelques heures plus tôt, elle annonçait une vaste réorganisation à la tête de la division en plaçant à des postes-clé des personnes de confiance, venant majoritairement de CoreAI : ingénierie, abonnements, design, développement… « Aujourd’hui, nous avons promu des responsables qui ont contribué à construire Xbox, tout en faisant entrer de nouvelles voix pour nous aider à avancer. Cet équilibre est important pour remettre l’activité sur les rails », explique-t-elle.

Le prochain grand rendez-vous pour Xbox et pour Asha Sharma est d’ores et déjà connu : le showcase Xbox du 7 juin, où il s’agira de fêter comme il se doit les 25 ans de Xbox.

☕️ Les promesses non tenues autour de Siri vont coûter cher à Apple

6 mai 2026 à 05:57


Apple n’en finit pas de payer les errements de son intelligence artificielle. Dévoilée en grande pompe en juin 2024, la version « personnalisée » de Siri n’est toujours pas disponible, deux ans plus tard. Ce qui n’a pas empêché le constructeur d’en faire la promotion dans des spots de pub qui vont lui coûter très cher.

Apple paie les pots cassés d’Apple Intelligence. Un arrangement à l’amiable de 250 millions de dollars a été proposé par le constructeur pour éteindre un recours collectif lancé en Californie l’an dernier. Les plaignants expliquent qu’Apple a fait la promotion de « capacités IA qui n’existaient pas à l’époque, qui n’existent toujours pas, et qui n’existeront pas dans les deux prochaines années ou plus ». 

De la publicité trompeuse donc, qui s’incarnait dans des spots diffusés à la télé américaine après le lancement de la gamme d’iPhone 16, en septembre 2024. On y voyait Bella Ramsey, actrice des séries Game of Thrones et The Last of Us, parler avec une version de Siri aux stéroïdes, capable de croiser des informations provenant de plusieurs apps et d’exploiter le contexte d’utilisation pour répondre aux questions. Apple a d’ailleurs discrètement supprimé une de ces publicités, qui présente un assistant n’existant toujours pas à l’heure actuelle. Heureusement, internet a de la mémoire :

Apple a fini par livrer une grande partie des fonctionnalités IA présentées durant la WWDC 2024. Toutes… sauf ce « Siri 2.0 », faute de modèle IA suffisamment performant pour prendre en charge les nouveautés dédiées à l’assistant. Les reports à répétition ont provoqué une crise en interne, qui a débouché sur une réorganisation de la division IA et le départ de son principal responsable, John Giannandrea.

Si la prudence s’impose, le « Siri personnalisé » devrait finalement apparaitre dans iOS 27. Début janvier, Apple confirmait un accord avec Google pour utiliser les modèles de Gemini pour alimenter ses futures fonctions IA, dont l’assistant.

Quant à la class action, le chèque proposé par Apple doit encore être validé par le juge en charge du dossier. Si l’accord est approuvé, il s’agira d’un des règlements judiciaires les plus importants jamais conclus par l’entreprise. Il ne comporte aucune reconnaissance de faute de la part d’Apple.

❌