Vue normale

☕️ IA : un homme plaide coupable d’avoir détourné des millions de dollars en streams musicaux

23 mars 2026 à 11:29


Michael Smith, un homme de 52 ans originaire de Caroline du Nord, a plaidé coupable, ce 20 mars, d’avoir détourné des millions de dollars de royalties en inondant les plateformes de streaming musical de morceaux générés par IA.

Non content de fabriquer la musique grâce à des systèmes d’IA générative, il avait promu ces morceaux sur les plateformes à l’aide de robots dédiés à faire grimper leur nombre d’écoutes à plusieurs milliards.

Dans le cadre d’un accord passé avec les procureurs fédéraux de New York, cet homme a plaidé coupable de complot en vue de commettre une fraude électronique, rapporte the Guardian. Cette décision fait de l’affaire l’une des premières pour fraude liée à l’IA qui aboutit.

Image by Sang Hyun Cho from Pixabay

De fait, le prévenu a « créé des milliers de fausses chansons à l’aide de l’IA », mais les revenus obtenus, eux, « étaient réels », souligne le procureur Jay Clayton dans un communiqué. D’après les termes de son accord, Michael Smith risque maintenant jusqu’à cinq ans de prison et 8 millions de dollars au titre de la confiscation de ses gains lorsque sa peine définitive sera prononcée, en juillet.

En janvier, le magazine Rolling Stones révélait que ce père de famille avait utilisé 1 040 comptes pour diffuser de l’ordre de 636 morceaux générés par IA par jour.

L’affaire illustre une tendance plus large à la diffusion de musique créée automatiquement, dont l’un des effets de bord revient à menacer directement les revenus des artistes.
Des plateformes dédiées à la fabrication de ce type de morceaux, à commencer par Udio et Suno, sont ainsi attaquées devant la justice états-unienne.

Un projet « hypothétique » de centre de données doit-il être évalué dans son entier ?

19 mars 2026 à 17:07
Par étapes ou en entier ?
Un projet « hypothétique » de centre de données doit-il être évalué dans son entier ?

Ce 19 mars, à Versailles, le projet de centre de données de CyrusOne dans la ville de Wissous se retrouvait de nouveau devant la justice. Objet des débats : en vertu du Code de l’environnement, aurait-il dû être présenté en entier à l’administration et au public dès le début, ou son découpage en trois phases reste-t-il recevable ?

Au sortir du tribunal, les opposants au projet de centre de données de CyrusOne à Wissous avaient repris un peu d’espoir : le juge Even avait posé deux questions sur le raisonnement économique qui avait poussé l’opérateur états-unien à initier son projet. D’après Philippe de Fruyt, tête de la liste Wissous notre ville, qui vient d’être battu au premier tour des municipales, « c’est la première fois que ce point était abordé » devant la Justice.

Ce 19 mars, c’est pourtant la deuxième fois que ce retraité de l’industrie automobile se retrouvait face à la justice en tant que représentant de l’association Wissous-notre-ville, cette fois-ci devant la Cour administrative de Justice de Versailles. L’enjeu, comme nous l’expliquions dans un précédent article : contester la manière dont le projet a été porté par l’opérateur CyrusOne.

Désormais rejointe par deux associations nationales, France Nature Environnement (FNE) et Data For Good, Wissous-la-Ville estime que l’opérateur a découpé son projet en trois phases taillées à dessein pour passer sous les différents seuils de contrôle imposés par le code de l’environnement, et repousser ainsi au plus tard possible le déclenchement des audits environnementaux et de la consultation publique les plus poussés.

Sous les 20 mégawatts (MW) de puissance, les opérateurs d’installations classées pour la protection de l’environnement (ICPE) n’ont qu’à soumettre une déclaration à l’administration pour pouvoir lancer leurs travaux. Entre 20 et 50 MW, ils doivent l’enregistrer auprès de la préfecture. Au-dessus de 50 MW, ils doivent demander une autorisation, qui implique entre autres de réaliser des études environnementales et de consulter le public.

Projet complet en devenir vs. phases successives d’un projet hypothétique

Mais, au-delà de l’existence de ces seuils, le Code de l’environnement indique : « Lorsqu’un projet est constitué de plusieurs travaux (…), il doit être appréhendé dans son ensemble, y compris en cas de fractionnement dans le temps et dans l’espace et en cas de multiplicité de maîtres d’ouvrage, afin que ses incidences sur l’environnement soient évaluées dans leur globalité. »


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Pokémon Go signe un partenariat avec la société de livraison robotisée Coco Robotics

18 mars 2026 à 15:13
Share your localization with Coco's robots
Pokémon Go signe un partenariat avec la société de livraison robotisée Coco Robotics

Le partenariat de l’ex-éditeur de Pokémon Go avec Coco Robotics agite les discussions en ligne. Étant donné la spécialisation croissante de Niantic dans la construction de modèles de géolocalisation, il illustre pourtant un débouché classique de systèmes d’automatisation vers la robotique.

Oui, les données des joueurs de Pokémon Go servent à entraîner des systèmes d’IA. La nouvelle a fait bruisser les discussions numériques, ces derniers jours, alors que Niantic, l’éditeur du jeu vidéo ultra-populaire de l’été 2016 Pokémon Go, annonçait un partenariat avec Coco Robotics.

En cause : une partie du public semblait y découvrir que les multiples données de géolocalisation collectée par l’entreprise au gré des sessions de chasse aux Pokémon en réalité virtuelle servaient des finalités plus concrètes. Mais l’annonce n’est que la traduction de deux tendances : l’évolution du modèle initial de Niantic Labs, et la pratique plus globale de recherche de nouveaux débouchés économiques aux collecte de données orchestrées par les sociétés numériques.

D’éditeur de jeu vidéo à éditeur de modèle géospatial

Initialement lancée au sein de Google, en 2010 par John Hanke, Niantic Labs est en effet une société qui a pris son indépendance en 2015. Depuis, son business model a évolué, pour s’appuyer au fil du temps sur deux pieds : les revenus tirés des jeux eux-même (achats au sein des applications, événements liés à des succès comme Pokémon Go, ou encore publicité) et ceux obtenus par sa filiale Niantic Spatial, dédiée à faire évoluer les technologies de réalité augmentée et d’IA.

Depuis plusieurs années, cette dernière s’emploie en particulier à construire des modèles géospatiaux dont l’efficacité est précisément permise… par la somme de données récoltées grâce aux différents jeux en réalité augmentée de Niantic Labs. En 2024, l’entreprise dévoilait notamment son Large Geospatial Model (LGM), un système qui vient alimenter le Visual Position System (VPS) construit par l’entreprise, et à la base des jeux Pokémon Go, Ingress et Peridot. 



Le but de ces différents outils : permettre aux terminaux des utilisateurs de comprendre où ils se situent dans le monde réel. L’entraînement du LGM, expliquait alors l’entreprise, avait été permis par les « milliards d’images du monde, toutes reliées à des endroits précis du globe » que lui avaient partagées les joueurs de Pokémon Go.

À l’époque, Niantic avait d’ailleurs déployé une nouvelle fonctionnalité, Pokémon Playgrounds, dans laquelle joueuses et joueurs pouvaient placer leur Pokémon dans des lieux donnés, afin que d’autres internautes puissent les voir et jouer avec. L’entreprise se targuait de recevoir en moyenne 1 million de nouveaux points de localisation par semaine, et en détenir déjà 10 millions.

La robotique, débouché industriel à part entière

Depuis Niantic a encore évolué : en mars 2025, l’entreprise vendait sa branche jeux vidéos à Scopely, pour faire de Niantic Spatial une société à par entière. Concrètement, John Hanke indiquait prendre la tête de Niantic Spatial, qui se lançait de manière indépendante grâce à 200 millions de dollars des revenus de Niantic et 50 millions de dollars d’investissements de Scopely. Le projet : faire prendre leur essor aux outils de vision et géolocalisation spatiale auxquels travaillait déjà l’entreprise.

Dans ces conditions, et sachant que l’essentiel des sociétés qui ont fait de la collecte de données un pan de leur modèle d’affaire ont ensuite mobilisé ces données pour construire divers systèmes technologiques, Niantic Spatial a assez logiquement cherché des débouchés pour son VPS et son modèle géospatial.

Ce 10 mars, la société indiquait la mise en place d’un partenariat stratégique avec la société Coco Robotics, qui construit des robots dédiés à la livraison automatisée. Une telle alliance s’explique techniquement : les systèmes de visualisation dans l’espace réel développé par Niantic Spatial pourraient servir d’« yeux » aux robots de Coco. « La navigation dans les rues chaotiques des villes est un des défis d’ingénierie les plus complexes » déclare John Danke dans leur communiqué commun, et c’est à ce défi que les deux sociétés prévoient de s’atteler ensemble.

En l’espèce, leur alliance n’est qu’un symptôme d’une recherche plus large de débouchés des technologies d’IA dans le monde hors ligne. En France, ces dernières semaines, le cofondateur d’AMI Labs Yann LeCun ne s’est ainsi pas caché de chercher des débouchés à ses futurs modèles dans « l’automatisation, les dispositifs portables, la robotique », entre autres exemples.

Bien sûr, cela signifie que Niantic tire profit des activités ludiques et bénévoles des joueurs de Pokémon Go au cours de la décennie passée. Mais est-ce une spécificité, quand on sait que l’essentiel des réseaux sociaux font de même, voire que les tests CAPTCHA que les internautes remplissent pour entrer sur des sites web permettent d’entraîner des modèles d’IA ?

IA : Meta investit dans l’infrastructure, mais pourrait licencier 20 % de ses équipes

18 mars 2026 à 11:04
Investissements non humains
IA : Meta investit dans l’infrastructure, mais pourrait licencier 20 % de ses équipes

Alors que l’entreprise multiplie les projets dédiés à étendre ses capacités de hardware et d’infrastructure dédié à l’intelligence artificielle, elle pourrait licencier jusqu’à 20 % de ses effectifs actuels.

Meta s’apprêterait à licencier 20 % de ses équipes, selon les informations de Reuters, une réduction d’effectif qui représenterait donc environ 16 000 emplois sur les 79 000 que la société compte actuellement.

S’il n’a pas encore été confirmé, ce projet se ferait dans un contexte de poursuite des investissements de l’entreprise dans l’intelligence artificielle. Ce 17 mars, la société néerlandaise Nebius indiquait par exemple avoir signé un contrat de 27 milliards de dollars avec Meta pour lui fournir diverses capacités d’infrastructure (data center, serveurs, GPU) sur les cinq prochaines années. Mi-mars, le géant des réseaux sociaux annonçait par ailleurs le développement de quatre nouvelles puces MTIA (Meta Training and Inference Accelerator), qu’elle produit depuis 2023, sur les deux prochaines années.

Investissements accélérés dans l’IA

Ces différents éléments s’intègrent dans une redirection plus large de la société vers l’intelligence artificielle générative. À l’été 2025, Mark Zuckerberg annonçait ainsi son projet d’investir des « centaines de milliards de dollars » dans l’industrie, que ce soit du côté du développement ou de la sous-traitance de centres de données spécialisés dans l’équipement dédié à faire tourner de grands modèles de langage, ou dans le recrutement de personnalités de l’IA.

À l’époque, les packages au montant faramineux proposés à des ingénieurs d’Apple, Google ou Open AI avaient défrayé la chronique : pour tenter de rattraper ses concurrents, Mark Zuckerberg avait en effet proposé jusqu’à un milliard de dollars sur plusieurs années à certains spécialistes. Début septembre, cela n’avait pas empêché certaines embauches récentes (ou plus anciennes) de repartir aussi rapidement, quelquefois pour aller directement chez la concurrence – l’ancienne directrice de produits d’IA générative Chay Nayak a rejoint OpenAI –, quelquefois pour créer leurs propres entreprises – ainsi de l’ancien directeur du laboratoire Facebook Artificial Intelligence Research (FAIR) Yann LeCun, rentré en France pour cofonder la start-up AMI.

Licenciements dans la tech

Mais maintenir ce rythme implique de larges dépenses. En novembre, l’entreprise prévoyait d’investir 600 milliards de dollars dans des infrastructures et des emplois sur les trois prochaines années, sachant que la société avait déjà dépensé 135 milliards de dollars dans le domaine sur la seule année 2025.

Auprès de Business Insider, des cadres de Meta n’en avancent pas moins que le projet de licenciements de la société pourrait débuter dès ce mois de mars. S’il se confirme, ce serait le plus gros réalisé depuis la pandémie. En novembre 2022, la société avait licencié 11 000 employés, avant de se séparer de 10 000 personnes supplémentaires en mars 2023. Début janvier 2026, elle remerciait par ailleurs 1 500 personnes de son Reality Labs, actant son détournement du métavers, pourtant ardemment promu par Mark Zuckerberg pendant la pandémie.

Outre le contexte spécifique à l’entreprise, il s’inscrirait dans une tendance plus large de licenciements dans l’industrie numérique : l’éditeur de logiciel Atlassian a par exemple indiqué se séparer de 10 % de ses effectifs il y a quelques jours, suivi notamment par Block, la société dirigé par le fondateur de Twitter Jack Dorsey. Cette dernière a annoncé fin février se séparer d’un coup de 40 % de ses 10 000 employés.

À Rome, le séminaire de Peter Thiel sur l’Antéchrist crée des remous

17 mars 2026 à 11:02
Vade retro
À Rome, le séminaire de Peter Thiel sur l’Antéchrist crée des remous

Peter Thiel lançait ce 15 mars à Rome un nouveau séminaire de quatre jours sur l’Antéchrist. Sa venue a créé des remous dans l’écosystème catholique comme du côté du gouvernement italien.

Après Paris, Rome… et la proximité du Vatican. Après la leçon donnée fin janvier à l’Académie des sciences morales et politiques, Peter Thiel continue sa tournée des pays européens pour se rapprocher cette fois-ci du cœur de la religion dont il a adopté une lecture si personnelle.

Comme il le fait habituellement, sa prise de parole a été organisée dans un secret relatif, éventé notamment par le refus de l’Université pontificale Saint-Thomas-d’Aquin de Rome de lui accorder une salle. L’entrepreneur et capital-risqueur avait pourtant soigneusement préparé son spectacle : messe en latin à l’église Saint-Jean-Baptiste-des-Florentins, puis ouverture de ses quatre jours de séminaires.

Qu’à cela ne tienne, ses hôtes, l’Associazione culturale Vincenzo Gioberti et le Cluny Institute, proche de la Catholic University of America, lui ont trouvé un espace au Palazzo Taverne pour ouvrir, ce 15 mars, une série de conférences à huis clos sur sa figure favorite : l’Antéchrist. L’épisode traduit bien, cela dit, les débats que sa venue à Rome a suscités, aussi bien du côté du Vatican que des représentants politiques italiens.

L’action de Thiel ? Un « acte d’hérésie »

Car au Vatican, le pape prépare sa première encyclique, une de ces lettres solennelles qui permettent aux pontifes de dessiner leur doctrine, et celle-ci pourrait bien se pencher en partie sur l’intelligence artificielle et les technologies. Dans le quotidien Avvenire, lu par les évêques italiens, plusieurs articles très critiques de Palantir ont fleuri. Pour un auditoire plus généraliste, le père Paolo Benanti signait ce week-end dans Le Grand Continent un article très défavorable au positionnement de Thiel.

« L’ensemble de l’action de Thiel peut se lire comme un acte prolongé d’hérésie contre le consensus libéral, écrit cet artisan des travaux du Vatican sur l’IA : une contestation des fondements mêmes de la coexistence civile, qu’il juge désormais dépassés. » Et de préciser que l’hérésie, étymologiquement, n’est pas simple « blasphème » ou « erreur doctrinale », mais un « choix, une option ». Ou, d’un point de vue philosophique, « l’isolement d’une vérité partielle, détaché du tissu relationnel de l’ensemble et élevée au rang de principe absolu ».

S’appuyant sur cette conception, le conseiller du pape appelle à lire le positionnement de Thiel « non comme un simple rejet des valeurs occidentales mais comme la radicalisation pathologique de certaines de leurs composantes — la compétition, la technologie, l’individu — qui, érigées en unique boussole, conduisent à des résultats radicalement divergents du projet démocratique commun ».

Embarras jusque chez Giorgia Meloni

Outre irriter l’écosystème catholique romain, la venue de Peter Thiel a gêné jusqu’à la présidente du Conseil des ministres italiens, Giorgia Meloni, pourtant présidente du parti d’extrême-droite Fratelli D’Italia et ouvertement proche de Donald Trump, J.D. Vance et Elon Musk.

Plusieurs législateurs ont clairement demandé si Thiel rencontrerait Meloni, et si Palantir travaillait déjà pour l’administration publique italienne, rapporte Euractiv. En 2024, le ministère de la Défense avait notamment lancé un appel d’offre susceptible de correspondre à une licence pour la plateforme Gotham, qui permet d’explorer de multiples sources d’information.

Politiquement, analyse par ailleurs l’Opinion, Peter Thiel paraîtrait même trop extrême aux yeux du gouvernement actuel. Aussi proche soit-il des dirigeants politiques et technologique états-unien, ce dernier doit en effet composer avec les retombées de la guerre lancée brusquement par Donald Trump en Iran – guerre contre laquelle plusieurs milliers de personnes ont protesté ce week-end à Rome.

Quand l’IA s’invite dans les municipales

17 mars 2026 à 07:11
IA quoi ?
Quand l’IA s’invite dans les municipales

Utilisée par certains candidats, refusée par d’autres, l’intelligence artificielle s’est aussi immiscée dans certaines discussions de campagne municipale à l’initiative de l’association Pause IA. Peu de candidats sensibles à son discours sur les risques existentiels se sont qualifiés pour le second tour des élections.

L’intelligence artificielle est partout. L’est-elle jusque dans les municipales ? À en croire les usages d’une variété de candidats, oui.

En février, le maire divers gauche de Barentin (Seine-Maritime) Christophe Bouillon comme le communicant politique Paul Brounais le déclaraient au Monde : si tout le monde a de l’IA dans la poche, autant s’en servir aussi pour faire campagne. Cela dit, par conviction personnelle ou mobilisés par des associations comme Pause IA, certains ont décidé de rejeter plus ou moins explicitement le recours à ces technologies.

De l’IA dans la préparation des campagnes

À quoi l’IA peut-elle servir dans un contexte d’élection locale ? Dans certains cas, il s’agit simplement de reproduire des usages du monde professionnel : recourir à l’IA pour prendre des notes de réunions puis en établir la synthèse, comme l’a fait le candidat de Poissy Karl Olive (Renaissance), voire pour les faire lire sous forme de courts podcasts et les rendre ainsi accessibles sur toutes les plateformes, comme l’a proposé Florence Woerth (divers droite) à Chantilly.

Dans d’autres, les moteurs génératifs permettent d’écrire un premier jet de discours, voire d’imaginer des affiches ou des contenus pour les réseaux sociaux, comme l’a largement illustré la candidate Reconquête à Paris Sarah Knafo. Problème, la génération d’images irréelles permet non seulement d’attaquer les politiques menées jusque-là, mais aussi d’attaquer nommément. À Strasbourg, la gestion écologiste a par exemple été critiquée par la candidate Rassemblement National Virginie Joran à l’aide d’une vidéo d’une rue représentée pleine de déchets… sauf que la rue en question n’existe pas : elle a été générée par IA.

À Corbeil-Essonnes, la candidate Samira Ketfi (divers droite) a porté plainte après s’être retrouvée représentée en tenue de danseuse orientale. L’image repose « sur des stéréotypes à connotation raciste et sexiste », a-t-elle écrit au procureur de la République. À Guéret, les candidats Marie-Françoise Fournier (sans étiquette) et Didier Hoeltgen (PS) ont tous deux porté plainte contre la diffusion, par un compte Facebook anonyme, d’images détournées des opposants pour la mairie. Le commissariat « a indiqué qu’il n’y aurait pas de suite, explique le second au Monde. Ils disent que Facebook ne répond pas à la justice en France. L’impunité est totale. »

Les candidats dont s’étaient rapprochés Pause IA en mauvaise posture

Dans ces conditions, quid du développement de l’intelligence artificielle en général ? Quid des enjeux politiques que le développement de l’industrie crée pour la France en général, et les communes en particulier ?

La question a été soulevée par divers acteurs de la société civile, de la dizaine d’associations qui proposaient dès la fin 2025 des mesures pour une « désescalade numérique » jusqu’aux acteurs engagés pour faire de la construction de certains centres de données un sujet de débat à part entière.

L’association Pause IA, elle, se félicitait d’avoir convaincu une dizaine de candidats en France d’avoir signé tout ou partie d’une charte en 14 points sur les risques de l’intelligence artificielle. Parmi ces signataires, seule la maire sortante de Nantes, Johanna Rolland, est arrivée en tête des élections de sa ville au lendemain du premier tour. À la tête d’une liste de gauche hors LFI, elle a remporté 35,24 % des suffrages exprimés, mais est talonnée par le candidat LR, Renaissance, Modem et Horizons Foulques Chombart de Lauwe (33,77%). Elle a signé 13 des 14 engagements proposés par Pause IA, à l’exception de l’adoption d’un « vœu municipal appelant le Gouvernement à une pause du développement des modèles les plus avancés ».

Plusieurs ont obtenu suffisamment de votes pour passer au second tour, mais risquent de se voir embarqués dans les négociations de ralliement. À Metz, l’écologiste Jérémy Roques, qui a signé 12 engagements sur 14, n’a récolté que 9,9 % des suffrages. Il doit négocier avec les candidats du Parti Socialiste (Bertrand Mertz, 13 % des votes) et de La France insoumise (Charlotte Leduc, 10,4 %), sans que l’on sache pour le moment ce que cela impliquera en termes de positionnement sur l’IA.

À Clermont-Ferrand, la candidate LFI Marianne Maximi, qui avait signé 6 des 14 engagements de la charte de Pause IA, a remporté 17,01 % des voix, ce qui la place derrière le candidat Les Républicains (Julien Rony, 33,93 % des voix) et le maire sortant, le socialiste Olivier Bianchi (29,99 %). À Lille, l’écologiste Stéphane Baly, qui a signé l’intégralité des 14 points proposés par Pause IA, est arrivé troisième avec 18 % des voix. Reste à voir s’il parvient, en s’alliant soit au candidat PS Arnaud Deslandes (26,26 %), soit avec sa concurrente LFI Lahouaria Addouche (23,36 %), à porter ses engagements sur le sujet.

Tous les autres, majoritairement engagés sur des listes citoyennes ou de gauche, à l’exception notable de l’écologiste niçois Jean-Marc Governatori (qui a rallié Éric Ciotti en amont des élections), n’ont pas dépassé le seuil des 10 % de voix qui leur aurait permis de porter ces questions au moins jusqu’au second tour.

☕️ La Fondation des Femmes met Meta en demeure de diffuser sa campagne « Inarrêtables »

16 mars 2026 à 11:33


Après la décision « unilatérale » de Meta d’interdire toute publicité « politique, électorale et sur les sujets sociaux », la Fondation des Femmes en vient cette fois-ci au recours juridique.

Autour de la journée internationale des droits des femmes, le 8 mars, l’ONG prévoyait de diffuser sur ses différents canaux de communication, dont les réseaux sociaux de Meta, une vidéo liée à sa campagne « Inarrêtables ».

En application de son interprétation du règlement européen sur la transparence et le ciblage de la publicité à caractère politique (TTPA), plus extensive que celle adoptée par les autres réseaux sociaux, Meta a refusé la diffusion de la vidéo (dont diverses versions sont visibles sur le site de l’ONG ou son compte TikTok). 


Ce 12 mars, la Fondation des Femmes indiquait donc mettre Meta en demeure de publier le clip en question, qui vise principalement à rappeler les activités que finance la fondation (défense du droit à l’avortement, écoute spécialisée et hébergement pour les femmes victimes de violences) et d’appeler aux dons.

L’épisode n’est qu’un nouveau symptôme d’une dynamique relevée par plusieurs ONG dès le mois de novembre et décembre 2025. Alors que le TTPA venait d’entrer en vigueur, l’Unicef relevait un taux inhabituellement élevé de rejet de ses publicités, de même que SOS Méditerranée.

Sur les questions relatives aux droits reproductifs et aux droits des femmes, la Fondation des Femmes décrivait une nouvelle étape dans une logique d’invisibilisation de long terme – auprès de Next, sa directrice de l’engagement Lise Gallard expliquait notamment que les indicateurs des pages Instagram (181 000 abonnés) et Facebook (84 000 abonnés) de l’ONG traduisaient une sous-performance chronique par rapport à d’autres profils aux audiences similaires.

La lecture que Meta a adoptée du TTPA s’inscrit dans un double contexte de lobbying pour une réduction des régulations imposées par l’Union européenne aux plateformes numériques et de modification des règles de modération des services de l’entreprise depuis le retour de Donald Trump au pouvoir.

☕️ The Washington Post utilise les données de ses lecteurs pour adapter ses prix

16 mars 2026 à 10:47


Un journal qui adapte ses prix aux pratiques de ses lecteurs, comme le commerce en ligne le plus classique ?

C’est le positionnement qu’est en train de tester The Washington Post, propriété de Jeff Bezos, en nette perte de vitesse depuis la fin de la pandémie.

Dans leur dernière facture, plusieurs abonnés ont reçu par mail une annonce de future augmentation des prix. Spécificité de cette inflation du coût de l’abonnement : en pied d’e-mail, le journal les informait que le nouveau prix annoncé avait été « fixé par un algorithme recourant à vos données personnelles ».

L’évolution est cohérente avec les récentes et multiples expérimentations du journal de 150 ans d’âge sur l’intelligence artificielle, déployée dans les podcasts comme dans le moteur de recherche interne.

Auprès du Washingtonian, le chercheur Luca Cian rappelle que ces systèmes de personnalisation des prix s’appuient généralement sur les données géographiques et de localisation des internautes pour estimer combien ils seraient prêts à payer pour un service.

des journaux
Crédit AbsolutVision pour Unsplash

Amazon lui-même a été critiqué en 2025 lorsqu’il est devenu évident que ses systèmes de fixation dynamique des prix imposaient des tarifs très variables à différents groupes scolaires pour les mêmes produits, parfois avec des évolutions au fil d’une même journée. 


Luca Cian s’étonne par ailleurs de voir que le Washington Post a rendu l’information d’une fixation dynamique de ses prix d’abonnement publique, dans la mesure où ses travaux tendent à démontrer que l’audience réagit relativement mal à l’annonce du recours à des technologies d’intelligence artificielle. Dans ses travaux, ce dernier a en effet constaté un paradoxe : interrogés, les gens déclarent vouloir connaître le fonctionnement des stratégies de fixation des prix. Mais lorsqu’ils obtiennent l’information, « leur réaction est pire que s’ils ne savaient pas ».

Un groupe pro-iranien revendique l’attaque de la société américaine Stryker

12 mars 2026 à 17:18
Wiped out
Un groupe pro-iranien revendique l’attaque de la société américaine Stryker

Une société états-unienne d’équipement médical a été visée par une cyberattaque revendiquée par un groupe pro-iranien. Une illustration parmi d’autres des cyberactivités iraniennes dans les systèmes d’acteurs états-uniens et israéliens.

Spécialiste états-unienne des équipements médicaux, Stryker a subi « des perturbations mondiales sur son environnement Microsoft à cause d’une cyberattaque ». Dans un communiqué publié ce 11 mars sur LinkedIn, l’entreprise déclare n’avoir trouvé « aucune indication de ransomware ou de malware », et considère que « l’incident est maîtrisé ».

Alors que les États-Unis et Israël ont ouvert des hostilités contre l’Iran depuis le 28 février, un groupe de pirates informatiques pro-iranien, Handala Hack, a revendiqué les faits. Des chercheurs en cybersécurité ont par ailleurs identifié d’autres activités malveillantes dans les systèmes de sociétés états-uniennes, israéliennes et canadiennes.

Un wiper chez Stryker

Du côté de Stryker, les cyberattaquants auraient infecté certains systèmes de l’entreprise avec un « wiper », c’est-à-dire un logiciel de destruction de données, et fait apparaître leur logo sur les équipements des employés, selon le Wall Street Journal et l’Irish Examiner.

Des employés du Costa Rica, d’Australie, d’Irlande et des États-Unis ont témoigné avoir vu leurs smartphones et ordinateurs sous Windows vidés à distance. Pour limiter les dégâts, les employés se sont vu demander de ne pas allumer leurs équipements professionnels pendant le déroulement des processus de réponses à l’incident.

Sur LinkedIn, Stryker indique avoir mis des « mesures de continuité en place » pour lui permettre de continuer de fournir ses clients et de travailler avec ses partenaires. L’entreprise emploie plus de 53 000 personnes à travers la planète et fabrique toutes sortes d’équipements, des brancards aux outils de chirurgie en passant par des prothèses et des neurotechnologies, dont aucun ne semble avoir été touché par l’attaque.

Handala Hack, le groupe qui revendique l’action, est actif au moins depuis 2024. Connu pour soutenir la Palestine, il a notamment déployé des attaques par phishing, vol de données, rançongiciels, extorsion ou destruction contre des sociétés israéliennes ou perçues comme des soutiens à Israël. En février 2026, il affirmait avoir infecté les systèmes de Clalit, la plus grande des quatre entités publiques de santé d’Israël.

Dans le cas présent, les attaquants affirment avoir visé Stryker pour ses supposés liens avec l’État hébreu. En 2019, Stryker a fait l’acquisition de la startup israélienne OrthoSpace, spécialiste des implants orthopédiques.

MuddyWater/SeedWorm dans des réseaux états-uniens

D’autres groupes pro-iraniens voire soutenus par le régime sont actifs dans les systèmes de sociétés américaines. Les équipes de Symantec et Carbon Black ont ainsi repéré des traces du groupe MuddyWater (aussi connu sous les noms de SeedWorm, Temp Zagros ou Static Kitten), affilié au ministère iranien du renseignement et de la sécurité. Les auteurs du rapport estiment que la campagne remonte à début février, avec des mouvements plus récents, après les attaques des États-Unis et d’Israël sur le territoire iranien.

Cette attaque-ci vise une société de logiciel qui fournit les industries spatiale et de défense, notamment en Israël, ainsi qu’une banque et un aéroport états-uniens, ou encore une organisation à but non lucratif canadienne. Le rapport constate que dans les dernières années, les « acteurs iraniens de la menace sont devenus de plus en plus compétents. Non seulement leurs outils et leurs ransomwares ont été améliorés, mais ils ont aussi démontré de fortes compétences d’ingénierie sociale, y compris via des campagnes de spear-phishing [opération de phishing ciblée, ndlr] ou des opérations « honeytrap » utilisées pour créer des relations avec leurs cibles et obtenir l’accès à des comptes ou des informations sensibles. »

En 2025, MuddyWater avait notamment mené une attaque complexe de spear phishing pour distribuer une backdoor sur mesure à diverses organisations internationales du Moyen-Orient et d’Afrique du Nord. Concrètement, rapportent Symantec et Carbon Black, l’opération d’espionnage avait visé une centaine d’entités gouvernementales. En novembre 2025, le groupe avait par ailleurs été lié à une attaque contre divers universitaires experts du Moyen-Orient et d’autres experts en politique étrangère.

☕️ IA et copyright : au Royaume-Uni, des milliers d’auteurs publient un livre vide

12 mars 2026 à 14:04


Près de 10 000 auteurs britanniques ont contribué à l’ouvrage Don’t Steal This Book (Ne volez pas ce livre), une publication vide, à l’exception de leurs noms.


Des copies de l’ouvrage étaient distribuées ce 10 mars au Salon du livre de Londres, alors que le gouvernement britannique doit publier la semaine prochaine une évaluation du coût économique des évolutions qu’il propose au droit d’auteur.

Le prix Nobel de littérature Kazuo Ishiguro et l’autrice de fiction historique Philippa Gregory font partie des multiples écrivains mobilisés dans cette campagne, de même que Richard Osman, auteur du roman récemment adapté sur Netflix the Thursday Murder Club, ou Mick Herron, auteur d’une autre série de romans adaptée par Apple TV+, Slow Horses. 


Auprès du Guardian, son initiateur Ed Newton-Rex explique que l’industrie de l’intelligence artificielle a été « construite sur du travail volé, pris sans permission ni paiement ».

Don’t Steal This Book / Capture d’écran

À l’occasion du salon du livre, la société à but non lucratif Publishers’ Licensing Services (PLS) a par ailleurs lancé un système de licence collective dédié à l’IA auquel elle invite le secteur à adhérer. PLS espère permettre ainsi un accès légal aux œuvres nécessaires à l’entraînement de moteurs génératifs.

D’autres artistes et producteurs de contenu (dont des médias) ont déjà réalisé diverses actions pour protester contre les propositions législatives du gouvernement britannique sur l’IA. 


Elton John et Dua Lipa faisaient par exemple partie d’une initiative collective visant à empêcher le gouvernement d’introduire une exception au copyright, selon laquelle les sociétés d’IA pourraient recourir à des travaux soumis aux droits d’auteur sauf si ces derniers signalaient explicitement refuser (opt-out) un tel usage de leurs travaux.

☕️ En pleine accélération dans l’IA, Atlassian licencie 1 600 personnes

12 mars 2026 à 09:28


Le géant du logiciel Atlassian a annoncé le licenciement d’environ 10 % de ses effectifs, alors qu’il se restructure pour investir dans l’intelligence artificielle. 


Plus de 900 personnes touchées travaillent en recherche et développement logiciel, rapporte the Guardian, sachant que plus de la moitié des 13 813 membres à temps plein de ses effectifs relèvent de l’ingénierie et du design logiciel.

Sur le total des personnes licenciées, 640 sont installées en Amérique du Nord, 480 en Australie, 250 en Inde et le reste se répartit entre l’Europe, le Japon, les Philippines, le Moyen-Orient et l’Afrique.

Atlassian, qui édite notamment les outils collaboratifs Confluence, Trello et Jira Work Management, doit faire face à la méfiance de ses investisseurs : alors que ceux-ci craignent que l’IA ne rende les services de la société obsolètes, cette dernière a enregistré une chute de la moitié de sa valeur boursière depuis le début 2026.

Cofondateur de l’entreprise, Mike Cannon-Brookes a indiqué à ses employés que l’approche adoptée ne consistait pas à considérer que « l’IA remplace les gens », mais qu’il serait « malhonnête de prétendre que l’IA ne modifie pas l’éventail des compétences dont nous avons besoin ou le nombre de postes requis dans certains domaines ».

Les ambitions d’Atlassian dans l’IA se traduisent aussi dans sa politique de croissance externe : en septembre dernier, l’éditeur australien a ainsi annoncé le rachat de The Browser Company, la société qui développe les navigateurs Web Arc et Dia, pour 610 millions de dollars. Il affichait alors l’objectif de construire sur cette base « le navigateur IA pour les travailleurs du savoir ».

[MàJ] IA : Grammarly suspend son outil de révision à la manière de vos auteurs préférés

12 mars 2026 à 08:03
Sloppelgänger
[MàJ] IA : Grammarly suspend son outil de révision à la manière de vos auteurs préférés

Désormais équipé d’intelligence artificielle générative, l’assistant d’écriture Grammarly proposait jusqu’au 11 mars des « révisions expertes » supposées émaner de personnalités réelles. Next a repéré les noms d’Annie Ernaux, Valérie Masson-Delmotte ou Florence Aubenas, entre autres personnalités de la recherche, de la littérature ou des médias français. Plusieurs des personnes citées indiquent ne pas avoir donné leur accord à un tel usage de leur nom.

Mise à jour 12 mars, 08h48 : ajout de la plainte déposée contre Grammarly et de la suspension de fonctionnalité.
Mise à jour 11 mars, 16:30 : ajout de la réponse de Valérie Masson-Delmotte

Assistant d’écriture, Grammarly proposait jusqu’au 11 mars des révisions d’IA « expertes » supposées imiter le travail de n’importe quel auteur de fiction ou de non-fiction, vivant ou mort. Spécialiste de la relecture orthographique et grammaticale, Grammarly s’est renommé en octobre « Superhuman ». L’idée, expliquait alors son PDG Shishir Mehrotra : refléter l’évolution de ses outils et services alors que ceux-ci étaient alimentés de fonctionnalités d’IA générative. L’outil d’aide à l’écriture, lui, garde son nom initial.

Outre ce nouveau nom évoquant un dépassement de l’humain, une nouvelle fonctionnalité de l’outil Grammarly crée le débat, depuis la publication d’un premier article de Wired sur le sujet. Son nom : Expert review. Accessible aux utilisateurs payants, cette révision assistée par IA propose une série de noms d’auteurs, de chercheurs ou de journalistes réels, supposés fournir leurs avis pour améliorer le texte en cours d’élaboration.

Grammarly, capture d’écran

Testée depuis le français et l’anglais, la machine nous propose par exemple des relectures du présent article par les chercheuses Kate Crawford (notamment autrice du Contre-atlas de l’intelligence artificielle) et de Timnit Gebru (notamment co-autrice d’un célèbre article sur les « perroquets stochastiques »). Sur des extraits de fiction, la machine nous suggère des reprises supposément données par les autrices Annie Ernaux, Delphine de Vigan ou Marie Darrieussecq. Sur d’autres tests, elle nous propose des éditions présentées comme appuyées sur les travaux des chercheuses Geneviève Pruvost, Valérie Masson-Delmotte, ou encore de la journaliste Florence Aubenas.

Concernée par ces usurpations d’identité d’un nouveau genre, la journaliste Julia Angwin a déposé plainte le 11 mars contre Grammarly, en son nom et en celui d’autres personnes dans la même situation. Dans la soirée, Shishir Mehrotra a indiqué que Grammarly suspendait la fonctionnalité Expert review.

Chercheuses et écrivains automatisés fournissent des suggestions d’édition

Quelques heures plus tôt, nous avons mené l’expérience en français et en anglais sur plusieurs textes journalistiques ou de fiction de l’autrice de ces lignes (traduits avec Deepl lorsqu’ils venaient du français).

Suggestion d’édition de cet article. / Grammarly, capture d’écran

Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

En amont des municipales, X et TikTok présentent un biais vers l’extrême droite

11 mars 2026 à 08:12
Déséquilibre des forces
En amont des municipales, X et TikTok présentent un biais vers l’extrême droite

En amont des municipales, diverses expérimentations viennent confirmer en direct le biais qui pousse les systèmes algorithmiques de X à amplifier les contenus d’extrême droite plus fortement que ceux du reste du spectre politique. Une expérimentation de People vs Big Tech traduit un potentiel biais similaire, quoique beaucoup moins prononcé, du côté de TikTok.

L’étude a beaucoup circulé en ligne : pendant sept semaines, une équipe de chercheurs a imposé aléatoirement à plus de 6 000 utilisateurs états-uniens de X de choisir entre le classement chronologique (Following, ou Abonnés) et le classement algorithmique (For you, ou Pour vous) des publications reçues sur le réseau social.

Publiés dans Nature mi-février, les résultats de l’étude ont permis de conclure que le classement algorithmique promouvait beaucoup plus régulièrement du contenu à la droite de la droite, entraînant derrière lui l’opinion politique des utilisateurs. L’expérience a aussi démontré une persistance de ce biais conservateur une fois la sélection algorithmique abandonnée, pour la simple raison que les utilisateurs continuent, dans cette configuration, de suivre certains comptes initialement proposés par la sélection algorithmique.

Comment cela se traduit-il dans un contexte d’élections municipales ? Plusieurs acteurs ont mené leurs expérimentations. Sur X et LinkedIn, la société Agoratlas constate qu’en lieu et place de considérations locales, le débat est largement nationalisé, et le profil de Sarah Knafo, candidate Reconquête à la mairie de Paris, écrase tous les autres en termes d’audience.

Prenant le point de vue de nouveaux utilisateurs, le mouvement People vs Big Tech a de son côté réalisé des expérimentations sur X et TikTok, et constate dans les deux cas une orientation des internautes vers les partis les plus radicaux.

Moins de visibilité pour les partis modérés

En pratique, People vs Big Tech a testé les comportements de six nouveaux comptes français sur X et six autres sur TikTok. La moitié de chacun de ces comptes ont été paramétrés pour manifester de l’intérêt pour les publications de responsables et de partis classés à gauche (de Place publique jusqu’au Parti communiste), l’autre moitié, pour des publications de responsables et partis de droite (du Mouvement démocrate jusqu’à Reconquête !).

Chaque fois, l’expérimentation a consisté à montrer un intérêt pour les publications de tout candidat aux municipales de Paris, Lyon ou Marseille. Entre le 23 et le 27 février 2026, l’association a fait défiler du contenu sur les deux plateformes observées, en passant rapidement les contenus non politiques et en s’appesantissant sur ceux de partis ou de responsables politiques, jusqu’à collecter 10 heures de contenu.

Extrait de l’étude de People vs Big Tech

Parmi ses constats : sur TikTok comme sur X, les contenus d’extrême droite bénéficient au moins d’une relative suramplification. À droite comme à gauche, les contenus des partis d’extrême droite, et, « dans une moindre mesure, de la gauche radicale », rendent les partis modérés moins visibles (People vs. Big Tech indique classer la France Insoumise dans la gauche radicale malgré la récente classification à l’extrême gauche décidée par le ministère de l’Intérieur).

Extrait de l’étude de People vs Big Tech

Soulignant le faible nombre de comptes sur lesquels l’expérience a été menée, TikTok rappelle par ailleurs l’existence de son espace dédié aux élections municipales, dont les équipes travaillent d’une part à tenter de minimiser la circulation de fausses informations, et au contraire à diffuser des éléments permettant de voter.

Sur X, People vs Big Tech constate que « huit des dix comptes politiques français les plus visibles » appartiennent à l’extrême droite ou à la gauche radicale indépendamment de leur communauté. Quand bien même il est le compte politique le plus suivi de France (10,3 millions d’abonnés), Emmanuel Macron se retrouve ainsi en 28e position des comptes recommandés, loin derrière Manuel Bompard, Rachida Dati, Jean-Luc Mélenchon, Charles Alloncle, Sophia Chikirou ou Marine Le Pen. Sarah Knafo est la 8e personne dont les contenus ont été le plus fréquemment recommandés lors de l’expérience de People vs Big Tech.

Sur X, la surreprésentation de Sarah Knafo

Ce dernier résultat peut paraître étonnant dans la mesure où la candidate Reconquête bénéficie depuis plusieurs semaines de larges boosts de visibilité sur X, en particulier de ses vidéos.

Les résultats collectés au fil du mois de février par la plateforme Arago, montée par l’ancien chef de projet de l’application #TousAntiCovid, poussent même cette dernière à émettre l’hypothèse d’ingérence étrangère. Pour comparaison, Sarah Knafo enregistre dix fois plus de vues que Rachida Dati, pour un nombre d’abonnés similaires, des résultats sans commune mesure avec ceux relevés, par exemple, sur TikTok.

Extrait de l’étude d’Agoratlas, publiée sur LinkedIn

Ce 9 mars, la société d’analyse des réseaux sociaux Agoratlas a publié sa propre cartographie de l’écosystème X français. Ses auteurs y constatent eux aussi une surexposition drastique des publications de Knafo, a priori cohérente avec la survalorisation des contenus d’extrême droite constatée de manière générale sur X.

Mais Agoratlas l’analyse comme le fruit d’une « stratégie de saturation multi-plateforme », dans laquelle Sarah Knafo utilise ses clashs télévisés et les controverses nationales (y compris celle autour du meurtre de Quentin Deranque) pour capter l’attention, puis obliger ses concurrents à signifier leur opposition ou leur ralliement à son parti. Le déséquilibre d’exposition dont elle profite sur X oblige les autres acteurs (médias, opposants, sympathisants) présents sur X à « réagir à ses contenus, multipliant ainsi les mentions directes et les citations », détaille l’entreprise.

Si la plateforme reste très plébiscitée par les représentants politiques comme de nombreux journalistes, rappelons néanmoins que le succès de X faiblit (le réseau affichait 12 millions d’utilisateurs français en octobre 2025, contre 20 millions à l’été 2024) et qu’elle n’est pas le seul espace de débats en ligne. Lors de la campagne présidentielle de 2022, le score final d’Éric Zemmour avait finalement paru très en retrait de sa surreprésentation en ligne, notamment alimentée à l’époque par des pratiques d’astroturfing.

Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

10 mars 2026 à 10:56
Faux comptes, vraie désinfo
Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

Après les élections européennes ou présidentielles, les échéances municipales sont elles aussi le théâtre de campagnes de désinformation alimentées par des faux comptes. Leurs origines sont quelquefois traçables jusqu’à des commanditaires étrangers.

Un blog, des pages Facebook et des comptes X, des tracts placardés dans les rues, même, à l’effigie d’une certaine « Sophie ». À Marseille, le député Sébastien Delogu (La France Insoumise) a beau ne parvenir qu’en quatrième position dans les sondages, quelqu’un se donne beaucoup de mal pour l’attaquer en ligne, l’accusant de viol et de violences.

Sur Facebook, les publications ont enregistré beaucoup de commentaires et de réactions (j’aime, j’adore, etc), mais toutes sont fausses. Après enquête, Le Monde constate que l’essentiel vient de comptes installés en Asie.

À Toulouse et à Paris, d’autres candidats subissent aussi des tentatives d’attaques numériques. Dans la ville rose, un autre candidat LFI, François Piquemal, se voit accusé de pédocriminalité, ses positions sur la Palestine, moquées. À Paris, c’est Pierre-Yves Bournazel, candidat Horizons, qui a signalé à Viginum, le service de vigilance et protection contre les ingérences numériques du Secrétariat général de la Défense et de la Sécurité nationale, des publications sur X dont les propos attaquaient son image. Si aucune de ces campagnes n’a enregistré de grande viralité, toutes témoignent de tentatives de manipulation de l’information en amont des scrutins municipaux des 15 et 22 mars.

Commanditaires inconnus contre LFI, Storm-1516 contre Bournazel

Dans le cas des candidats LFI, dont le parti est lui aussi visé par un faux site intitulé « L’alternative 2026 », difficile de remonter jusqu’au commanditaire. Le Monde a repéré des similarités techniques entre les faux comptes payés pour tenter de viraliser les publications attaquant Sébastien Delogu, celles qui s’en prennent à François Piquemeal (y compris des deepfakes à caractère pornographique), ou encore le faux site suggérant que l’élection de candidats LFI aboutirait à l’instauration de la charia.

Tous recourent notamment à des images générées par Gemini, l’outil d’IA de Google, les sites web concernés s’appuient sur un même thème WordPress, et leurs noms de domaines sont enregistrés chez un seul et même fournisseur, localisé aux Bahamas. Le quotidien remarque bien que les comptes de réseaux sociaux qui diffusent les messages diffamatoires ont été utilisés par le passé pour publier des éléments relatifs à un scandale nigérian ou à la politique gabonaise, mais cela ne suggère pas grand-chose de plus que le recours à une société spécialisée dans les opérations de manipulation de l’information.

Le Monde remarque aussi que les comptes X utilisés dans ces opérations ont servi par le passé à diffuser les messages du lobby pro-israélien Elnet, en conflit ouvert avec LFI, et que Sébastien Delogu et François Piquemal sont au nombre des candidats LFI ayant le plus fortement souligné leur soutien à la population palestinienne et leur opposition aux opérations militaires d’Israël à Gaza. Mais à défaut de retrouver la société autrice des opérations d’influence, et de pouvoir remonter le fil de sa clientèle, difficile d’affirmer qui a instigué ces opérations.

Du côté parisien, en revanche, Viginum constate que le site web de Pierre-Yves Bournazel a été usurpé, notamment pour diffuser une fausse vidéo du candidat dans laquelle ce dernier annonce qu’il voudrait fermer le centre Pompidou. L’entité a surtout repéré un compte X qu’elle connaissait déjà, et est capable de le relier au réseau Storm-1516, lié à la Russie.

Les ingérences électorales, menace désormais régulière

En mai 2025, sur la foi des travaux de Viginum, le Quai d’Orsay indiquait déjà avoir repéré au moins 20 opérations informationnelles de Storm-1516 visant différents scrutins en Europe et aux États-Unis. Sans être nécessairement le fait de ce réseau précis, les opérations de manipulation se sont multipliées dans l’espace informationnel français et européen, avec des effets plus ou moins importants selon les cas.

Pour des scrutins à échelle plus large, on se rappelle ainsi des élections présidentielles roumaines, réorganisées après des suspicions de manipulation du fonctionnement de TikTok, ou encore de diverses opérations en amont des élections européennes, pas toujours correctement modérées par les plateformes numériques.

États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

10 mars 2026 à 08:28
Dis Siri, quel est le VPN qui fait le plus de publicité sur Youtube ?
États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

Avec des chutes d’audience issue de Google allant de 7 à près de 70 % selon les titres étudiés, la presse états-unienne spécialisée dans le numérique subit de plein fouet l’introduction des résumés générés par IA et l’évolution des pratiques d’information, selon une analyse de Growtika.

Les médias ne seraient plus que des « fournisseurs de données » pour les constructeurs d’IA. Tel est du moins le message que Robert Thomson, directeur exécutif de News Corp, a fait passer la semaine dernière, alors que l’empire médiatique de Rupert Murdoch signait un contrat de licence sur ses contenus avec Meta.

Quoique cantonnée à la presse tech, une récente étude des effets des résumés IA de Google sur le trafic des médias tend à confirmer le propos. Menée par la société de SEO Growtica, l’analyse constate une chute drastique du trafic des 10 plus grands médias états-uniens spécialisés dans le numérique depuis que Google a ajouté un premier jet de réponse généré par IA en haut de ses pages de résultats.

Faute de pouvoir s’appuyer sur les chiffres internes des médias concernés, Growtika a collecté les estimations mensuelles de trafic de l’outil Ahrefs entre février 2024 et janvier 2026, pour dix titres phares de la presse technologique états-unienne. L’analyse ne porte donc que sur les audiences venues depuis Google, sans considération pour les éventuels produits et entrées annexes (newsletter, podcasts, trafic issu des réseaux sociaux, etc).

Ampleur de la chute contrastée selon le type de contenu

De The Verge à Tom’s Guide en passant par Digital trends ou Mashable, la société constate que sur la période, ces différents titres ont engrangé, en cumulé, 112 millions de visites lors de leur meilleur mois d’audience. En janvier 2026, en revanche, les dix titres analysés ont cumulé un total de 47 millions de visites. Une chute inévitable, puisque Growtika compare ce chiffre au cumul des meilleurs mois d’audience réalisés sur la période par les sites étudiés.

D’un titre à l’autre, les dynamiques diffèrent, néanmoins : sur les 23 mois précédent janvier 2026, The Verge enregistrait par exemple une moyenne de 2 540 185 visites mensuelles, contre 790 002 visite début 2026. Cela représente une chute de près de 69 % du trafic (et de 85 % lorsqu’on compare l’écart entre son meilleur mois d’audience et janvier 2026).

Sur la même période, Mashable enregistrait une moyenne de 12 174 522 visites, contre 11 331 018 début janvier, soit une chute de près de 7 % du trafic (de 30 % entre son meilleur mois d’audience, mai 2024, et janvier 2026). Pour Growtika, une partie des variations d’un exemple à l’autre s’explique par le type de contenu que produisent chacun de ces médias.

L’agence compare le meilleur mois (audience pic) des médias sur la période à janvier 2026, et met en avant des dynamiques qui varient selon la typologie de contenus produits – capture d’écran

Digital Trends, ZDNet, The Verge et surtout HowToGeek fournissent ainsi beaucoup d’information de service. Le dernier des quatre, qui ont tous enregistré une chute de visites de plus de 85 %, publie ainsi régulièrement des tutoriels de l’ordre de « comme prendre un screenshot sur Windows » ou « comment changer ses paramètres DNS », des questions auxquelles le service Overviews de Google fournit désormais directement des réponses.

Les plus épargnés, Mashable et PCMag (- 41 % entre juillet 2025 et janvier 2026), sont aussi de gros médias (plus de 12 millions de visites mensuelles lors de leur meilleur mois). Growtika souligne par ailleurs que Mashable produit des contenus plus orientés divertissement et culture, potentiellement plus complexes à résumer automatiquement, et PCMag fournit des critiques précises de produits. Mais ces éléments ne restent que des pistes hypothétiques d’explication.

L’intégrité de l’information en question

Growtika constate par ailleurs qu’avec 2,1 millions de visites, les audiences de quatre médias combinés ne dépassent pas celle du seul subreddit r/ChatGPT (4,69 millions de visites). Sans pouvoir établir de causalité directe entre l’effondrement du trafic et l’introduction des résumés dans les pages de résultat Google, la société souligne trois évolutions concomitantes sur la période observée.

Pour commencer, Google a donc déployé ses résumés dès la mi-2024. L’analyse constate que la chute de trafic la plus sévère à début mi-2025, lorsque Google a étendu le service à de plus nombreux types de réponses. Reddit, ensuite, a profité d’une amélioration nette du ranking de ses résultats, en particulier pour des recherches quotidiennes (« quel meilleur enregistreur d’écran », « meilleur vpn gratuit », etc) — l’entreprise, rappelons-le, a signé dès février 2024 un contrat permettant à Google d’entraîner ses IA à partir de ses forums.

Enfin, le succès des robots conversationnels comme ChatGPT, Claude ou Perplexity se traduit par une évolution simple d’usage : une partie du lectorat cherche directement ses informations auprès de ces outils plutôt qu’auprès des producteurs d’information. Outre capter une partie du trafic des médias, les résumés générés par IA soulèvent d’ailleurs le même type de questions relatives à la qualité de l’information fournie que les robots conversationnels.

Les grands modèles de langage qui permettent ce type de fonctionnalité produisent en effet régulièrement des erreurs (dites hallucinations). Autre problématique : ces textes peuvent présenter de nouveaux risques pour les internautes. Des scammeurs ont ainsi manipulé le service de Google pour fournir de fausses informations de contact aux internautes et leur soutirer des fonds.

☕️ Oracle prévoit de supprimer des milliers d’emplois pour financer ses datacenters

9 mars 2026 à 12:59


Oracle envisagerait de licencier des milliers de personnes pour financer son expansion dans l’intelligence artificielle, rapporte Bloomberg, dans toutes ses branches. L’entreprise a déjà annoncé en interne qu’elle étudierait toutes les offres ouvertes dans son département cloud, ralentissant voire stoppant tout processus de recrutement.

L’information vient confirmer un rapport de la banque d’investissement TD Cowen obtenu fin janvier par le média CIO, et dans lequel Oracle chiffrait à 20 000 ou 30 000 le nombre d’emplois à supprimer pour dégager de 8 milliards à 10 milliards de dollars de trésorerie. En mai 2025, ses effectifs mondiaux s’élevaient à 162 000 personnes.

L’entreprise envisagerait par ailleurs de se séparer de Cerner, fournisseur de systèmes d’information spécialisés dans la santé dont l’entreprise avait fait l’acquisition en 2022 pour 28,3 milliards de dollars.

Alors que l’action de la société tutoyait des sommets en septembre 2025, ce qui ne l’empêchait pas, déjà, de tailler dans ses effectifs, elle est aujourd’hui revenue peu ou prou à son niveau de mars 2025.

Dans le cas présent, les différentes pistes sont envisagées alors que diverses banques états-uniennes ont pris leur distance avec certains projets de financement de centres de données portés par le géant du cloud et de la gestion de bases de données.

Au total, d’après TD Bowen, l’entreprise fondée par Larry Ellison aurait besoin de 156 milliards de dollars d’investissements pour mener à bien ses différents projets d’infrastructure. Or, à mesure que les banques se sont faites hésitantes, les prêteurs ont quasiment doublé les primes d’intérêt proposées à Oracle depuis septembre, ce qui leur fait atteindre aujourd’hui un niveau habituellement réservé aux sociétés non cotées.

Entre autres stratégies pour faire face à ces coûts, l’entreprise a notamment commencé à demander 40 % d’acompte à ses nouveaux clients pour que ces derniers participent au financement de l’infrastructure, elle a levé 58 milliards de dollars sur le marché obligataire, et explore désormais des accords dits BYOC (Bring your own chip, apportez vos propres puces). Ceux-ci impliqueraient que les clients apportent leur propre hardware, ce qui allégerait d’autant les comptes d’Oracle.

☕️ Ce que GPT-4o dit de l’attachement émotionnel à l’IA

9 mars 2026 à 10:55


S’il a été controversé, le modèle GPT-4o de l’application ChatGPT a aussi ses fervents défenseurs. Lancé en mai 2024, ce modèle était aussi apprécié que critiqué pour ses capacités de simulation de l’empathie.

Si GPT-4o a valu à OpenAI des poursuites en justice au motif que la machine aurait encouragé des usagers au suicide, elle a aussi été si plébiscitée que, lorsqu’OpenAI a fait le choix de débrancher le modèle, à l’été 2025 d’abord, puis définitivement le 13 février 2026, l’entreprise s’est retrouvée confrontée à une levée de boucliers.

Pour la chercheuse Mai Huiqian Lai, interrogée par Libération, on peut même parler « d’un mouvement de résistance », incarné par exemple dans des pétitions ou d’intenses échanges sur le subreddit r/MyBoyfriendIsAI.

En février 2026, 0,1 % des utilisateurs recouraient à l’option payante de GPT-4o, indique OpenAI. Pour une société en recherche de modèle économique, c’est loin d’être suffisant, mais rapporté aux 900 millions d’utilisateurs de ChatGPT, cela revient tout de même à quelques centaines de milliers d’internautes.

Pour ressusciter GPT-4o – et quelquefois, pour protester contre les récents contrats d’OpenAI avec l’armée américaine, par exemple dans le cadre d’appels au boycott comme QuitGPT –, certains clonent les conversations et la relation entretenue avec la machine sur des services payants, nommés 4o-Revival ou just4o.chat.

OpenAI, de son côté, a promis de lancer un ChatGPT « adulte », mais la réponse ne satisfait pas Mai Huiquian Lai. Autrice d’un article intitulé « « S’il vous plaît, ne tuez pas le seul modèle qui donne une impression d’humanité » : Comprendre le backlash #Keep4o », la chercheuse regrette auprès de Libération que là où des internautes demandent « la reconnaissance de leurs besoins de connexion existentielle », OpenAI ne réponde que par de la pornographie.

Et d’appeler à obliger les constructeurs de robots conversationnels à respecter les usagers et l’intimité que ces derniers créent avec des machines. Après tout, celle-ci découle directement de la manière dont les robots conversationnels sont conçus.

Mai Huiquian Lai estime donc qu’il faudrait créer des régulations qui prennent en compte les préjudices « relationnels et émotionnels » créés par la suppression brutale de machines qui avaient initialement été fabriquées pour susciter l’attachement.

US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

5 mars 2026 à 14:30
Résister aux constructeurs d'IA
US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

Portée par le Future of Life Institute, une nouvelle déclaration « pro-humaine sur l’IA » réunit des signatures de tous les bords politiques états-uniens, ainsi que de multiples personnalités plus ou moins proches du domaine. Le texte joue d’une rhétorique du remplacement de l’humanité par l’IA.

Une déclaration de plus, sur la manière dont l’humanité devrait s’emparer de l’intelligence artificielle, une ! En ce mois de mars, une nouvelle prise de parole a émergé sur le site humanstatement.org. Intitulée « the Pro-Human AI Declaration », le texte est signé par des représentants de tous les bords politiques aux États-Unis et de multiples organisations spécialisées dans l’intelligence artificielle, dans la défense des droits numériques ou dans différents sujets de sociétés. 



L’ex-conseiller de Donald Trump Steve Bannon se retrouve ainsi aux côtés de l’organisation de terrain Progressive Democrats of America, du Congress of Christian Leaders (une association d’églises évangéliques) ou de l’AFL-CIO Tech Institute (spécialiste des effets des nouvelles technologies sur le travail).

Lui aussi signataire de nombreux appels à freiner la course actuelle, le prix Turing Yoshua Bengio côtoie par ailleurs la fondatrice de l’ONG Campagne internationale pour l’abolition des armes nucléaires et prix Nobel Beatrice Fihn, le fondateur de Virgin Group Richard Branson, la directrice exécutive du versant états-unien de Pause AI Holly Elmore, ou encore l’acteur Joseph Gordon-Levitt.

Le texte, lui, propose cinq axes de travail : s’assurer que les humains gardent la maîtrise des outils d’IA, éviter les concentrations de pouvoir, protéger les expériences humaines (des liens familiaux ou communautaires à l’identité, en passant par la protection des mineurs), assurer le pouvoir d’action et la liberté humaine et s’assurer de la responsabilité des constructeurs d’IA ainsi que de leur obligation de rendre des comptes.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Surveillance et non modération : le baby-sitting aussi implique des risques numériques

5 mars 2026 à 09:18

Elles s’appellent Baby Sittor, Babysits, ou beaucoup plus généralement Leboncoin : ces plateformes permettent aux baby-sitters d’entrer en contact avec des familles qui cherchent à faire garder leurs enfants, mais elles ne protègent en rien des abus.

Alors que l’emploi de garde d’enfant est plébiscité par les étudiants (sur les 40 % de ceux qui travaillent, 18 % se tournent vers le baby-sitting), ces derniers, plus généralement des jeunes femmes, se retrouvent quelquefois en situation de vulnérabilité, notamment numérique.

Sur Babysitor et Babysits, nombreuses sont les annonces qui proposent des salaires inférieurs au smic horaire (12,02 euros bruts, 9,52 euros net), relève Le Monde. Les plateformes se placent en simple intermédiaire : il revient donc aux familles et à leurs employés de négocier les tarifs.

caméra de vidéosurveillance par Flock
Flock

Sur Leboncoin, des étudiantes témoignent recevoir des propositions déplacées, « pour être escort ou faire des "massages" ». Testant le système de modération de la plateforme, Le Monde constate que Leboncoin n’a répondu à l’alerte émise qu’une fois son service de presse contacté.

Pour Mathilde Léonard, conseillère sur les questions d’enseignement supérieur à la Fédération nationale des centres d’information sur les droits des femmes et des familles, ces plateformes devraient faire plus pour protéger leurs utilisatrices des violences sexistes et sexuelles.

En dehors des plateformes qui leur permettent de trouver leurs missions, les baby-sitters se retrouvent par ailleurs confrontés à un autre type de risque numérique : la surveillance. Auprès du quotidien, une étudiante de 27 ans indique par exemple avoir reçu un texto lui demandant de ne pas utiliser un plaid qu’elle avait mis sur ses genoux. Ses employeurs avaient installé une caméra dans le salon.

Diffusion non consentie d’images sexuelles : Point de Contact veut agir partout, plus vite

5 mars 2026 à 07:35
VLOP et OP sont dans un bateau
Diffusion non consentie d’images sexuelles : Point de Contact veut agir partout, plus vite

Dans son rapport de transparence 2025, l’association Point de Contact pointe que les obligations légales de très grandes plateformes les poussent à réagir plus vite, en moyenne, que les autres fournisseurs de services numériques. Elle souligne par ailleurs la présence de violences à caractère sexuel dans tous les espaces numériques, contrairement à d’autres types de contenus illicites.

Nommée signaleur de confiance au sens du Règlement sur les services numériques (Digital Services Act, DSA) par l’ARCOM, l’association Point de Contact publie ce 5 mars son rapport de transparence de l’année 2025.

Parmi ses principaux constats, l’association souligne qu’au-delà des très grandes plateformes numériques (VLOP) soumises à des obligations spécifiques par le DSA, la catégorie des « fournisseurs de services intermédiaires » (d’hébergement, d’accès à Internet) est aussi largement utilisée pour la diffusion de certains types de contenus illicites. En conséquence, ils ont reçu plus des trois quarts des notifications de contenus illicites émises par l’association en 2025 (en excluant une affaire spécifique impliquant de contacter OVHcloud).

En termes de contenus, l’association constate que ceux relevant de violences sexuelles (contre personnes mineures comme majeures) sont présents dans tous les types d’espaces numériques, contrairement à d’autres contenus illicites dont la circulation est plus souvent cantonnée aux réseaux sociaux. Sur ce type spécifique de contenus, elle constate une plus grande difficulté à obtenir le retrait de contenu concernant des personnes majeures, et appelle à la mise en place de mécanismes techniques et juridiques permettant de mieux protéger les victimes.

Rapport de transparence de Point de Contact / Capture d’écran

Signaleur de confiance… auprès des très grandes plateformes

En vertu de l’article 22 du DSA, les très grandes plateformes (VLOP) doivent travailler avec les signaleurs de confiance, tels que labellisés au sein de chaque État membre de l’Union européenne. En pratique, lorsque ces derniers font remonter des alertes, les plateformes doivent les traiter en priorité. Aux côtés de Point de Contact, les autres signaleurs nommés par l’Arcom sont e-enfance, l’Association de lutte contre la piraterie audiovisuelle, l’International Fund for Animal Welfare (IFAW), INDECOSA-CGT (Information et défense des consommateurs et salariés), Addictions France, le Crif et la Licra.

Sur l’année écoulée, Point de Contact indique avoir reçu 122 317 signalements, indifféremment d’internautes ou de partenaires, dont 36 % (45 086) ont été qualifiés d’illicites après analyse par quatre juristes de l’association. 65 % (29 640) de ces messages illicites ont conduit à des notifications aux services concernés, ce qui a conduit au retrait de 63% (28 800) de ces contenus. L’association précise que l’écart constaté entre le nombre de contenus signalés et retirés est le plus souvent dû au travail du réseau international INHOPE, qui a pu mener à des retraits avant notification par l’association française.

Si Point de Contact reçoit des notifications sur une variété de sujets, l’immense majorité (93 %) concerne la protection des mineurs. En termes de fournisseurs, la vaste majorité des alertes émises (89 %) ont été envoyées à OVHcloud. La raison, note Point de Contact, est que « l’un des sites hébergés par cette entreprise est ciblé par des réseaux pédocriminels qui profitent des services d’hébergement d’images fournis par ce site pour y télécharger et échanger des contenus d’exploitation sexuelle sur mineure ».

L’association invite donc à se concentrer sur les 11 % d’alertes restantes pour dessiner une image plus précise des actions des différents destinataires de notifications. 571 ont ainsi été soumises à des VLOP. Dans le lot, X fait figure de mauvais élève, dans la mesure où seulement un contenu sur deux, en moyenne, est retiré après notification.

Plus généralement, Point de Contact relève que les contenus de violences à caractère sexuel ne sont pas traités de la même manière par les VLOP et les fournisseurs de service d’hébergement. En l’occurrence, 86 % des notifications envoyées à de très grandes plateformes pour ce type de problématiques ont conduit à des retraits, quand seulement 60 % des notifications similaires auprès d’hébergeurs ont permis d’obtenir ce résultat.

Une partie de l’explication de ce déséquilibre est à chercher dans la réglementation européenne : le DSA prévoit en effet des niveaux de responsabilité différents selon la taille des services. La priorité qui doit être donnée aux signaleurs de confiance, par exemple, n’est imposée qu’aux VLOP. Point de Contact estime néanmoins qu’au sein d’une même catégorie d’acteurs (VLOP, autres plateformes en ligne, fournisseurs de services intermédiaires), l’application du DSA reste hétérogène, que ce soit du point de vue de la rapidité de traitement, de celle de la coopération avec le signaleur ou même de motivation des décisions finalement prises.

Violences à caractère sexuel dans tous les espaces numériques 



Si les discours de haine et contenus terroristes ou négationnistes sont principalement cantonnés aux réseaux sociaux, Point de Contact constate que les violences à caractère sexuel se retrouvent dans tous les espaces numériques.

Dans cette catégorie, la diffusion non consentie d’image à caractère sexuel fait par ailleurs face à une difficulté particulière : quand bien même leur diffusion, voire leur fabrication, ne serait pas consentie par les personnes concernées, lorsque ces dernières sont adultes, les contenus sont rarement considérés comme « manifestement illicite » par les interlocuteurs de Point de Contact.

Rapport de transparence de Point de Contact / Capture d’écran

En 2024, la sociologue Elisa Garcia Mingo résumait ce problème auprès de Next en déclarant : « On manque d’une culture du consentement ». Concrètement, la sous-considération de la dangerosité de ce type de contenu entraîne des temps de traitement plus longs, alors même que la persistance de ces contenus en ligne crée des préjudices aux victimes.

En 2025, un sondage d’Ipsos pour Féministes contre le Cyberharcèlement, Point de Contact et StopFisha constatait que plus d’une victime de cyberharcèlement sur quatre avait subi la diffusion non consentie de contenus sexuels ou intimes. Seulement 12 % des victimes de cyberviolences sexistes et sexuelles interrogées déclaraient avoir porté plainte.

Quatre ans plus tôt, un autre sondage pour Féministes contre le cyberharcèlement constatait que près de la moitié des victimes de cyberharcèlement subissait des symptômes dépressifs, pas loin d’une sur cinq des idées suicidaires.

Pour les images non consenties à caractère sexuel impliquant des adultes, Point de Contact plaide donc pour la mise en place de solutions spécifiques, dont « des obligations renforcées de retrait rapide, des mesures d’atténuation des risques de rediffusion » et des « mécanismes judiciaires accessibles aux victimes, adaptés aux dynamiques propres à l’espace numérique ».

Elle suggère notamment l’introduction de « dispositifs temporaires de restriction d’accès ou de suspension conservatoire du contenu », afin de « réduire l’exposition aux contenus les plus préjudiciables tout en préservant l’équilibre entre protection des victimes, liberté d’expression et sécurité juridique des plateformes ».

Point de Contact relève par ailleurs une généralisation des cas de diffusion d’informations personnelles. En 2025, elle indique avoir dû signaler cent cas différents à des services numériques.

❌