Vue normale

☕️ Google : 1,6 milliard de publicités frauduleuses supprimées dans l’UE avec Gemini

17 avril 2026 à 14:12


Google ne cherche pas seulement à intégrer Gemini partout où c’est possible dans ses applications et services destinés au grand public. L’IA est également à pied d’œuvre dans les outils internes, comme celui qui fait la chasse aux mauvaises publicités.

L’an dernier, l’entreprise a bloqué (PDF) ou supprimé 8,3 milliards de publicités (dont 1,6 milliard dans l’Union européenne), un record : le nombre de suppressions s’était établi à 5,1 milliards en 2024. Google a également suspendu 24,9 millions de comptes (4 millions associés à des escroqueries) ; 2 millions de comptes ont été suspendus dans l’UE. 

Illustration : Flock

La principale raison pour laquelle les publicités sont supprimées en Europe est « l’abus du réseau publicitaire ». Google exclut toute annonce liée à des tentatives de manipulation ou de contournement des systèmes de vérification : les contenus concernant des logiciels malveillants, des sites infectés ou des programmes jugés trompeurs ou nuisibles sont interdits. Tout comme les pratiques visant à obtenir un avantage déloyal, à masquer la véritable nature d’une annonce ou à contourner les règles publicitaires.

Que vient faire Gemini là-dedans ? L’IA générative explique pourquoi le nombre de comptes suspendus est bien moins élevé en 2025 que l’année précédente (39,2 millions). Google affirme que Gemini peut détecter et bloquer plus tôt les publicités enfreignant ses règles en analysant des « milliards de signaux » (ancienneté des comptes, indices comportementaux, schémas de campagne), précise Keerat Sharma, directeur général confidentialité et sécurité des publicités.

Les derniers modèles Gemini comprennent « mieux » les intentions, contrairement aux précédents systèmes basés sur des mots-clés. L’IA serait donc capable de distinguer plus aisément une offre crédible d’une escroquerie, permettant de réduire les « suspensions injustifiées » d’annonceurs de 80 %.

Si les équipes chargées de la modération publicitaire utilisent depuis longtemps l’intelligence artificielle pour trier le bon grain de l’ivraie, les outils optimisés par Gemini ont permis d’intercepter 99 % des annonces enfreignant les règles « avant même qu’elles ne soient diffusées ». 

Les acteurs malveillants utilisent l’IA générative pour créer des publicités trompeuses. « À la fin de l’année dernière, la majorité des annonces responsives créées dans Google Ads étaient examinées instantanément, et les contenus préjudiciables étaient bloqués dès leur soumission », indique le responsable, avant d’annoncer que cette fonction allait être étendue à d’autres formats cette année. 

Le géant de la recherche en ligne veut donner la priorité à la suppression des contenus préjudiciables, et « [aider] les entreprises honnêtes à maintenir leurs publicités en ligne ». L’IA et Gemini ne font pas tout, c’est pourquoi Google a aussi en parallèle un programme de vérification des annonceurs chargé de la validation de l’identité des annonceurs afin de bloquer les acteurs malveillants avant diffusion de leurs publicités.

La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

17 avril 2026 à 10:01
Une app à tout faire peut-elle faire tout bien ?
La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

Codex, l’application dédiée au code d’OpenAI, est la fondation de la « superapp » sur laquelle l’entreprise planche depuis plusieurs mois. Un premier pas qui se destine surtout aux développeurs, cible principale du logiciel. Mais on entrevoit déjà les usages grand public.

Codex en a fait du chemin, depuis ses débuts en février sur macOS (un mois plus tard, une version Windows faisait son apparition). L’application d’OpenAI permet aux développeurs d’utiliser l’agent IA spécialisé dans la programmation dans une interface dédiée (il se décline aussi en version CLI).

Déployez les agents

Ce logiciel phare du vibe-coding — n’oublions pas Claude Code — permet de prototyper rapidement une application (voire de la développer complètement) en laissant le plus gros du travail à l’agent Codex. Mais l’ambition d’OpenAI va bien plus loin : le client Codex n’est autre que la brique fondatrice de la fameuse « superapp » censée répondre à l’ensemble des requêtes des utilisateurs, qu’il s’agisse du grand public, des développeurs ou des professionnels.

« Nous procédons en réalité de façon un peu détournée », a révélé Thibault Sottiaux, responsable de Codex, à ArsTechnica, « nous construisons la superapp au grand jour, en la faisant évoluer à partir de Codex ». La grosse mise à jour livrée hier par l’entreprise le confirme.

On verra si cette stratégie « attrape-tout » ne reviendra pas à créer un véritable monstre ingérable. En attendant, OpenAI démultiplie les capacités de Codex, à commencer par la possibilité d’utiliser n’importe quelle app présente dans le Mac. Plusieurs agents peuvent se déployer et travailler en tâche de fond, sans interférer sur ce que fait l’utilisateur, promet l’entreprise.

Quand Codex s’embête, il lance une partie de Tic Tac Toe.

Codex étant d’abord et avant tout un outil pour les développeurs, cette nouveauté est présentée comme un moyen pour eux de tester leurs apps ou de multiplier les itérations. Le logiciel intègre également son propre navigateur web (ce qui est peut-être le premier pas vers la disparition d’Atlas, le propre navigateur d’OpenAI). 

Le navigateur intégré de Codex.

L’utilisateur peut commenter des éléments de la page web pour fournir des instructions précises à Codex. À terme, OpenAI a l’intention de permettre à Codex de prendre le contrôle complet du navigateur embarqué, au-delà des webapps tournant sur le serveur en local. Avec l’aide du modèle gpt-image-1.5, le nouveau Codex sait aussi générer des visuels d’interface, pour des maquettes ou des jeux.

Le générateur d’images de Codex.

Plus de 90 nouveaux modules d’extension s’ajoutent à la bibliothèque actuelle, qui permettent une intégration collée-serrée entre Codex et de nombreux services et outils comme Slack, Notion, GitLab, Jira, CodeRabbit… L’idée est de connecter Codex à l’environnement de travail et donc d’en faire une passerelle indispensable entre l’utilisateur et son environnement numérique.

Un intermédiaire nommé Codex

Sur les tâches longues, Codex propose de planifier des tâches et reprendre automatiquement un travail plus tard. Il peut aussi reprendre des conversations existantes et se souvenir de modifications demandées pour continuer une tâche. 

Ça peut servir dans le cadre du suivi d’un projet sur le long cours : dans le meilleur des mondes, Codex devrait être en mesure de repérer dans Slack qu’une décision a été prise, aller chercher les détails dans Notion, vérifier ce qui a déjà été implémenté dans le code et proposer à l’utilisateur une liste d’actions. L’agent n’a plus besoin qu’on lui redonne le contexte, il l’a en tête.

L’outil sait prendre en charge les commentaires de revue de code sur GitHub, exécuter des commandes dans plusieurs terminaux en simultané, se connecter à des environnements distants via SSH (encore en alpha). Un nouveau panneau de synthèse complète l’ensemble avec une vue d’ensemble sur les actions réalisées par l’agent, les sources utilisées et les résultats obtenus.

Tout cela parlera davantage aux développeurs. Mais le navigateur web intégré, la manipulation des apps, le suivi de tâches dans la durée, tout cela sera aussi utile à un utilisateur grand public. La mise à jour est en phase de déploiement chez les utilisateurs de l’app de bureau.

Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

17 avril 2026 à 08:04
Pas touche au grisbi !
Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

Il n’y a pas que le prix des composants mémoire qui augmentent, il y a… le montant de la copie privée. Les représentants des ayants droit ont mis sur la table leurs propositions de nouveaux barèmes censés refléter l’évolution des usages. Au programme : forte hausse sur les produits déjà touchés, et extension aux ordinateurs qui étaient jusqu’à présent épargnés.

Les organismes de gestion collective, comme la SACEM et la SACD, ont la main sur le trésor de la rémunération de la copie privée (RCP), et elle est de plus en plus lourde. Les études d’usage réalisées fin 2024 par l’institut CSA concernant la pratique de copies d’œuvres (musique, films, photos, textes) servent de base à de nouveaux barèmes proposés mercredi 15 avril aux industriels de la tech et aux organisations de consommateurs, durant une réunion au ministère de la Culture révélée par L’Informé.

Fin du plafond à 128 Go

Le moins qu’on puisse dire, c’est que les ayants droit ont poussé fort sur la valorisation de la rémunération, qui se base en partie sur l’espace de stockage des appareils. Jusqu’à présent, sur les smartphones neufs de 128 Go ou plus, la redevance était plafonnée à 14 euros HT (16,80 euros TTC). De nouveaux paliers se mettraient en place. Quelques exemples :

  • sur un smartphone de 128 Go, la rémunération passerait à 18 euros HT (21,60 euros TTC), soit une hausse de 29 % ;
  • sur un smartphone de 256 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur un smartphone de 512 Go : 22 euros HT (26,40 euros TTC),+ 57 % ;
  • sur un smartphone de plus de 512 Go : 24 euros HT (28,80 euros TTC), ce qui représente une hausse vertigineuse de 71 %.

Même topo sur les tablettes, où la redevance se limitait à 14 euros HT pour les modèles dotés de 128 Go ou plus. Là aussi, des paliers supplémentaires seraient créés :

  • sur une tablette de 128 Go : 17 euros HT (20,40 euros TTC), soit 21 % de plus ;
  • sur une tablette de 256 Go : 18 euros HT (21,60 euros TTC),+ 29 % ;
  • sur une tablette de 512 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur une tablette de plus de 512 Go ou plus : 26 euros HT (31,20 euros TTC),+ 86 %.

Les smartphones et tablettes reconditionnés subiraient également une augmentation sensible de la rémunération. Elle s’établirait à 10,80 euros HT (12,96 euros TTC) sur un mobile de 128 Go, soit 28,57 % de plus. Un smartphone équipé de plus de 512 Go aurait droit à une redevance de 14,40 euros HT (17,28 euros TTC), soit 71,4 % de plus.

La copie privée aussi pour les PC

Et comme si cela ne suffisait pas, les ayants droit proposent d’appliquer la rémunération copie privée sur les ordinateurs portables/hybrides et les ordinateurs de bureau. Elle serait calculée sur une base forfaitaire : 30 euros HT (36 euros TTC) pour les premiers, 24 euros HT (28,80 euros TTC) pour les seconds. Les modèles reconditionnés seraient aussi concernés, respectivement 18 euros HT (21,60 euros TTC) et 14,40 euros HT (17,28 euros TTC).

Si ce barème était appliqué tel quel, les organismes de gestion collective récupèreraient, à quantités équivalentes, plus de 400 millions d’euros par an. En 2024, la collecte avait grimpé à 246 millions…

Reste cependant un obstacle à passer : les 12 représentants des ayants droit au sein de la commission copie privée font face à 6 représentants des constructeurs et des importateurs, et 6 organisations de consommateurs. Ces derniers vont faire des contre-propositions, qui déboucheront sur un arbitrage puis un vote. La commission, dont la dernière réunion remonte au 12 février (PDF), a écarté le streaming, considéré comme de la location et non comme une copie.

La rémunération pour la copie privée n’est pas un permis de pirater : c’est une exception au Code de la propriété intellectuelle qui autorise la reproduction d’une œuvre pour un usage strictement personnel, à condition que la source soit licite. La redevance, collectée par la société Copie France auprès des fabricants et des importateurs (et répercutée sur le prix payé par les consommateurs), finance en partie la création. 25 % des sommes sont consacrées à des actions culturelles : diffusion du spectacle vivant, développement de l’éducation artistique et culturelle, formation d’artistes.

La France au premier rang mondial de la copie privée

Fin observateur du sujet, Marc Rees de l’Informé remarque sur X que la France représente une part significative des montants collectés à l’échelle mondiale.

Les différentes pratiques mises en oeuvre en Europe et dans le reste du monde ont en effet fait l’objet d’une étude comparative portant sur la période 2019 – 2024, réalisée sous la houlette de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac).

Dans cette « étude mondiale sur la copie privée », publiée fin mars 2026, la Cisac évalue à 1,06 milliard d’euros les sommes collectées au nom de la copie privée au niveau de 32 pays qui pratiquent la fameuse exception depuis 2019.

Avec 246,4 millions d’euros collectés, la France arrive en tête du classement ainsi constitué, juste devant l’Allemagne (235,5 millions d’euros).

La France et l’Allemagne dominent largement le classement des montants collectés entre 2019 et 2024

« En valeur nominale, l’Allemagne et la France affichent de loin les recettes les plus importantes issues des redevances pour copie privée. Sur la période 2019 - 2024 cumulée, ces deux pays ont perçu 50 % du total des recettes déclarées », remarque la Cisac.

Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

17 avril 2026 à 05:51
Un effort qui se paie
Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

À chaque jour son grand modèle de langage, ou presque. Anthropic a en effet dévoilé Claude Opus 4.7, son LLM le plus performant (en dehors de Mythos). Des performances qui se paient : le modèle peut se montrer plus gourmand.

Un peu plus de deux mois après Claude Opus 4.6, et une semaine après Mythos, Anthropic a lancé Claude Opus 4.7, présenté comme son modèle IA le plus performant à ce jour… pour le grand public. Mythos détient toujours la couronne du LLM le plus puissant au catalogue d’Anthropic, mais compte tenu de ses capacités en cybersécurité, il n’est déployé qu’au compte-goutte via le projet Glasswing.

Opus 4.7 est « moins capable » que Mythos, admet l’entreprise. Le modèle intègre en effet des garde-fous capables de détecter et de bloquer automatiquement les requêtes liées à « des usages de cybersécurité interdits ou à haut risque ». Si les modèles de classe Mythos ont vocation à être diffusés à grande échelle, il faudra pour le moment faire avec Opus, dont cette version 4.7 est maintenant disponible pour tous les utilisateurs de Claude, ainsi que dans l’API.

Gare aux tokens

Claude Opus 4.7 promet une vision améliorée avec la prise en charge d’images d’une résolution maximale de 2 576 pixels de long ou 3,75 mégapixels (à comparer avec le maximum précédent qui était de 1 568 px/1,15 mpx). Le modèle devrait donc être en mesure de mieux détecter les objets et mieux comprendre les documents et captures d’écran. 

Image : Anthropic

Par ailleurs, les coordonnées renvoyées correspondent directement aux pixels de l’image d’origine. Plus besoin de conversion comme par le passé, les positions peuvent être immédiatement exploitées. Cela peut être utile pour, par exemple, cliquer sur un bouton dans une interface graphique ou tout simplement pointer précisément sur un élément comme un texte ou un graphique.

Autre changement : un nouveau niveau d’effort « extra high » (xhigh) qui se positionne entre les paliers « high » et « max ». Anthropic recommande de basculer Claude en xhigh pour tout ce qui est programmation et agents autonomes, et high pour tous les cas d’usage sensibles à la qualité du raisonnement.

Les calculs IA coûtent cher, aussi bien pour Anthropic que pour les utilisateurs. Avoir sous la main des options supplémentaires pour contrôler son budget est donc indispensable, d’où ce niveau xhigh. C’est d’autant plus important qu’Opus 4.7 inaugure un nouveau tokenizer qui découpe le texte différemment : un même texte peut générer jusqu’à 35 % de tokens en plus qu’avant. Utiliser ce modèle est donc susceptible de coûter plus cher ou de faire atteindre plus vite les limites de son abonnement. 

Pour justifier cette inflation, Anthropic affirme que son nouveau découpage est plus efficace et qu’il permet au modèle de mieux comprendre certains contenus. Opus 4.7 réfléchit aussi davantage quand le niveau d’effort est élevé, notamment dans des contextes agentiques : la fiabilité s’améliore sur les requêtes complexes, mais le modèle dépense aussi davantage de tokens.

Ce graphique fourni par Anthropic montre qu’Opus 4.7 consomme plus de tokens, mais il atteint aussi des scores supérieurs.

Sur une évaluation interne dédiée au code, l’utilisation des tokens s’améliore « à tous les niveaux ». En pratique, Opus 4.7 consomme souvent davantage de tokens, mais il atteint des scores nettement supérieurs. À effort équivalent, le modèle semble donc obtenir de meilleurs résultats, quitte à « dépenser » davantage.

Afin de faire passer la pilule, Claude Opus 4.7 peut garder en mémoire jusqu’à 1 million de tokens pour une seule requête sans surcoût spécifique. Le modèle est donc en capacité de traiter beaucoup plus d’informations d’un coup, sans impact financier supplémentaire.

Quel budget pour quelle tâche ?

Pour aider les utilisateurs à ne pas exploser leur plafond de dépenses, Opus 4.7 inaugure (en bêta) une fonction « budget de tâche ». Il s’agit d’une enveloppe d’un volume minimal de 20 000 tokens, que le modèle peut dépenser en temps réel : il adapte son travail pour aller au bout de la boucle agentique complète, ce qui inclut la réflexion, les appels et les résultats d’outils, ainsi que la réponse finale. Il s’en sert comme compteur décroissant pour prioriser les tâches à mesure de la consommation du budget alloué.

Attention : un budget trop restrictif poussera Opus 4.7 à traiter la tâche de manière moins approfondie. Il pourra même tout simplement refuser de s’en charger. Anthropic recommande d’expérimenter avec différents budgets en fonction de l’usage. Cette nouveauté diffère de « max_tokens », une limite fixe par requête sur les tokens générés. Les budgets sont une limite indicative sur l’ensemble de la boucle de travail. 

Le pilotage du modèle avec l’API est simplifié. Exit les paramètres classiques (« temperature », « top_p »…), le contrôle se veut plus global pour réduire la complexité, mais aussi reprendre la main sur le comportement du modèle. « Utilisez les budgets pour inciter le modèle à s’auto-réguler, et la limite fixe de tokens comme plafond strict pour maîtriser la consommation », résume Anthropic. Un guide est en ligne pour épauler les utilisateurs dans la migration depuis Opus 4.6.

❌