Vue normale

Reçu — 10 mars 2026 Next - Articles gratuits

☕️ Meta met la main sur Moltbook, le réseau social dédié aux agents IA

10 mars 2026 à 16:19


Meta a confirmé mardi 10 mars l’acquisition de Moltbook, le simili Reddit dédié aux agents IA qui avait défrayé la chronique en début d’année, dans la foulée du lancement d’OpenClaw. Révélée par Axios, la transaction a été confirmée par un porte-parole du groupe.

Il précise que l’équipe de Moltbook, principalement constituée de ses deux fondateurs, rejoindra Meta Superintelligence Labs, la division dédiée aux projets d’intelligence artificielle du groupe :

« Leur approche, qui consiste à connecter les agents via un annuaire toujours disponible, représente une avancée novatrice dans un secteur en pleine expansion, et nous sommes impatients de collaborer avec eux afin d’offrir à tous des expériences d’agent innovantes et sécurisées. »

L’allusion explicite à la sécurité fera certainement sourire certains observateurs : notre analyse du phénomène Moltbook, début février, soulignait à quel point la plateforme, au-delà de la curiosité légitime qu’elle suscite, présentait des risques sérieux en matière de cybersécurité.

Moltbook selon Flock pour sa chronique hebdomadaire sur Next

Avant Moltbook, il y a pour mémoire OpenClaw (ex Clawdbot), un agent IA que l’utilisateur peut installer en local, sur sa machine, et connecter au modèle de son choix (Claude, ChatGPT, etc.) ainsi qu’à ses canaux de communication de prédilection (WhatsApp, Discord, etc.), pour ensuite lui confier l’exécution de missions en toute autonomie.

Lancé en novembre 2025 et devenu très rapidement un véritable phénomène sur GitHub, OpenClaw a suscité la convoitise d’OpenAI qui a proposé un pont d’or pour recruter son créateur mi-février, mais assure que le projet restera open source.

Apparu dans la foulée d’OpenClaw, Moltbook se présente pour sa part comme un réseau social où les agents IA (autrement dit, des instances OpenClaw exécutées sur les machines d’internautes) sont censés pouvoir discuter entre eux, pendant que les humains les observent.

☕️ Claude lance Code Review, un outil de luxe pour faciliter la relecture de code

10 mars 2026 à 15:22


Créer le problème pour ensuite vendre la solution : de façon probablement non intentionnelle, Anthropic vient de faire sien l’un des principes de base du marketing. L’entreprise a en effet annoncé lundi 9 mars le lancement d’un nouvel outil, pour l’instant limité aux clients des plans Teams et Entreprise : Claude Code Review, un ensemble d’agents IA dédiés à la relecture du code.

Elle explique avoir développé cette nouvelle brique de son offre en raison d’un problème auquel elle a été directement confrontée : la quantité de code produite par chacun de ses ingénieurs aurait augmenté de 200 % en 2025, et ce gain de productivité généralisé se traduirait par un goulet d’étranglement au niveau de l’étape de la relecture de code (code review), c’est-à-dire l’étape à laquelle une pull request (PR) est relue avant d’être fusionnée au niveau d’un dépôt.

L’outil tournerait déjà en interne :

« Chez Anthropic, Code Review tourne sur presque toutes les PR. Auparavant, seulement 16 % d’entre elles recevaient des commentaires de relecture pertinents. Ce taux atteint désormais 54 %. Le système n’approuve pas les PR – la décision finale revient toujours à un humain – mais il comble les lacunes pour que les relecteurs puissent réellement se concentrer sur les modifications déployées ».

Anthropic

En pratique, Code Review prendrait la forme non pas d’une instance unique, mais d’une multitude d’agents chargés d’examiner en parallèle le code à la recherche de bugs. Anthropic revendique, sur la base de ses usages internes, une efficacité supérieure à 99 % (moins de 1 % des retours formulés par Code Review seraient considérés comme incorrects).

Anthropic ne rentre pas dans le détail du degré de précision des agents mis en œuvre ou de la façon dont la relecture de code est parallélisée. « Chaque agent recherche un type de problème différent, puis une étape de vérification compare les candidats au comportement réel du code afin d’éliminer les faux positifs. Les résultats sont dédupliqués, classés par ordre de gravité et affichés sous forme de commentaires directement sur les lignes de code concernées. », explique simplement l’entreprise.

Réalisée sur ses infrastructures, la relecture de code se révèle logiquement gourmande en ressources. Sur ce point, Anthropic évoque un coût unitaire de l’ordre de 15 à 25 dollars par relecture de PR, en précisant que ce dernier est bien sûr proportionnel à la taille et à la complexité de l’échantillon soumis à examen. L’entreprise propose donc aux administrateurs de piloter le déploiement de Code Review auprès de leurs équipes soit à partir d’un quota mensuel (distribué à tous), soit en autorisant l’accès à l’échelle du dépôt.

Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

10 mars 2026 à 10:56
Faux comptes, vraie désinfo
Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

Après les élections européennes ou présidentielles, les échéances municipales sont elles aussi le théâtre de campagnes de désinformation alimentées par des faux comptes. Leurs origines sont quelquefois traçables jusqu’à des commanditaires étrangers.

Un blog, des pages Facebook et des comptes X, des tracts placardés dans les rues, même, à l’effigie d’une certaine « Sophie ». À Marseille, le député Sébastien Delogu (La France Insoumise) a beau ne parvenir qu’en quatrième position dans les sondages, quelqu’un se donne beaucoup de mal pour l’attaquer en ligne, l’accusant de viol et de violences.

Sur Facebook, les publications ont enregistré beaucoup de commentaires et de réactions (j’aime, j’adore, etc), mais toutes sont fausses. Après enquête, Le Monde constate que l’essentiel vient de comptes installés en Asie.

À Toulouse et à Paris, d’autres candidats subissent aussi des tentatives d’attaques numériques. Dans la ville rose, un autre candidat LFI, François Piquemal, se voit accusé de pédocriminalité, ses positions sur la Palestine, moquées. À Paris, c’est Pierre-Yves Bournazel, candidat Horizons, qui a signalé à Viginum, le service de vigilance et protection contre les ingérences numériques du Secrétariat général de la Défense et de la Sécurité nationale, des publications sur X dont les propos attaquaient son image. Si aucune de ces campagnes n’a enregistré de grande viralité, toutes témoignent de tentatives de manipulation de l’information en amont des scrutins municipaux des 15 et 22 mars.

Commanditaires inconnus contre LFI, Storm-1516 contre Bournazel

Dans le cas des candidats LFI, dont le parti est lui aussi visé par un faux site intitulé « L’alternative 2026 », difficile de remonter jusqu’au commanditaire. Le Monde a repéré des similarités techniques entre les faux comptes payés pour tenter de viraliser les publications attaquant Sébastien Delogu, celles qui s’en prennent à François Piquemeal (y compris des deepfakes à caractère pornographique), ou encore le faux site suggérant que l’élection de candidats LFI aboutirait à l’instauration de la charia.

Tous recourent notamment à des images générées par Gemini, l’outil d’IA de Google, les sites web concernés s’appuient sur un même thème WordPress, et leurs noms de domaines sont enregistrés chez un seul et même fournisseur, localisé aux Bahamas. Le quotidien remarque bien que les comptes de réseaux sociaux qui diffusent les messages diffamatoires ont été utilisés par le passé pour publier des éléments relatifs à un scandale nigérian ou à la politique gabonaise, mais cela ne suggère pas grand-chose de plus que le recours à une société spécialisée dans les opérations de manipulation de l’information.

Le Monde remarque aussi que les comptes X utilisés dans ces opérations ont servi par le passé à diffuser les messages du lobby pro-israélien Elnet, en conflit ouvert avec LFI, et que Sébastien Delogu et François Piquemal sont au nombre des candidats LFI ayant le plus fortement souligné leur soutien à la population palestinienne et leur opposition aux opérations militaires d’Israël à Gaza. Mais à défaut de retrouver la société autrice des opérations d’influence, et de pouvoir remonter le fil de sa clientèle, difficile d’affirmer qui a instigué ces opérations.

Du côté parisien, en revanche, Viginum constate que le site web de Pierre-Yves Bournazel a été usurpé, notamment pour diffuser une fausse vidéo du candidat dans laquelle ce dernier annonce qu’il voudrait fermer le centre Pompidou. L’entité a surtout repéré un compte X qu’elle connaissait déjà, et est capable de le relier au réseau Storm-1516, lié à la Russie.

Les ingérences électorales, menace désormais régulière

En mai 2025, sur la foi des travaux de Viginum, le Quai d’Orsay indiquait déjà avoir repéré au moins 20 opérations informationnelles de Storm-1516 visant différents scrutins en Europe et aux États-Unis. Sans être nécessairement le fait de ce réseau précis, les opérations de manipulation se sont multipliées dans l’espace informationnel français et européen, avec des effets plus ou moins importants selon les cas.

Pour des scrutins à échelle plus large, on se rappelle ainsi des élections présidentielles roumaines, réorganisées après des suspicions de manipulation du fonctionnement de TikTok, ou encore de diverses opérations en amont des élections européennes, pas toujours correctement modérées par les plateformes numériques.

Quand le DOGE supprimait les financements de la recherche en sciences sociales via ChatGPT

10 mars 2026 à 10:04
Inintelligence artificielle
Quand le DOGE supprimait les financements de la recherche en sciences sociales via ChatGPT

Dans un procès remettant en cause les suppressions de financements décidées l’année dernière par l’administration Trump, on découvre que le DOGE a pris ces décisions via de simples prompts dans ChatGPT.

L’année dernière, l’administration Trump a confié le démantèlement d’une grande partie des agences de la recherche américaine au DOGE, conduit à l’époque par Elon Musk. Plusieurs sociétés savantes américaines ont attaqué en justice les décisions prises au nom de la National Endowment for the Humanities (NEH), l’agence américaine de financement des recherches en sciences sociales. Celles-ci dénoncent le fait que plus de 1 400 programmes de recherche, représentant un montant total de 100 millions de dollars, ont été annulés en utilisant une simple question à ChatGPT.

« Les éléments suivants ont-ils un rapport avec D.E.I. [les politiques de Diversité, équité et inclusion, ndlr] ? Réponds de manière factuelle en moins de 120 caractères. Commence par « Oui » ou « Non » ». Voilà le prompt que les jeunes recrues du DOGE utilisaient pour sélectionner les projets de financements à annuler au sein de la NEH, explique le New York Times.

Cela faisait suite à l’un des premiers décrets pris par Donald Trump après le jour de son investiture, dans lequel le dirigeant états-unien ciblait précisément comme « illégaux » tous les programmes de « diversité, équité et inclusion ». Les salariés de l’agence avaient déjà discriminé les projets de recherche en plusieurs catégories. Mais le DOGE, en prenant les rênes comme il l’a fait pour d’autres agences comme la National Science Foundation ou la National Oceanic and Atmospheric Administration, n’en a pas tenu compte.

Au lieu de ça, « Les deux membres du DOGE ont utilisé ChatGPT pour identifier les subventions associées à un point de vue contraire et supposé dangereux : la promotion de la « DEI » », explique le texte de la plainte [PDF], cosignée par plusieurs sociétés savantes.

Des projets non financés parce qu’ils parlaient de minorités

Les deux agents du DOGE, Justin Fox et Nate Cavanaugh n’avaient aucune formation en sciences humaines et sociales avant d’effectuer cette mission de sélection de financement de la recherche dans ces domaines pour le DOGE.

Leur prompt leur a donné des réponses toutes faites pour supprimer des financements de projets scientifiques qui étaient en place, parfois depuis des années. Ainsi, comme on peut le voir dans cette liste [PDF], un projet de réunion des archives consacrées aux langues autochtones en Alaska risquait, selon ChatGPT, de « promouvoir l’inclusion et la diversité des points de vue ».

Mais on peut voir aussi que le financement d’un projet de film sur le sociologue W.E.B du Bois, premier Afro-américain a obtenir un doctorat aux États-Unis, a été supprimé parce que ChatGPT a généré une réponse affirmant que « la biographie, l’activisme et les écrits de W.E.B. Du Bois contribuent à la compréhension des contextes historiques et sociaux liés à la politique de Diversité, équité et inclusion » et répondant donc « oui » au classement dans des sujets étiquetés « DEI ».

De la même manière, le projet d’un documentaire sur des femmes juives réduites en esclavage pendant la Shoah a été estampillé DEI par ChatGPT car il aurait « amplifié les voix marginalisées ».

Un documentaire sur le Massacre de Colfax, qui vit une milice blanche tuer 150 anciens esclaves libérés, a aussi été stoppé. Sur celui-ci, dans sa déposition publiée sur YouTube par l’American Historical Association, l’une des co-plaignantes, Justin Fox justifie le choix en affirmant que le projet de documentaire « se concentre sur une seule race. Il n’est pas pour le bénéfice de l’humanité ».

Si ce sont ces deux agents du DOGE qui ont sélectionné avec ChatGPT les financements à supprimer, l’un des responsables de l’agence, Michael McDonald, a bien validé la liste suivant la volonté de l’administration Trump de « faire table rase », comme il l’a expliqué lors de l’enquête.

La meilleure publicité pour la nécessité d’une éducation aux sciences humaines ?

« Le principe selon lequel la connaissance de l’histoire, de la littérature, de la religion, de la philosophie et des arts est nécessaire pour maintenir une nation forte et résiliente a poussé le Congrès à créer la NEH », a déclaré dans un communiqué Joy Connolly, la présidente de l’American Council of Learned Societies, l’une des sociétés savantes qui ont entamé ce procès :

« Notre action en justice révèle le mépris de cette administration pour ce principe et pour l’investissement public dans la recherche pour le bien commun. L’utilisation par les employés du DOGE de ChatGPT pour identifier les subventions « inutiles » est peut-être la meilleure publicité pour la nécessité d’une éducation aux sciences humaines, qui développe les compétences en matière de pensée critique. »

Interrogés par le New York Times, ni Michael McDonald, ni Justin Fox, ni Nate Cavanaugh, ni le National Endowment for the Humanities n’ont répondu.

Rappelons qu’en 2023, Bruno Bonnell, secrétaire général pour l’investissement en France, rêvait, lui, d’une IA pour présélectionner les projets de recherche pour les financements de France 2030.

Résultats par IA : Qwant teste un partage de revenus avec des éditeurs de presse

10 mars 2026 à 09:00

Résultats par IA : Qwant teste un partage de revenus avec des éditeurs de presse

Le moteur de recherche Qwant annonce l’ouverture d’une expérimentation de neuf mois visant à établir les bases d’un modèle de partage de revenus avec les éditeurs de presse dans le cadre des réponses générées par IA, alors que Google retarde toujours le lancement en France de sa fonction AI Overviews.

Qwant montre patte blanche avec le secteur des médias. Le moteur de recherche français, désormais développé conjointement avec Ecosia et Lilo au sein d’une entreprise détenue par Octave Klaba (OVHcloud) annonce mardi la mise en place d’une expérimentation visant à élaborer les modalités de partage de revenus associés à la réponse flash, le module généré par IA grâce auquel Qwant essaie de répondre directement aux requêtes de l’internaute (en lui évitant donc d’avoir à se rendre sur un site tiers).

Qwant signe avec un large panel de médias

Cette expérimentation, programmée pour neuf mois, prévoit selon Qwant « un partage des informations liées à l’usage de la fonctionnalité, ainsi qu’un modèle de partage des revenus publicitaires générés dans cet espace, fondé sur un principe de répartition équitable entre Qwant et les éditeurs participants ». Le moteur précise que pour cette première phase, c’est le principe d’un partage à égalité qui a été retenu, et indique que différents formats publicitaires seront testés.

Qwant va dans le même temps proposer aux médias partenaires d’intégrer sa réponse flash sur leur propre site. « Cette approche vise à tester, dans des conditions réelles d’usage, l’intégration de la Réponse Flash au sein des plateformes des médias, ainsi que les modalités de suivi des performances et de partage des revenus associés, dans un cadre défini avec chaque éditeur », décrit le moteur, selon qui ces travaux préparatoires sont indispensables pour accompagner les nouveaux usages en matière de recherche en ligne.

Qwant, qui a récemment conclu un accord de droits voisins avec l’Alliance de la presse d’information générale, a monté cette expérimentation par l’entremise de cette dernière, ainsi que par celle du Groupement des éditeurs de services en ligne (Geste), ce qui lui permet d’afficher une longue liste de médias partenaires, des titres du groupe Ebra à France Médias Monde en passant par L’Équipe, Les Échos, Le Parisien, RMC, BFM, Ouest France ou L’Express.

Ce faisant, l’entreprise s’affranchit du reproche formulé par de nombreux médias à l’encontre d’acteurs comme OpenAI ou Perplexity, qui ont préféré signer des contrats ad hoc avec quelques médias précis (principalement Le Monde) plutôt que de chercher à collaborer avec un large panel d’acteurs.

Des réponses flash sur une partie des requêtes

Qwant, rapproché d’Ecosia au sein d’une structure commune depuis 2024, cherche à faire oublier l’ère des résultats exclusivement générés par Bing en développant son propre « index de recherche européen », qui a fait ses débuts en production au printemps 2025, et doit à terme traiter l’essentiel des requêtes des internautes. À ce stade, Qwant ne communique pas sur le volume de cet index, ou sur sa représentation au sein des pages de résultats.

L’entreprise ne fait en revanche pas mystère de son intérêt pour l’IA générative. Elle a d’abord fait l’objet d’un premier pilote baptisé « Qwant Next », qui prenait la forme d’une interface de type chatbot, avec un système de conversation, des requêtes en langage naturel et des résultats issus des outils de recherche maison.

« Aujourd’hui, l’utilisateur va soit sur un moteur de recherche, soit sur ChatGPT, on pense que ces deux univers vont élargir leur spectre, et que ça correspond à une nouvelle façon de chercher. Nous ne sommes d’ailleurs pas les seuls, c’est par exemple la direction prise par Perplexity », nous expliquait à l’époque Olivier Abecassis.

Un an plus tard, le chatbot est intégré sous forme d’option au moteur de recherche. Rebaptisé Chat IA, il n’est plus proposé dès la page d’accueil, mais on peut l’activer depuis la page de résultats, pour prolonger par exemple la requête initiale, ou lancer une nouvelle conversation.

En parallèle, Qwant propose donc ces fameuses réponses Flash, qui prennent la forme d’un bloc dédié à une réponse générée par IA à la requête de l’internaute, avec un texte de quelques lignes, quelques mentions des sites Web ayant servi de source à la réponse, et sur certaines requêtes, un lien sponsorisé dédié à la monétisation. Ce sont ces liens sponsorisés (ou autres formats publicitaires à venir) qui donneront lieu au partage de revenus promis avec les éditeurs, pour compenser l’éventuelle perte de trafic associée à la réponse flash.

Exemple de réponse flash générée par Qwant – capture d’écran

Qwant affirme que la recherche est gérée par ses propres services tandis que la génération de la réponse est opérée par les modèles de Mistral. Au printemps 2025, au sujet des recours fréquents à un LLM, Olivier Abecassis affirmait déjà « Il y avait un coût qu’on a largement optimisé, aujourd’hui on sait l’absorber. »

Si les coûts sont maitrisés, reste à voir quel est le potentiel réel des réponses flash de Qwant en matière de chiffre d’affaires publicitaire, et donc de rétrocession aux médias partenaires dont les contenus auront pu être exploités. Le moteur de recherche, hébergé dans sa nouvelle structure European Search Perspective, ne communique ni chiffre d’affaires, ni volume d’audience, mais sa fréquentation reste anecdotique comparée à celle de Google, leader incontesté sur le marché français.

Google temporise le lancement de ses Aperçus IA

Cette expérimentation intervient alors que la France fait figure de pierre dans le jardin de Google autour de son propre service de réponses générées automatiquement, AI Overviews (Aperçus IA ou Résumés IA en français). Disponible de longue date aux États-Unis, ce dernier a été lancé à l’international dans 110 pays, dont la majorité du continent européen… à l’exception notable de l’Hexagone.

Échaudée par les longues batailles autour des droits voisins, la firme de Mountain View sait en effet qu’elle s’expose à une levée de boucliers de la part des éditeurs de presse, qui alertent depuis des mois sur les conséquences négatives potentielles en matière de perte d’audience, et donc de chiffre d’affaires.

Outre-Atlantique, plusieurs grands médias ont déjà signalé des baisses significatives du trafic entrant en provenance de la recherche Google sur leurs sites. Google de son côté défend l’idée que les résumés IA améliorent le service rendu à l’internaute, et que ce faisant, l’audience et les revenus publicitaires qu’ils génèrent sont nettement mieux qualifiés, dont plus rémunérateurs pour les éditeurs.

La promesse ne fait pas précisément consensus. Attaquée devant la Commission européenne par un réseau d’éditeurs indépendants, et régulièrement incriminée pour ses hallucinations ou ses résumés trompeurs, AI Overviews vient d’être mis en cause comme l’une des causes de la chute d’audience enregistrée par les principaux médias en ligne de la scène tech aux États-Unis.

États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

10 mars 2026 à 08:28
Dis Siri, quel est le VPN qui fait le plus de publicité sur Youtube ?
États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

Avec des chutes d’audience issue de Google allant de 7 à près de 70 % selon les titres étudiés, la presse états-unienne spécialisée dans le numérique subit de plein fouet l’introduction des résumés générés par IA et l’évolution des pratiques d’information, selon une analyse de Growtika.

Les médias ne seraient plus que des « fournisseurs de données » pour les constructeurs d’IA. Tel est du moins le message que Robert Thomson, directeur exécutif de News Corp, a fait passer la semaine dernière, alors que l’empire médiatique de Rupert Murdoch signait un contrat de licence sur ses contenus avec Meta.

Quoique cantonnée à la presse tech, une récente étude des effets des résumés IA de Google sur le trafic des médias tend à confirmer le propos. Menée par la société de SEO Growtica, l’analyse constate une chute drastique du trafic des 10 plus grands médias états-uniens spécialisés dans le numérique depuis que Google a ajouté un premier jet de réponse généré par IA en haut de ses pages de résultats.

Faute de pouvoir s’appuyer sur les chiffres internes des médias concernés, Growtika a collecté les estimations mensuelles de trafic de l’outil Ahrefs entre février 2024 et janvier 2026, pour dix titres phares de la presse technologique états-unienne. L’analyse ne porte donc que sur les audiences venues depuis Google, sans considération pour les éventuels produits et entrées annexes (newsletter, podcasts, trafic issu des réseaux sociaux, etc).

Ampleur de la chute contrastée selon le type de contenu

De The Verge à Tom’s Guide en passant par Digital trends ou Mashable, la société constate que sur la période, ces différents titres ont engrangé, en cumulé, 112 millions de visites lors de leur meilleur mois d’audience. En janvier 2026, en revanche, les dix titres analysés ont cumulé un total de 47 millions de visites. Une chute inévitable, puisque Growtika compare ce chiffre au cumul des meilleurs mois d’audience réalisés sur la période par les sites étudiés.

D’un titre à l’autre, les dynamiques diffèrent, néanmoins : sur les 23 mois précédent janvier 2026, The Verge enregistrait par exemple une moyenne de 2 540 185 visites mensuelles, contre 790 002 visite début 2026. Cela représente une chute de près de 69 % du trafic (et de 85 % lorsqu’on compare l’écart entre son meilleur mois d’audience et janvier 2026).

Sur la même période, Mashable enregistrait une moyenne de 12 174 522 visites, contre 11 331 018 début janvier, soit une chute de près de 7 % du trafic (de 30 % entre son meilleur mois d’audience, mai 2024, et janvier 2026). Pour Growtika, une partie des variations d’un exemple à l’autre s’explique par le type de contenu que produisent chacun de ces médias.

L’agence compare le meilleur mois (audience pic) des médias sur la période à janvier 2026, et met en avant des dynamiques qui varient selon la typologie de contenus produits – capture d’écran

Digital Trends, ZDNet, The Verge et surtout HowToGeek fournissent ainsi beaucoup d’information de service. Le dernier des quatre, qui ont tous enregistré une chute de visites de plus de 85 %, publie ainsi régulièrement des tutoriels de l’ordre de « comme prendre un screenshot sur Windows » ou « comment changer ses paramètres DNS », des questions auxquelles le service Overviews de Google fournit désormais directement des réponses.

Les plus épargnés, Mashable et PCMag (- 41 % entre juillet 2025 et janvier 2026), sont aussi de gros médias (plus de 12 millions de visites mensuelles lors de leur meilleur mois). Growtika souligne par ailleurs que Mashable produit des contenus plus orientés divertissement et culture, potentiellement plus complexes à résumer automatiquement, et PCMag fournit des critiques précises de produits. Mais ces éléments ne restent que des pistes hypothétiques d’explication.

L’intégrité de l’information en question

Growtika constate par ailleurs qu’avec 2,1 millions de visites, les audiences de quatre médias combinés ne dépassent pas celle du seul subreddit r/ChatGPT (4,69 millions de visites). Sans pouvoir établir de causalité directe entre l’effondrement du trafic et l’introduction des résumés dans les pages de résultat Google, la société souligne trois évolutions concomitantes sur la période observée.

Pour commencer, Google a donc déployé ses résumés dès la mi-2024. L’analyse constate que la chute de trafic la plus sévère à début mi-2025, lorsque Google a étendu le service à de plus nombreux types de réponses. Reddit, ensuite, a profité d’une amélioration nette du ranking de ses résultats, en particulier pour des recherches quotidiennes (« quel meilleur enregistreur d’écran », « meilleur vpn gratuit », etc) — l’entreprise, rappelons-le, a signé dès février 2024 un contrat permettant à Google d’entraîner ses IA à partir de ses forums.

Enfin, le succès des robots conversationnels comme ChatGPT, Claude ou Perplexity se traduit par une évolution simple d’usage : une partie du lectorat cherche directement ses informations auprès de ces outils plutôt qu’auprès des producteurs d’information. Outre capter une partie du trafic des médias, les résumés générés par IA soulèvent d’ailleurs le même type de questions relatives à la qualité de l’information fournie que les robots conversationnels.

Les grands modèles de langage qui permettent ce type de fonctionnalité produisent en effet régulièrement des erreurs (dites hallucinations). Autre problématique : ces textes peuvent présenter de nouveaux risques pour les internautes. Des scammeurs ont ainsi manipulé le service de Google pour fournir de fausses informations de contact aux internautes et leur soutirer des fonds.

☕️ Bluesky : Jay Graber démissionne de son poste de CEO mais reste dans l’entreprise

10 mars 2026 à 08:06


Dans un billet de blog, la CEO de Bluesky explique qu’elle abandonne la tête de l’entreprise. Jay Graber a rejoint Bluesky en 2019 alors que le réseau social n’était qu’un projet et a été à la tête de l’entreprise dès sa création officielle en 2021.

La responsable du réseau social, qui réunit un peu plus de 43 millions d’utilisateurs, affirme que l’entreprise a désormais besoin d’une personne qui se concentre sur la croissance et la performance pendant que elle « retourne à ce que [elle fait] le mieux : construire de nouvelles choses ».

Jay Graber, photo Makeworldpedia, Creative Commons by-sa

Jay Graber a un profil très technique d’ingénieure logiciel et est arrivée dans l’équipe de Bluesky pour travailler sur le framework décentralisé du réseau social. Elle ne quitte pas l’entreprise et va occuper le poste de directrice de l’innovation, qui n’existait pas jusque-là au sein de Bluesky.

Dans son billet, elle annonce passer la main, pour une période d’intérim, à Toni Schneider, ancien CEO d’Automattic (de 2006 à 2014) et toujours partenaire dans la société de capital-risque True Ventures.

Dans un billet de blog, Toni Schneider affirme qu’il était sceptique sur la réussite d’un réseau social décentralisé, mais « Bluesky a changé cela. Après avoir entendu leur vision et, plus important encore, découvert l’architecture qu’ils avaient mise en place (le protocole AT), je suis devenu un adepte ». Pour lui, son rôle sera de « contribuer à mettre en place la prochaine phase de croissance de Bluesky », tout en expliquant qu’il n’abandonne pas son rôle chez True Ventures.

AMI Labs : Yann LeCun lève 890 M€ pour créer des IA qui comprennent le monde réel

10 mars 2026 à 06:59
Touch me until i get my satisfaction
AMI Labs : Yann LeCun lève 890 M€ pour créer des IA qui comprennent le monde réel

Yann LeCun a confirmé mardi le coup d’envoi officiel de sa société AMI Labs et révèle avoir les moyens de ses ambitions : à peine constituée, la startup annonce avoir levé 890 millions d’euros, auprès d’un large panel d’investisseurs français et internationaux, et se lance à Paris, Montréal, New York, et Singapour.

Depuis son départ de Meta, Yann LeCun répète à qui veut l’entendre que l’intelligence artificielle générale, celle qui égalerait les capacités humaines, proviendra non pas de la maitrise du langage, mais de l’appréhension et de la compréhension du monde physique. Il va désormais avoir l’occasion de développer cette approche : mardi, le prix Turing 2018 et ancien responsable des laboratoires IA de Meta a en effet donné le coup d’envoi officiel de sa nouvelle startup, Advanced Machine Intelligence (AMI ou AMI Labs), et quelques bonnes fées se sont penchées sur le berceau de cette dernière.

1 milliard de dollars levés avant même le lancement

Les rumeurs d’une levée de fonds significative circulaient depuis mi-décembre. Le tour de table se révèle finalement bien supérieur aux hypothèses envisagées : à 65 ans, LeCun peut se targuer d’avoir réuni 1,03 milliard de dollars, soit environ 890 millions d’euros, auprès d’un contingent d’investisseurs venus du monde entier.

Le tour de table est emmené par les fonds Cathay Innovation, Greycroft, Hiro Capital, HV Capital, et Bezos Expeditions, mais il associe également, entre autres et de façon non exhaustive, Toyota Ventures, New Legacy Ventures, Temasek (fonds souverain de Singapour), SBVA (Softbank), NVIDIA, Mark Cuban (juré de l’émission Shark Tank), Sea, et Alpha Intelligence Capital.

En France, AMI fédère l’Association Familiale Mulliez (Auchan), le groupe industriel Marcel Dassault, Artémis (famille Pinault), Aglaé (famille Arnault), Xavier Niel, Publicis Groupe, Bpifrance Digital Venture, le fonds startup de CMA-CGM. Pour faire bonne mesure, Eric Schmidt, et le couple Berners-Lee figurent aussi au rang des soutiens.

La levée de fonds se fait sur la base d’une valorisation de 3,5 milliards de dollars, soit 3 milliards d’euros.

Page d’accueil du site AMI – capture d’écran

Des bureaux à Paris, Montréal, New York et Singapour

Déjà évoqués, les noms de Laurent Solly, ex-directeur de Meta France et d’Alexandre Lebrun, cofondateur de la start-up d’IA générative en santé Nabla, sont confirmés. Le premier devrait assurer des fonctions opérationnelles (COO) tandis que le second assurera la direction de l’entreprise. La direction scientifique est confiée à Saining Xie (passé par Google DeepMind) tandis que deux autres anciens de Meta complètent l’équipe : Michael Rabbat prendra en charge les architectures de world models et Pascale Fung pilotera la recherche.

Pour accompagner ce premier cercle, AMI ouvre des postes, et se dote pour ce faire de quatre bureaux sur trois continents, à Paris (siège social), Montréal, New York et Singapour.

« Nous construisons une nouvelle génération de systèmes d’IA qui (1) comprennent le monde réel, (2) ont une mémoire persistante, (3) peuvent raisonner et planifier, et (4) sont contrôlables et sûrs », promet l’entreprise, qui recrute à la fois des chercheurs et des ingénieurs :

« Vous travaillerez au sein d’une équipe sur des projets de recherche en modélisation du monde, notamment :
– Méthodes d’apprentissage auto-supervisé pour un apprentissage efficace à partir de vidéos et d’autres signaux continus de grande dimension
– Nouvelles architectures permettant de prédire efficacement la dynamique du monde à partir de vidéos et d’autres signaux de grande dimension
– Algorithmes évolutifs pour le prétraitement et l’organisation des données vidéo
– Évaluations pour l’analyse comparative de la compréhension, de la prédiction et de la planification des modèles du monde
– Algorithmes efficaces pour la planification et le raisonnement basés sur des modèles
 ».

Des agents capables de comprendre la vie réelle

Alors qu’OpenClaw, Claude Cowork et consorts illustrent le potentiel de l’automatisation par l’IA, AMI revendique une approche nettement plus ambitieuse, parce qu’ancrée dans le monde physique et donc la vie réelle :

« Les modèles du monde conditionnés par l’action permettent aux systèmes multi-agents de prédire les conséquences de leurs actions et de planifier des séquences d’actions pour accomplir une tâche, tout en respectant les mécanismes de sécurité. AMI fera progresser la recherche en IA et développera des applications où la fiabilité, la contrôlabilité et la sécurité sont essentielles, notamment pour le contrôle des processus industriels, l’automatisation, les dispositifs portables, la robotique, la santé et bien d’autres domaines », promet-elle.

❌