Meta a confirmé mardi 10 mars l’acquisition de Moltbook, le simili Reddit dédié aux agents IA qui avait défrayé la chronique en début d’année, dans la foulée du lancement d’OpenClaw. Révélée par Axios, la transaction a été confirmée par un porte-parole du groupe.
Il précise que l’équipe de Moltbook, principalement constituée de ses deux fondateurs, rejoindra Meta Superintelligence Labs, la division dédiée aux projets d’intelligence artificielle du groupe :
« Leur approche, qui consiste à connecter les agents via un annuaire toujours disponible, représente une avancée novatrice dans un secteur en pleine expansion, et nous sommes impatients de collaborer avec eux afin d’offrir à tous des expériences d’agent innovantes et sécurisées. »
L’allusion explicite à la sécurité fera certainement sourire certains observateurs : notre analyse du phénomène Moltbook, début février, soulignait à quel point la plateforme, au-delà de la curiosité légitime qu’elle suscite, présentait des risques sérieux en matière de cybersécurité.
Moltbook selon Flock pour sa chronique hebdomadaire sur Next
Avant Moltbook, il y a pour mémoire OpenClaw (ex Clawdbot), un agent IA que l’utilisateur peut installer en local, sur sa machine, et connecter au modèle de son choix (Claude, ChatGPT, etc.) ainsi qu’à ses canaux de communication de prédilection (WhatsApp, Discord, etc.), pour ensuite lui confier l’exécution de missions en toute autonomie.
Lancé en novembre 2025 et devenu très rapidement un véritable phénomène sur GitHub, OpenClaw a suscité la convoitise d’OpenAI qui a proposé un pont d’or pour recruter son créateur mi-février, mais assure que le projet restera open source.
Apparu dans la foulée d’OpenClaw, Moltbook se présente pour sa part comme un réseau social où les agents IA (autrement dit, des instances OpenClaw exécutées sur les machines d’internautes) sont censés pouvoir discuter entre eux, pendant que les humains les observent.
Créer le problème pour ensuite vendre la solution : de façon probablement non intentionnelle, Anthropic vient de faire sien l’un des principes de base du marketing. L’entreprise a en effet annoncé lundi 9 mars le lancement d’un nouvel outil, pour l’instant limité aux clients des plans Teams et Entreprise : Claude Code Review, un ensemble d’agents IA dédiés à la relecture du code.
Elle explique avoir développé cette nouvelle brique de son offre en raison d’un problème auquel elle a été directement confrontée : la quantité de code produite par chacun de ses ingénieurs aurait augmenté de 200 % en 2025, et ce gain de productivité généralisé se traduirait par un goulet d’étranglement au niveau de l’étape de la relecture de code (code review), c’est-à-dire l’étape à laquelle une pull request (PR) est relue avant d’être fusionnée au niveau d’un dépôt.
L’outil tournerait déjà en interne :
« Chez Anthropic, Code Review tourne sur presque toutes les PR. Auparavant, seulement 16 % d’entre elles recevaient des commentaires de relecture pertinents. Ce taux atteint désormais 54 %. Le système n’approuve pas les PR – la décision finale revient toujours à un humain – mais il comble les lacunes pour que les relecteurs puissent réellement se concentrer sur les modifications déployées ».
Anthropic
En pratique, Code Review prendrait la forme non pas d’une instance unique, mais d’une multitude d’agents chargés d’examiner en parallèle le code à la recherche de bugs. Anthropic revendique, sur la base de ses usages internes, une efficacité supérieure à 99 % (moins de 1 % des retours formulés par Code Review seraient considérés comme incorrects).
Anthropic ne rentre pas dans le détail du degré de précision des agents mis en œuvre ou de la façon dont la relecture de code est parallélisée. « Chaque agent recherche un type de problème différent, puis une étape de vérification compare les candidats au comportement réel du code afin d’éliminer les faux positifs. Les résultats sont dédupliqués, classés par ordre de gravité et affichés sous forme de commentaires directement sur les lignes de code concernées. », explique simplement l’entreprise.
Réalisée sur ses infrastructures, la relecture de code se révèle logiquement gourmande en ressources. Sur ce point, Anthropic évoque un coût unitaire de l’ordre de 15 à 25 dollars par relecture de PR, en précisant que ce dernier est bien sûr proportionnel à la taille et à la complexité de l’échantillon soumis à examen. L’entreprise propose donc aux administrateurs de piloter le déploiement de Code Review auprès de leurs équipes soit à partir d’un quota mensuel (distribué à tous), soit en autorisant l’accès à l’échelle du dépôt.
Le moteur de recherche Qwant annonce l’ouverture d’une expérimentation de neuf mois visant à établir les bases d’un modèle de partage de revenus avec les éditeurs de presse dans le cadre des réponses générées par IA, alors que Google retarde toujours le lancement en France de sa fonction AI Overviews.
Qwant montre patte blanche avec le secteur des médias. Le moteur de recherche français, désormais développé conjointement avec Ecosia et Lilo au sein d’une entreprise détenue par Octave Klaba (OVHcloud) annonce mardi la mise en place d’une expérimentation visant à élaborer les modalités de partage de revenus associés à la réponse flash, le module généré par IA grâce auquel Qwant essaie de répondre directement aux requêtes de l’internaute (en lui évitant donc d’avoir à se rendre sur un site tiers).
Qwant signe avec un large panel de médias
Cette expérimentation, programmée pour neuf mois, prévoit selon Qwant « un partage des informations liées à l’usage de la fonctionnalité, ainsi qu’un modèle de partage des revenus publicitaires générés dans cet espace, fondé sur un principe de répartition équitable entre Qwant et les éditeurs participants ». Le moteur précise que pour cette première phase, c’est le principe d’un partage à égalité qui a été retenu, et indique que différents formats publicitaires seront testés.
Qwant va dans le même temps proposer aux médias partenaires d’intégrer sa réponse flash sur leur propre site. « Cette approche vise à tester, dans des conditions réelles d’usage, l’intégration de la Réponse Flash au sein des plateformes des médias, ainsi que les modalités de suivi des performances et de partage des revenus associés, dans un cadre défini avec chaque éditeur », décrit le moteur, selon qui ces travaux préparatoires sont indispensables pour accompagner les nouveaux usages en matière de recherche en ligne.
Qwant, qui a récemment conclu un accord de droits voisins avec l’Alliance de la presse d’information générale, a monté cette expérimentation par l’entremise de cette dernière, ainsi que par celle du Groupement des éditeurs de services en ligne (Geste), ce qui lui permet d’afficher une longue liste de médias partenaires, des titres du groupe Ebra à France Médias Monde en passant par L’Équipe, Les Échos, Le Parisien, RMC, BFM, Ouest France ou L’Express.
Ce faisant, l’entreprise s’affranchit du reproche formulé par de nombreux médias à l’encontre d’acteurs comme OpenAI ou Perplexity, qui ont préféré signer des contrats ad hoc avec quelques médias précis (principalement Le Monde) plutôt que de chercher à collaborer avec un large panel d’acteurs.
Des réponses flash sur une partie des requêtes
Qwant, rapproché d’Ecosia au sein d’une structure commune depuis 2024, cherche à faire oublier l’ère des résultats exclusivement générés par Bing en développant son propre « index de recherche européen », qui a fait ses débuts en production au printemps 2025, et doit à terme traiter l’essentiel des requêtes des internautes. À ce stade, Qwant ne communique pas sur le volume de cet index, ou sur sa représentation au sein des pages de résultats.
L’entreprise ne fait en revanche pas mystère de son intérêt pour l’IA générative. Elle a d’abord fait l’objet d’un premier pilote baptisé « Qwant Next », qui prenait la forme d’une interface de type chatbot, avec un système de conversation, des requêtes en langage naturel et des résultats issus des outils de recherche maison.
« Aujourd’hui, l’utilisateur va soit sur un moteur de recherche, soit sur ChatGPT, on pense que ces deux univers vont élargir leur spectre, et que ça correspond à une nouvelle façon de chercher. Nous ne sommes d’ailleurs pas les seuls, c’est par exemple la direction prise par Perplexity », nous expliquait à l’époque Olivier Abecassis.
Un an plus tard, le chatbot est intégré sous forme d’option au moteur de recherche. Rebaptisé Chat IA, il n’est plus proposé dès la page d’accueil, mais on peut l’activer depuis la page de résultats, pour prolonger par exemple la requête initiale, ou lancer une nouvelle conversation.
En parallèle, Qwant propose donc ces fameuses réponses Flash, qui prennent la forme d’un bloc dédié à une réponse générée par IA à la requête de l’internaute, avec un texte de quelques lignes, quelques mentions des sites Web ayant servi de source à la réponse, et sur certaines requêtes, un lien sponsorisé dédié à la monétisation. Ce sont ces liens sponsorisés (ou autres formats publicitaires à venir) qui donneront lieu au partage de revenus promis avec les éditeurs, pour compenser l’éventuelle perte de trafic associée à la réponse flash.
Exemple de réponse flash générée par Qwant – capture d’écran
Qwant affirme que la recherche est gérée par ses propres services tandis que la génération de la réponse est opérée par les modèles de Mistral. Au printemps 2025, au sujet des recours fréquents à un LLM, Olivier Abecassis affirmait déjà « Il y avait un coût qu’on a largement optimisé, aujourd’hui on sait l’absorber. »
Si les coûts sont maitrisés, reste à voir quel est le potentiel réel des réponses flash de Qwant en matière de chiffre d’affaires publicitaire, et donc de rétrocession aux médias partenaires dont les contenus auront pu être exploités. Le moteur de recherche, hébergé dans sa nouvelle structure European Search Perspective, ne communique ni chiffre d’affaires, ni volume d’audience, mais sa fréquentation reste anecdotique comparée à celle de Google, leader incontesté sur le marché français.
Google temporise le lancement de ses Aperçus IA
Cette expérimentation intervient alors que la France fait figure de pierre dans le jardin de Google autour de son propre service de réponses générées automatiquement, AI Overviews (Aperçus IA ou Résumés IA en français). Disponible de longue date aux États-Unis, ce dernier a été lancé à l’international dans 110 pays, dont la majorité du continent européen… à l’exception notable de l’Hexagone.
Échaudée par les longues batailles autour des droits voisins, la firme de Mountain View sait en effet qu’elle s’expose à une levée de boucliers de la part des éditeurs de presse, qui alertent depuis des mois sur les conséquences négatives potentielles en matière de perte d’audience, et donc de chiffre d’affaires.
Outre-Atlantique, plusieurs grands médias ont déjà signalé des baisses significatives du trafic entrant en provenance de la recherche Google sur leurs sites. Google de son côté défend l’idée que les résumés IA améliorent le service rendu à l’internaute, et que ce faisant, l’audience et les revenus publicitaires qu’ils génèrent sont nettement mieux qualifiés, dont plus rémunérateurs pour les éditeurs.
La promesse ne fait pas précisément consensus. Attaquée devant la Commission européenne par un réseau d’éditeurs indépendants, et régulièrement incriminée pour ses hallucinations ou ses résumés trompeurs, AI Overviews vient d’être mis en cause comme l’une des causes de la chute d’audience enregistrée par les principaux médias en ligne de la scène tech aux États-Unis.
Yann LeCun a confirmé mardi le coup d’envoi officiel de sa société AMI Labs et révèle avoir les moyens de ses ambitions : à peine constituée, la startup annonce avoir levé 890 millions d’euros, auprès d’un large panel d’investisseurs français et internationaux, et se lance à Paris, Montréal, New York, et Singapour.
Depuis son départ de Meta, Yann LeCun répète à qui veut l’entendre que l’intelligence artificielle générale, celle qui égalerait les capacités humaines, proviendra non pas de la maitrise du langage, mais de l’appréhension et de la compréhension du monde physique. Il va désormais avoir l’occasion de développer cette approche : mardi, le prix Turing 2018 et ancien responsable des laboratoires IA de Meta a en effet donné le coup d’envoi officiel de sa nouvelle startup, Advanced Machine Intelligence (AMI ou AMI Labs), et quelques bonnes fées se sont penchées sur le berceau de cette dernière.
1 milliard de dollars levés avant même le lancement
Les rumeurs d’une levée de fonds significative circulaient depuis mi-décembre. Le tour de table se révèle finalement bien supérieur aux hypothèses envisagées : à 65 ans, LeCun peut se targuer d’avoir réuni 1,03 milliard de dollars, soit environ 890 millions d’euros, auprès d’un contingent d’investisseurs venus du monde entier.
Le tour de table est emmené par les fonds Cathay Innovation, Greycroft, Hiro Capital, HV Capital, et Bezos Expeditions, mais il associe également, entre autres et de façon non exhaustive, Toyota Ventures, New Legacy Ventures, Temasek (fonds souverain de Singapour), SBVA (Softbank), NVIDIA, Mark Cuban (juré de l’émission Shark Tank), Sea, et Alpha Intelligence Capital.
En France, AMI fédère l’Association Familiale Mulliez (Auchan), le groupe industriel Marcel Dassault, Artémis (famille Pinault), Aglaé (famille Arnault), Xavier Niel, Publicis Groupe, Bpifrance Digital Venture, le fonds startup de CMA-CGM. Pour faire bonne mesure, Eric Schmidt, et le couple Berners-Lee figurent aussi au rang des soutiens.
La levée de fonds se fait sur la base d’une valorisation de 3,5 milliards de dollars, soit 3 milliards d’euros.
Page d’accueil du site AMI – capture d’écran
Des bureaux à Paris, Montréal, New York et Singapour
Déjà évoqués, les noms de Laurent Solly, ex-directeur de Meta France et d’Alexandre Lebrun, cofondateur de la start-up d’IA générative en santé Nabla, sont confirmés. Le premier devrait assurer des fonctions opérationnelles (COO) tandis que le second assurera la direction de l’entreprise. La direction scientifique est confiée à Saining Xie (passé par Google DeepMind) tandis que deux autres anciens de Meta complètent l’équipe : Michael Rabbat prendra en charge les architectures de world models et Pascale Fung pilotera la recherche.
Pour accompagner ce premier cercle, AMI ouvre des postes, et se dote pour ce faire de quatre bureaux sur trois continents, à Paris (siège social), Montréal, New York et Singapour.
« Nous construisons une nouvelle génération de systèmes d’IA qui (1) comprennent le monde réel, (2) ont une mémoire persistante, (3) peuvent raisonner et planifier, et (4) sont contrôlables et sûrs », promet l’entreprise, qui recrute à la fois des chercheurs et des ingénieurs :
« Vous travaillerez au sein d’une équipe sur des projets de recherche en modélisation du monde, notamment : – Méthodes d’apprentissage auto-supervisé pour un apprentissage efficace à partir de vidéos et d’autres signaux continus de grande dimension – Nouvelles architectures permettant de prédire efficacement la dynamique du monde à partir de vidéos et d’autres signaux de grande dimension – Algorithmes évolutifs pour le prétraitement et l’organisation des données vidéo – Évaluations pour l’analyse comparative de la compréhension, de la prédiction et de la planification des modèles du monde – Algorithmes efficaces pour la planification et le raisonnement basés sur des modèles ».
Des agents capables de comprendre la vie réelle
Alors qu’OpenClaw, Claude Cowork et consorts illustrent le potentiel de l’automatisation par l’IA, AMI revendique une approche nettement plus ambitieuse, parce qu’ancrée dans le monde physique et donc la vie réelle :
« Les modèles du monde conditionnés par l’action permettent aux systèmes multi-agents de prédire les conséquences de leurs actions et de planifier des séquences d’actions pour accomplir une tâche, tout en respectant les mécanismes de sécurité. AMI fera progresser la recherche en IA et développera des applications où la fiabilité, la contrôlabilité et la sécurité sont essentielles, notamment pour le contrôle des processus industriels, l’automatisation, les dispositifs portables, la robotique, la santé et bien d’autres domaines », promet-elle.