Cette fois, c’est la bonne : Google a annoncé mercredi 11 mars avoir finalisé l’acquisition de Wiz, la startup israélo-américaine spécialisée dans la cybersécurité dont il a initié le rachat au printemps 2025, après plusieurs mois de tractation.
Comme souvent dans ce genre d’opérations de grande envergure (la transaction portait sur un montant de 32 milliards de dollars), le processus était figé dans l’attente des indispensables validations réglementaires.
Du côté de la Commission européenne, le viatique a finalement été prononcé le 10 février dernier, Bruxelles ayant estimé que ni Google Cloud Platform, ni Wiz n’occupait une position suffisamment prépondérante sur le marché pour que l’union des deux entraine une distorsion de concurrence.
« Google se situe derrière Amazon et Microsoft en termes de parts de marché dans l’infrastructure cloud, et notre évaluation a confirmé que les clients continueront de disposer d’alternatives crédibles et de la possibilité de changer de fournisseur », commente Teresa Ribera, commissaire européenne à la Concurrence.
Google, qui s’était déjà offert Mandiant dans le secteur en 2022, affirme que l’association de ses propres outils à la plateforme de Wiz offre une solution de premier plan pour sécuriser les environnements cloud, particulièrement à l’heure de l’IA. L’ensemble permettrait notamment de « garder une longueur d’avance en détectant les menaces émergentes créées par des modèles d’IA, en se protégeant contre les menaces ciblant ces modèles et en utilisant ces derniers pour aider les professionnels de la sécurité à traquer les menaces plus efficacement ».
Google finalise le rachat de Wiz, acté en mars 2025 – crédit Google
Wiz ne se fond cependant pas dans l’offre GCP. « Wiz demeure une plateforme multicloud. Aujourd’hui, nous collaborons avec la plupart des entreprises du Fortune 100 et la majorité des laboratoires d’IA de pointe, ainsi qu’avec de nombreuses entreprises cloud-native parmi les plus dynamiques au monde. Nos clients utilisent AWS, Azure, GCP et OCI. Notre objectif est de protéger l’intégralité de leur environnement : chaque charge de travail, chaque application et chaque cloud majeur », promet ainsi Assaf Rappaport, CEO et cofondateur de Wiz.
Dans son propre billet sur l’événement, Wiz souligne de son côté quelques faits d’armes récents avec, entre autres découvertes réalisées en 2025, les vulnérabilités inhérentes à Moltbook (tout juste racheté par Meta), la découverte préventive d’une faille dans CodeBuild qui aurait pu compromettre les référentiels GitHub d’AWS (épisode CodeBreach, début 2025), ou la fameuse vulnérabilité dite Redishell, découverte dans Redis en octobre dernier et créditée d’une sévérité CVSS de 10.
Cette fois, c’est la bonne : Google a annoncé mercredi 11 mars avoir finalisé l’acquisition de Wiz, la startup israélo-américaine spécialisée dans la cybersécurité dont il a initié le rachat au printemps 2025, après plusieurs mois de tractation.
Comme souvent dans ce genre d’opérations de grande envergure (la transaction portait sur un montant de 32 milliards de dollars), le processus était figé dans l’attente des indispensables validations réglementaires.
Du côté de la Commission européenne, le viatique a finalement été prononcé le 10 février dernier, Bruxelles ayant estimé que ni Google Cloud Platform, ni Wiz n’occupait une position suffisamment prépondérante sur le marché pour que l’union des deux entraine une distorsion de concurrence.
« Google se situe derrière Amazon et Microsoft en termes de parts de marché dans l’infrastructure cloud, et notre évaluation a confirmé que les clients continueront de disposer d’alternatives crédibles et de la possibilité de changer de fournisseur », commente Teresa Ribera, commissaire européenne à la Concurrence.
Google, qui s’était déjà offert Mandiant dans le secteur en 2022, affirme que l’association de ses propres outils à la plateforme de Wiz offre une solution de premier plan pour sécuriser les environnements cloud, particulièrement à l’heure de l’IA. L’ensemble permettrait notamment de « garder une longueur d’avance en détectant les menaces émergentes créées par des modèles d’IA, en se protégeant contre les menaces ciblant ces modèles et en utilisant ces derniers pour aider les professionnels de la sécurité à traquer les menaces plus efficacement ».
Google finalise le rachat de Wiz, acté en mars 2025 – crédit Google
Wiz ne se fond cependant pas dans l’offre GCP. « Wiz demeure une plateforme multicloud. Aujourd’hui, nous collaborons avec la plupart des entreprises du Fortune 100 et la majorité des laboratoires d’IA de pointe, ainsi qu’avec de nombreuses entreprises cloud-native parmi les plus dynamiques au monde. Nos clients utilisent AWS, Azure, GCP et OCI. Notre objectif est de protéger l’intégralité de leur environnement : chaque charge de travail, chaque application et chaque cloud majeur », promet ainsi Assaf Rappaport, CEO et cofondateur de Wiz.
Dans son propre billet sur l’événement, Wiz souligne de son côté quelques faits d’armes récents avec, entre autres découvertes réalisées en 2025, les vulnérabilités inhérentes à Moltbook (tout juste racheté par Meta), la découverte préventive d’une faille dans CodeBuild qui aurait pu compromettre les référentiels GitHub d’AWS (épisode CodeBreach, début 2025), ou la fameuse vulnérabilité dite Redishell, découverte dans Redis en octobre dernier et créditée d’une sévérité CVSS de 10.
Interdit en France, le site dédié aux paris sur l’actualité Polymarket a déjà montré qu’il soulevait des risques en matière de délits d’initiés, notamment quand un internaute bien informé a remporté 430 000 dollars en pariant, pile au bon moment, sur la chute de Maduro au Venezuela.
Conscient que ce risque est susceptible d’entraver son développement commercial dans le monde des jeux d’argent en ligne, alors même que des voix s’élèvent aux États-Unis pour interroger son impact sur la vie publique, Polymarket a entrepris de s’outiller pour surveiller en temps réel les flux de paris et mettre en place des « contrôles d’intégrité ».
Pour ce faire, Shayne Coplan, cofondateur et CEO de Polymarket, a choisi de se tourner vers Palantir, le géant de l’analyse de données cofondé par Peter Thiel et Alex Karp, très lié au monde du renseignement (y compris en France) et à l’administration Trump.
Dans un communiqué daté du 10 mars, Polymarket explique vouloir mettre en œuvre Vergence AI, une plateforme d’analyse décisionnelle codéveloppée par Palantir et TWG AI, éditeur de solutions décisionnelles, pour garantir aux ligues et aux équipes sportives que les paris en ligne enregistrés sur sa plateforme ne risquent pas de saper la confiance du public.
Polymarket permet de parier sur une infinité d’événements, du résultat de rencontres sportives à la date possible de cesser-le-feu entre l’Iran et les États-Unis – capture d’écran
Pour éviter, par exemple, qu’un athlète parie sur le résultat d’une rencontre dont il pourrait influencer l’issue, cette plateforme fournira à Polymarket la possibilité de « surveiller l’intégrité des opérations pré-pari et post-pari, à travers le flux d’ordres, les données d’exécution et l’activité de règlement ». Elle opèrera également des modèles prédictifs chargés de détecter les comportements suspects, les initiés, ou les manœuvres coordonnées.
Elle est enfin censée permettre à Polymarket d’automatiser la production des alertes, documentations et rapports de supervision nécessaires à des fins de conformité réglementaire.
« Notre partenariat établit une nouvelle norme pour les marchés de prédiction, et nous sommes ravis d’être au cœur de cette transformation », se réjouit Alex Karp, dont l’acolyte Peter Thiel fait partie des investisseurs historiques de Polymarket.
Interdit en France, le site dédié aux paris sur l’actualité Polymarket a déjà montré qu’il soulevait des risques en matière de délits d’initiés, notamment quand un internaute bien informé a remporté 430 000 dollars en pariant, pile au bon moment, sur la chute de Maduro au Venezuela.
Conscient que ce risque est susceptible d’entraver son développement commercial dans le monde des jeux d’argent en ligne, alors même que des voix s’élèvent aux États-Unis pour interroger son impact sur la vie publique, Polymarket a entrepris de s’outiller pour surveiller en temps réel les flux de paris et mettre en place des « contrôles d’intégrité ».
Pour ce faire, Shayne Coplan, cofondateur et CEO de Polymarket, a choisi de se tourner vers Palantir, le géant de l’analyse de données cofondé par Peter Thiel et Alex Karp, très lié au monde du renseignement (y compris en France) et à l’administration Trump.
Dans un communiqué daté du 10 mars, Polymarket explique vouloir mettre en œuvre Vergence AI, une plateforme d’analyse décisionnelle codéveloppée par Palantir et TWG AI, éditeur de solutions décisionnelles, pour garantir aux ligues et aux équipes sportives que les paris en ligne enregistrés sur sa plateforme ne risquent pas de saper la confiance du public.
Polymarket permet de parier sur une infinité d’événements, du résultat de rencontres sportives à la date possible de cesser-le-feu entre l’Iran et les États-Unis – capture d’écran
Pour éviter, par exemple, qu’un athlète parie sur le résultat d’une rencontre dont il pourrait influencer l’issue, cette plateforme fournira à Polymarket la possibilité de « surveiller l’intégrité des opérations pré-pari et post-pari, à travers le flux d’ordres, les données d’exécution et l’activité de règlement ». Elle opèrera également des modèles prédictifs chargés de détecter les comportements suspects, les initiés, ou les manœuvres coordonnées.
Elle est enfin censée permettre à Polymarket d’automatiser la production des alertes, documentations et rapports de supervision nécessaires à des fins de conformité réglementaire.
« Notre partenariat établit une nouvelle norme pour les marchés de prédiction, et nous sommes ravis d’être au cœur de cette transformation », se réjouit Alex Karp, dont l’acolyte Peter Thiel fait partie des investisseurs historiques de Polymarket.
Il n’y a pas de petite victoire. La Document Foundation, qui pilote le développement de la suite bureautique libre et gratuite LibreOffice, s’est félicitée mardi 10 mars d’avoir obtenu gain de cause en 24 heures auprès de la Commission européenne.
Elle réclamait l’ajout d’un modèle de document au format ODS (feuille de calcul de format OpenDocument) en parallèle du modèle XLSX (format propriétaire Microsoft basé sur OpenXML) proposé par défaut dans le cadre de la consultation ouverte par Bruxelles sur le futur Cyber Resilience Act (CRA, règlement sur la cybersécurité).
« Il s’agit d’une première étape importante vers l’interopérabilité que les formats propriétaires ne permettent pas, et qu’ils cherchent même à limiter en rendant les formats DOCX, XLSX et PPTX de plus en plus différents d’une norme par l’ajout de complexités inutiles », écrit la Document Foundation, selon qui Microsoft entretient une impression fallacieuse d’ouverture en ayant réussi à faire d’Office Open XML (OOXML) une norme ISO, mais en implémentant une version différente dans ses logiciels.
« À tous ceux qui persistent à considérer OOXML comme une norme du simple fait de son approbation par l’ISO, et à tous les logiciels qui prennent en charge OOXML en l’utilisant comme format par défaut, nous vous rappelons que vous allez à l’encontre non seulement de vos propres intérêts, mais aussi de ceux de tous les citoyens du monde, et en premier lieu des citoyens européens. »
La fondation résumait ses arguments dans sa demande initiale à la DG Connect, la direction de Bruxelles chargée de la consultation sur le CRA, publiée le 5 mars dernier.
Rappelons que le projet LibreOffice et l’Open Document Format ont respectivement fêté leurs 15 ans et leurs 20 ans en 2025. Bien que Microsoft continue de régner en maitre sur la bureautique, l’ODF a remporté quelques succès notables. Il est ainsi le format de document par défaut dans certaines administrations, dont l’OTAN, le Brésil, l’Inde ou encore l’Afrique du Sud. En France, le référentiel général d’interopérabilité préconise également l’ODF dans les administrations.
Les fichiers de la consultation comportent désormais une version ODS du modèle de contribution – capture d’écran
Il n’y a pas de petite victoire. La Document Foundation, qui pilote le développement de la suite bureautique libre et gratuite LibreOffice, s’est félicitée mardi 10 mars d’avoir obtenu gain de cause en 24 heures auprès de la Commission européenne.
Elle réclamait l’ajout d’un modèle de document au format ODS (feuille de calcul de format OpenDocument) en parallèle du modèle XLSX (format propriétaire Microsoft basé sur OpenXML) proposé par défaut dans le cadre de la consultation ouverte par Bruxelles sur le futur Cyber Resilience Act (CRA, règlement sur la cybersécurité).
« Il s’agit d’une première étape importante vers l’interopérabilité que les formats propriétaires ne permettent pas, et qu’ils cherchent même à limiter en rendant les formats DOCX, XLSX et PPTX de plus en plus différents d’une norme par l’ajout de complexités inutiles », écrit la Document Foundation, selon qui Microsoft entretient une impression fallacieuse d’ouverture en ayant réussi à faire d’Office Open XML (OOXML) une norme ISO, mais en implémentant une version différente dans ses logiciels.
« À tous ceux qui persistent à considérer OOXML comme une norme du simple fait de son approbation par l’ISO, et à tous les logiciels qui prennent en charge OOXML en l’utilisant comme format par défaut, nous vous rappelons que vous allez à l’encontre non seulement de vos propres intérêts, mais aussi de ceux de tous les citoyens du monde, et en premier lieu des citoyens européens. »
La fondation résumait ses arguments dans sa demande initiale à la DG Connect, la direction de Bruxelles chargée de la consultation sur le CRA, publiée le 5 mars dernier.
Rappelons que le projet LibreOffice et l’Open Document Format ont respectivement fêté leurs 15 ans et leurs 20 ans en 2025. Bien que Microsoft continue de régner en maitre sur la bureautique, l’ODF a remporté quelques succès notables. Il est ainsi le format de document par défaut dans certaines administrations, dont l’OTAN, le Brésil, l’Inde ou encore l’Afrique du Sud. En France, le référentiel général d’interopérabilité préconise également l’ODF dans les administrations.
Les fichiers de la consultation comportent désormais une version ODS du modèle de contribution – capture d’écran
Meta a confirmé mardi 10 mars l’acquisition de Moltbook, le simili Reddit dédié aux agents IA qui avait défrayé la chronique en début d’année, dans la foulée du lancement d’OpenClaw. Révélée par Axios, la transaction a été confirmée par un porte-parole du groupe.
Il précise que l’équipe de Moltbook, principalement constituée de ses deux fondateurs, rejoindra Meta Superintelligence Labs, la division dédiée aux projets d’intelligence artificielle du groupe :
« Leur approche, qui consiste à connecter les agents via un annuaire toujours disponible, représente une avancée novatrice dans un secteur en pleine expansion, et nous sommes impatients de collaborer avec eux afin d’offrir à tous des expériences d’agent innovantes et sécurisées. »
L’allusion explicite à la sécurité fera certainement sourire certains observateurs : notre analyse du phénomène Moltbook, début février, soulignait à quel point la plateforme, au-delà de la curiosité légitime qu’elle suscite, présentait des risques sérieux en matière de cybersécurité.
Moltbook selon Flock pour sa chronique hebdomadaire sur Next
Avant Moltbook, il y a pour mémoire OpenClaw (ex Clawdbot), un agent IA que l’utilisateur peut installer en local, sur sa machine, et connecter au modèle de son choix (Claude, ChatGPT, etc.) ainsi qu’à ses canaux de communication de prédilection (WhatsApp, Discord, etc.), pour ensuite lui confier l’exécution de missions en toute autonomie.
Lancé en novembre 2025 et devenu très rapidement un véritable phénomène sur GitHub, OpenClaw a suscité la convoitise d’OpenAI qui a proposé un pont d’or pour recruter son créateur mi-février, mais assure que le projet restera open source.
Apparu dans la foulée d’OpenClaw, Moltbook se présente pour sa part comme un réseau social où les agents IA (autrement dit, des instances OpenClaw exécutées sur les machines d’internautes) sont censés pouvoir discuter entre eux, pendant que les humains les observent.
Meta a confirmé mardi 10 mars l’acquisition de Moltbook, le simili Reddit dédié aux agents IA qui avait défrayé la chronique en début d’année, dans la foulée du lancement d’OpenClaw. Révélée par Axios, la transaction a été confirmée par un porte-parole du groupe.
Il précise que l’équipe de Moltbook, principalement constituée de ses deux fondateurs, rejoindra Meta Superintelligence Labs, la division dédiée aux projets d’intelligence artificielle du groupe :
« Leur approche, qui consiste à connecter les agents via un annuaire toujours disponible, représente une avancée novatrice dans un secteur en pleine expansion, et nous sommes impatients de collaborer avec eux afin d’offrir à tous des expériences d’agent innovantes et sécurisées. »
L’allusion explicite à la sécurité fera certainement sourire certains observateurs : notre analyse du phénomène Moltbook, début février, soulignait à quel point la plateforme, au-delà de la curiosité légitime qu’elle suscite, présentait des risques sérieux en matière de cybersécurité.
Moltbook selon Flock pour sa chronique hebdomadaire sur Next
Avant Moltbook, il y a pour mémoire OpenClaw (ex Clawdbot), un agent IA que l’utilisateur peut installer en local, sur sa machine, et connecter au modèle de son choix (Claude, ChatGPT, etc.) ainsi qu’à ses canaux de communication de prédilection (WhatsApp, Discord, etc.), pour ensuite lui confier l’exécution de missions en toute autonomie.
Lancé en novembre 2025 et devenu très rapidement un véritable phénomène sur GitHub, OpenClaw a suscité la convoitise d’OpenAI qui a proposé un pont d’or pour recruter son créateur mi-février, mais assure que le projet restera open source.
Apparu dans la foulée d’OpenClaw, Moltbook se présente pour sa part comme un réseau social où les agents IA (autrement dit, des instances OpenClaw exécutées sur les machines d’internautes) sont censés pouvoir discuter entre eux, pendant que les humains les observent.
Créer le problème pour ensuite vendre la solution : de façon probablement non intentionnelle, Anthropic vient de faire sien l’un des principes de base du marketing. L’entreprise a en effet annoncé lundi 9 mars le lancement d’un nouvel outil, pour l’instant limité aux clients des plans Teams et Entreprise : Claude Code Review, un ensemble d’agents IA dédiés à la relecture du code.
Elle explique avoir développé cette nouvelle brique de son offre en raison d’un problème auquel elle a été directement confrontée : la quantité de code produite par chacun de ses ingénieurs aurait augmenté de 200 % en 2025, et ce gain de productivité généralisé se traduirait par un goulet d’étranglement au niveau de l’étape de la relecture de code (code review), c’est-à-dire l’étape à laquelle une pull request (PR) est relue avant d’être fusionnée au niveau d’un dépôt.
L’outil tournerait déjà en interne :
« Chez Anthropic, Code Review tourne sur presque toutes les PR. Auparavant, seulement 16 % d’entre elles recevaient des commentaires de relecture pertinents. Ce taux atteint désormais 54 %. Le système n’approuve pas les PR – la décision finale revient toujours à un humain – mais il comble les lacunes pour que les relecteurs puissent réellement se concentrer sur les modifications déployées ».
Anthropic
En pratique, Code Review prendrait la forme non pas d’une instance unique, mais d’une multitude d’agents chargés d’examiner en parallèle le code à la recherche de bugs. Anthropic revendique, sur la base de ses usages internes, une efficacité supérieure à 99 % (moins de 1 % des retours formulés par Code Review seraient considérés comme incorrects).
Anthropic ne rentre pas dans le détail du degré de précision des agents mis en œuvre ou de la façon dont la relecture de code est parallélisée. « Chaque agent recherche un type de problème différent, puis une étape de vérification compare les candidats au comportement réel du code afin d’éliminer les faux positifs. Les résultats sont dédupliqués, classés par ordre de gravité et affichés sous forme de commentaires directement sur les lignes de code concernées. », explique simplement l’entreprise.
Réalisée sur ses infrastructures, la relecture de code se révèle logiquement gourmande en ressources. Sur ce point, Anthropic évoque un coût unitaire de l’ordre de 15 à 25 dollars par relecture de PR, en précisant que ce dernier est bien sûr proportionnel à la taille et à la complexité de l’échantillon soumis à examen. L’entreprise propose donc aux administrateurs de piloter le déploiement de Code Review auprès de leurs équipes soit à partir d’un quota mensuel (distribué à tous), soit en autorisant l’accès à l’échelle du dépôt.
Créer le problème pour ensuite vendre la solution : de façon probablement non intentionnelle, Anthropic vient de faire sien l’un des principes de base du marketing. L’entreprise a en effet annoncé lundi 9 mars le lancement d’un nouvel outil, pour l’instant limité aux clients des plans Teams et Entreprise : Claude Code Review, un ensemble d’agents IA dédiés à la relecture du code.
Elle explique avoir développé cette nouvelle brique de son offre en raison d’un problème auquel elle a été directement confrontée : la quantité de code produite par chacun de ses ingénieurs aurait augmenté de 200 % en 2025, et ce gain de productivité généralisé se traduirait par un goulet d’étranglement au niveau de l’étape de la relecture de code (code review), c’est-à-dire l’étape à laquelle une pull request (PR) est relue avant d’être fusionnée au niveau d’un dépôt.
L’outil tournerait déjà en interne :
« Chez Anthropic, Code Review tourne sur presque toutes les PR. Auparavant, seulement 16 % d’entre elles recevaient des commentaires de relecture pertinents. Ce taux atteint désormais 54 %. Le système n’approuve pas les PR – la décision finale revient toujours à un humain – mais il comble les lacunes pour que les relecteurs puissent réellement se concentrer sur les modifications déployées ».
Anthropic
En pratique, Code Review prendrait la forme non pas d’une instance unique, mais d’une multitude d’agents chargés d’examiner en parallèle le code à la recherche de bugs. Anthropic revendique, sur la base de ses usages internes, une efficacité supérieure à 99 % (moins de 1 % des retours formulés par Code Review seraient considérés comme incorrects).
Anthropic ne rentre pas dans le détail du degré de précision des agents mis en œuvre ou de la façon dont la relecture de code est parallélisée. « Chaque agent recherche un type de problème différent, puis une étape de vérification compare les candidats au comportement réel du code afin d’éliminer les faux positifs. Les résultats sont dédupliqués, classés par ordre de gravité et affichés sous forme de commentaires directement sur les lignes de code concernées. », explique simplement l’entreprise.
Réalisée sur ses infrastructures, la relecture de code se révèle logiquement gourmande en ressources. Sur ce point, Anthropic évoque un coût unitaire de l’ordre de 15 à 25 dollars par relecture de PR, en précisant que ce dernier est bien sûr proportionnel à la taille et à la complexité de l’échantillon soumis à examen. L’entreprise propose donc aux administrateurs de piloter le déploiement de Code Review auprès de leurs équipes soit à partir d’un quota mensuel (distribué à tous), soit en autorisant l’accès à l’échelle du dépôt.
Le moteur de recherche Qwant annonce l’ouverture d’une expérimentation de neuf mois visant à établir les bases d’un modèle de partage de revenus avec les éditeurs de presse dans le cadre des réponses générées par IA, alors que Google retarde toujours le lancement en France de sa fonction AI Overviews.
Qwant montre patte blanche avec le secteur des médias. Le moteur de recherche français, désormais développé conjointement avec Ecosia et Lilo au sein d’une entreprise détenue par Octave Klaba (OVHcloud) annonce mardi la mise en place d’une expérimentation visant à élaborer les modalités de partage de revenus associés à la réponse flash, le module généré par IA grâce auquel Qwant essaie de répondre directement aux requêtes de l’internaute (en lui évitant donc d’avoir à se rendre sur un site tiers).
Qwant signe avec un large panel de médias
Cette expérimentation, programmée pour neuf mois, prévoit selon Qwant « un partage des informations liées à l’usage de la fonctionnalité, ainsi qu’un modèle de partage des revenus publicitaires générés dans cet espace, fondé sur un principe de répartition équitable entre Qwant et les éditeurs participants ». Le moteur précise que pour cette première phase, c’est le principe d’un partage à égalité qui a été retenu, et indique que différents formats publicitaires seront testés.
Qwant va dans le même temps proposer aux médias partenaires d’intégrer sa réponse flash sur leur propre site. « Cette approche vise à tester, dans des conditions réelles d’usage, l’intégration de la Réponse Flash au sein des plateformes des médias, ainsi que les modalités de suivi des performances et de partage des revenus associés, dans un cadre défini avec chaque éditeur », décrit le moteur, selon qui ces travaux préparatoires sont indispensables pour accompagner les nouveaux usages en matière de recherche en ligne.
Qwant, qui a récemment conclu un accord de droits voisins avec l’Alliance de la presse d’information générale, a monté cette expérimentation par l’entremise de cette dernière, ainsi que par celle du Groupement des éditeurs de services en ligne (Geste), ce qui lui permet d’afficher une longue liste de médias partenaires, des titres du groupe Ebra à France Médias Monde en passant par L’Équipe, Les Échos, Le Parisien, RMC, BFM, Ouest France ou L’Express.
Ce faisant, l’entreprise s’affranchit du reproche formulé par de nombreux médias à l’encontre d’acteurs comme OpenAI ou Perplexity, qui ont préféré signer des contrats ad hoc avec quelques médias précis (principalement Le Monde) plutôt que de chercher à collaborer avec un large panel d’acteurs.
Des réponses flash sur une partie des requêtes
Qwant, rapproché d’Ecosia au sein d’une structure commune depuis 2024, cherche à faire oublier l’ère des résultats exclusivement générés par Bing en développant son propre « index de recherche européen », qui a fait ses débuts en production au printemps 2025, et doit à terme traiter l’essentiel des requêtes des internautes. À ce stade, Qwant ne communique pas sur le volume de cet index, ou sur sa représentation au sein des pages de résultats.
L’entreprise ne fait en revanche pas mystère de son intérêt pour l’IA générative. Elle a d’abord fait l’objet d’un premier pilote baptisé « Qwant Next », qui prenait la forme d’une interface de type chatbot, avec un système de conversation, des requêtes en langage naturel et des résultats issus des outils de recherche maison.
« Aujourd’hui, l’utilisateur va soit sur un moteur de recherche, soit sur ChatGPT, on pense que ces deux univers vont élargir leur spectre, et que ça correspond à une nouvelle façon de chercher. Nous ne sommes d’ailleurs pas les seuls, c’est par exemple la direction prise par Perplexity », nous expliquait à l’époque Olivier Abecassis.
Un an plus tard, le chatbot est intégré sous forme d’option au moteur de recherche. Rebaptisé Chat IA, il n’est plus proposé dès la page d’accueil, mais on peut l’activer depuis la page de résultats, pour prolonger par exemple la requête initiale, ou lancer une nouvelle conversation.
En parallèle, Qwant propose donc ces fameuses réponses Flash, qui prennent la forme d’un bloc dédié à une réponse générée par IA à la requête de l’internaute, avec un texte de quelques lignes, quelques mentions des sites Web ayant servi de source à la réponse, et sur certaines requêtes, un lien sponsorisé dédié à la monétisation. Ce sont ces liens sponsorisés (ou autres formats publicitaires à venir) qui donneront lieu au partage de revenus promis avec les éditeurs, pour compenser l’éventuelle perte de trafic associée à la réponse flash.
Exemple de réponse flash générée par Qwant – capture d’écran
Qwant affirme que la recherche est gérée par ses propres services tandis que la génération de la réponse est opérée par les modèles de Mistral. Au printemps 2025, au sujet des recours fréquents à un LLM, Olivier Abecassis affirmait déjà « Il y avait un coût qu’on a largement optimisé, aujourd’hui on sait l’absorber. »
Si les coûts sont maitrisés, reste à voir quel est le potentiel réel des réponses flash de Qwant en matière de chiffre d’affaires publicitaire, et donc de rétrocession aux médias partenaires dont les contenus auront pu être exploités. Le moteur de recherche, hébergé dans sa nouvelle structure European Search Perspective, ne communique ni chiffre d’affaires, ni volume d’audience, mais sa fréquentation reste anecdotique comparée à celle de Google, leader incontesté sur le marché français.
Google temporise le lancement de ses Aperçus IA
Cette expérimentation intervient alors que la France fait figure de pierre dans le jardin de Google autour de son propre service de réponses générées automatiquement, AI Overviews (Aperçus IA ou Résumés IA en français). Disponible de longue date aux États-Unis, ce dernier a été lancé à l’international dans 110 pays, dont la majorité du continent européen… à l’exception notable de l’Hexagone.
Échaudée par les longues batailles autour des droits voisins, la firme de Mountain View sait en effet qu’elle s’expose à une levée de boucliers de la part des éditeurs de presse, qui alertent depuis des mois sur les conséquences négatives potentielles en matière de perte d’audience, et donc de chiffre d’affaires.
Outre-Atlantique, plusieurs grands médias ont déjà signalé des baisses significatives du trafic entrant en provenance de la recherche Google sur leurs sites. Google de son côté défend l’idée que les résumés IA améliorent le service rendu à l’internaute, et que ce faisant, l’audience et les revenus publicitaires qu’ils génèrent sont nettement mieux qualifiés, dont plus rémunérateurs pour les éditeurs.
La promesse ne fait pas précisément consensus. Attaquée devant la Commission européenne par un réseau d’éditeurs indépendants, et régulièrement incriminée pour ses hallucinations ou ses résumés trompeurs, AI Overviews vient d’être mis en cause comme l’une des causes de la chute d’audience enregistrée par les principaux médias en ligne de la scène tech aux États-Unis.
Le moteur de recherche Qwant annonce l’ouverture d’une expérimentation de neuf mois visant à établir les bases d’un modèle de partage de revenus avec les éditeurs de presse dans le cadre des réponses générées par IA, alors que Google retarde toujours le lancement en France de sa fonction AI Overviews.
Qwant montre patte blanche avec le secteur des médias. Le moteur de recherche français, désormais développé conjointement avec Ecosia et Lilo au sein d’une entreprise détenue par Octave Klaba (OVHcloud) annonce mardi la mise en place d’une expérimentation visant à élaborer les modalités de partage de revenus associés à la réponse flash, le module généré par IA grâce auquel Qwant essaie de répondre directement aux requêtes de l’internaute (en lui évitant donc d’avoir à se rendre sur un site tiers).
Qwant signe avec un large panel de médias
Cette expérimentation, programmée pour neuf mois, prévoit selon Qwant « un partage des informations liées à l’usage de la fonctionnalité, ainsi qu’un modèle de partage des revenus publicitaires générés dans cet espace, fondé sur un principe de répartition équitable entre Qwant et les éditeurs participants ». Le moteur précise que pour cette première phase, c’est le principe d’un partage à égalité qui a été retenu, et indique que différents formats publicitaires seront testés.
Qwant va dans le même temps proposer aux médias partenaires d’intégrer sa réponse flash sur leur propre site. « Cette approche vise à tester, dans des conditions réelles d’usage, l’intégration de la Réponse Flash au sein des plateformes des médias, ainsi que les modalités de suivi des performances et de partage des revenus associés, dans un cadre défini avec chaque éditeur », décrit le moteur, selon qui ces travaux préparatoires sont indispensables pour accompagner les nouveaux usages en matière de recherche en ligne.
Qwant, qui a récemment conclu un accord de droits voisins avec l’Alliance de la presse d’information générale, a monté cette expérimentation par l’entremise de cette dernière, ainsi que par celle du Groupement des éditeurs de services en ligne (Geste), ce qui lui permet d’afficher une longue liste de médias partenaires, des titres du groupe Ebra à France Médias Monde en passant par L’Équipe, Les Échos, Le Parisien, RMC, BFM, Ouest France ou L’Express.
Ce faisant, l’entreprise s’affranchit du reproche formulé par de nombreux médias à l’encontre d’acteurs comme OpenAI ou Perplexity, qui ont préféré signer des contrats ad hoc avec quelques médias précis (principalement Le Monde) plutôt que de chercher à collaborer avec un large panel d’acteurs.
Des réponses flash sur une partie des requêtes
Qwant, rapproché d’Ecosia au sein d’une structure commune depuis 2024, cherche à faire oublier l’ère des résultats exclusivement générés par Bing en développant son propre « index de recherche européen », qui a fait ses débuts en production au printemps 2025, et doit à terme traiter l’essentiel des requêtes des internautes. À ce stade, Qwant ne communique pas sur le volume de cet index, ou sur sa représentation au sein des pages de résultats.
L’entreprise ne fait en revanche pas mystère de son intérêt pour l’IA générative. Elle a d’abord fait l’objet d’un premier pilote baptisé « Qwant Next », qui prenait la forme d’une interface de type chatbot, avec un système de conversation, des requêtes en langage naturel et des résultats issus des outils de recherche maison.
« Aujourd’hui, l’utilisateur va soit sur un moteur de recherche, soit sur ChatGPT, on pense que ces deux univers vont élargir leur spectre, et que ça correspond à une nouvelle façon de chercher. Nous ne sommes d’ailleurs pas les seuls, c’est par exemple la direction prise par Perplexity », nous expliquait à l’époque Olivier Abecassis.
Un an plus tard, le chatbot est intégré sous forme d’option au moteur de recherche. Rebaptisé Chat IA, il n’est plus proposé dès la page d’accueil, mais on peut l’activer depuis la page de résultats, pour prolonger par exemple la requête initiale, ou lancer une nouvelle conversation.
En parallèle, Qwant propose donc ces fameuses réponses Flash, qui prennent la forme d’un bloc dédié à une réponse générée par IA à la requête de l’internaute, avec un texte de quelques lignes, quelques mentions des sites Web ayant servi de source à la réponse, et sur certaines requêtes, un lien sponsorisé dédié à la monétisation. Ce sont ces liens sponsorisés (ou autres formats publicitaires à venir) qui donneront lieu au partage de revenus promis avec les éditeurs, pour compenser l’éventuelle perte de trafic associée à la réponse flash.
Exemple de réponse flash générée par Qwant – capture d’écran
Qwant affirme que la recherche est gérée par ses propres services tandis que la génération de la réponse est opérée par les modèles de Mistral. Au printemps 2025, au sujet des recours fréquents à un LLM, Olivier Abecassis affirmait déjà « Il y avait un coût qu’on a largement optimisé, aujourd’hui on sait l’absorber. »
Si les coûts sont maitrisés, reste à voir quel est le potentiel réel des réponses flash de Qwant en matière de chiffre d’affaires publicitaire, et donc de rétrocession aux médias partenaires dont les contenus auront pu être exploités. Le moteur de recherche, hébergé dans sa nouvelle structure European Search Perspective, ne communique ni chiffre d’affaires, ni volume d’audience, mais sa fréquentation reste anecdotique comparée à celle de Google, leader incontesté sur le marché français.
Google temporise le lancement de ses Aperçus IA
Cette expérimentation intervient alors que la France fait figure de pierre dans le jardin de Google autour de son propre service de réponses générées automatiquement, AI Overviews (Aperçus IA ou Résumés IA en français). Disponible de longue date aux États-Unis, ce dernier a été lancé à l’international dans 110 pays, dont la majorité du continent européen… à l’exception notable de l’Hexagone.
Échaudée par les longues batailles autour des droits voisins, la firme de Mountain View sait en effet qu’elle s’expose à une levée de boucliers de la part des éditeurs de presse, qui alertent depuis des mois sur les conséquences négatives potentielles en matière de perte d’audience, et donc de chiffre d’affaires.
Outre-Atlantique, plusieurs grands médias ont déjà signalé des baisses significatives du trafic entrant en provenance de la recherche Google sur leurs sites. Google de son côté défend l’idée que les résumés IA améliorent le service rendu à l’internaute, et que ce faisant, l’audience et les revenus publicitaires qu’ils génèrent sont nettement mieux qualifiés, dont plus rémunérateurs pour les éditeurs.
La promesse ne fait pas précisément consensus. Attaquée devant la Commission européenne par un réseau d’éditeurs indépendants, et régulièrement incriminée pour ses hallucinations ou ses résumés trompeurs, AI Overviews vient d’être mis en cause comme l’une des causes de la chute d’audience enregistrée par les principaux médias en ligne de la scène tech aux États-Unis.
Yann LeCun a confirmé mardi le coup d’envoi officiel de sa société AMI Labs et révèle avoir les moyens de ses ambitions : à peine constituée, la startup annonce avoir levé 890 millions d’euros, auprès d’un large panel d’investisseurs français et internationaux, et se lance à Paris, Montréal, New York, et Singapour.
Depuis son départ de Meta, Yann LeCun répète à qui veut l’entendre que l’intelligence artificielle générale, celle qui égalerait les capacités humaines, proviendra non pas de la maitrise du langage, mais de l’appréhension et de la compréhension du monde physique. Il va désormais avoir l’occasion de développer cette approche : mardi, le prix Turing 2018 et ancien responsable des laboratoires IA de Meta a en effet donné le coup d’envoi officiel de sa nouvelle startup, Advanced Machine Intelligence (AMI ou AMI Labs), et quelques bonnes fées se sont penchées sur le berceau de cette dernière.
1 milliard de dollars levés avant même le lancement
Les rumeurs d’une levée de fonds significative circulaient depuis mi-décembre. Le tour de table se révèle finalement bien supérieur aux hypothèses envisagées : à 65 ans, LeCun peut se targuer d’avoir réuni 1,03 milliard de dollars, soit environ 890 millions d’euros, auprès d’un contingent d’investisseurs venus du monde entier.
Le tour de table est emmené par les fonds Cathay Innovation, Greycroft, Hiro Capital, HV Capital, et Bezos Expeditions, mais il associe également, entre autres et de façon non exhaustive, Toyota Ventures, New Legacy Ventures, Temasek (fonds souverain de Singapour), SBVA (Softbank), NVIDIA, Mark Cuban (juré de l’émission Shark Tank), Sea, et Alpha Intelligence Capital.
En France, AMI fédère l’Association Familiale Mulliez (Auchan), le groupe industriel Marcel Dassault, Artémis (famille Pinault), Aglaé (famille Arnault), Xavier Niel, Publicis Groupe, Bpifrance Digital Venture, le fonds startup de CMA-CGM. Pour faire bonne mesure, Eric Schmidt, et le couple Berners-Lee figurent aussi au rang des soutiens.
La levée de fonds se fait sur la base d’une valorisation de 3,5 milliards de dollars, soit 3 milliards d’euros.
Page d’accueil du site AMI – capture d’écran
Des bureaux à Paris, Montréal, New York et Singapour
Déjà évoqués, les noms de Laurent Solly, ex-directeur de Meta France et d’Alexandre Lebrun, cofondateur de la start-up d’IA générative en santé Nabla, sont confirmés. Le premier devrait assurer des fonctions opérationnelles (COO) tandis que le second assurera la direction de l’entreprise. La direction scientifique est confiée à Saining Xie (passé par Google DeepMind) tandis que deux autres anciens de Meta complètent l’équipe : Michael Rabbat prendra en charge les architectures de world models et Pascale Fung pilotera la recherche.
Pour accompagner ce premier cercle, AMI ouvre des postes, et se dote pour ce faire de quatre bureaux sur trois continents, à Paris (siège social), Montréal, New York et Singapour.
« Nous construisons une nouvelle génération de systèmes d’IA qui (1) comprennent le monde réel, (2) ont une mémoire persistante, (3) peuvent raisonner et planifier, et (4) sont contrôlables et sûrs », promet l’entreprise, qui recrute à la fois des chercheurs et des ingénieurs :
« Vous travaillerez au sein d’une équipe sur des projets de recherche en modélisation du monde, notamment : – Méthodes d’apprentissage auto-supervisé pour un apprentissage efficace à partir de vidéos et d’autres signaux continus de grande dimension – Nouvelles architectures permettant de prédire efficacement la dynamique du monde à partir de vidéos et d’autres signaux de grande dimension – Algorithmes évolutifs pour le prétraitement et l’organisation des données vidéo – Évaluations pour l’analyse comparative de la compréhension, de la prédiction et de la planification des modèles du monde – Algorithmes efficaces pour la planification et le raisonnement basés sur des modèles ».
Des agents capables de comprendre la vie réelle
Alors qu’OpenClaw, Claude Cowork et consorts illustrent le potentiel de l’automatisation par l’IA, AMI revendique une approche nettement plus ambitieuse, parce qu’ancrée dans le monde physique et donc la vie réelle :
« Les modèles du monde conditionnés par l’action permettent aux systèmes multi-agents de prédire les conséquences de leurs actions et de planifier des séquences d’actions pour accomplir une tâche, tout en respectant les mécanismes de sécurité. AMI fera progresser la recherche en IA et développera des applications où la fiabilité, la contrôlabilité et la sécurité sont essentielles, notamment pour le contrôle des processus industriels, l’automatisation, les dispositifs portables, la robotique, la santé et bien d’autres domaines », promet-elle.
Yann LeCun a confirmé mardi le coup d’envoi officiel de sa société AMI Labs et révèle avoir les moyens de ses ambitions : à peine constituée, la startup annonce avoir levé 890 millions d’euros, auprès d’un large panel d’investisseurs français et internationaux, et se lance à Paris, Montréal, New York, et Singapour.
Depuis son départ de Meta, Yann LeCun répète à qui veut l’entendre que l’intelligence artificielle générale, celle qui égalerait les capacités humaines, proviendra non pas de la maitrise du langage, mais de l’appréhension et de la compréhension du monde physique. Il va désormais avoir l’occasion de développer cette approche : mardi, le prix Turing 2018 et ancien responsable des laboratoires IA de Meta a en effet donné le coup d’envoi officiel de sa nouvelle startup, Advanced Machine Intelligence (AMI ou AMI Labs), et quelques bonnes fées se sont penchées sur le berceau de cette dernière.
1 milliard de dollars levés avant même le lancement
Les rumeurs d’une levée de fonds significative circulaient depuis mi-décembre. Le tour de table se révèle finalement bien supérieur aux hypothèses envisagées : à 65 ans, LeCun peut se targuer d’avoir réuni 1,03 milliard de dollars, soit environ 890 millions d’euros, auprès d’un contingent d’investisseurs venus du monde entier.
Le tour de table est emmené par les fonds Cathay Innovation, Greycroft, Hiro Capital, HV Capital, et Bezos Expeditions, mais il associe également, entre autres et de façon non exhaustive, Toyota Ventures, New Legacy Ventures, Temasek (fonds souverain de Singapour), SBVA (Softbank), NVIDIA, Mark Cuban (juré de l’émission Shark Tank), Sea, et Alpha Intelligence Capital.
En France, AMI fédère l’Association Familiale Mulliez (Auchan), le groupe industriel Marcel Dassault, Artémis (famille Pinault), Aglaé (famille Arnault), Xavier Niel, Publicis Groupe, Bpifrance Digital Venture, le fonds startup de CMA-CGM. Pour faire bonne mesure, Eric Schmidt, et le couple Berners-Lee figurent aussi au rang des soutiens.
La levée de fonds se fait sur la base d’une valorisation de 3,5 milliards de dollars, soit 3 milliards d’euros.
Page d’accueil du site AMI – capture d’écran
Des bureaux à Paris, Montréal, New York et Singapour
Déjà évoqués, les noms de Laurent Solly, ex-directeur de Meta France et d’Alexandre Lebrun, cofondateur de la start-up d’IA générative en santé Nabla, sont confirmés. Le premier devrait assurer des fonctions opérationnelles (COO) tandis que le second assurera la direction de l’entreprise. La direction scientifique est confiée à Saining Xie (passé par Google DeepMind) tandis que deux autres anciens de Meta complètent l’équipe : Michael Rabbat prendra en charge les architectures de world models et Pascale Fung pilotera la recherche.
Pour accompagner ce premier cercle, AMI ouvre des postes, et se dote pour ce faire de quatre bureaux sur trois continents, à Paris (siège social), Montréal, New York et Singapour.
« Nous construisons une nouvelle génération de systèmes d’IA qui (1) comprennent le monde réel, (2) ont une mémoire persistante, (3) peuvent raisonner et planifier, et (4) sont contrôlables et sûrs », promet l’entreprise, qui recrute à la fois des chercheurs et des ingénieurs :
« Vous travaillerez au sein d’une équipe sur des projets de recherche en modélisation du monde, notamment : – Méthodes d’apprentissage auto-supervisé pour un apprentissage efficace à partir de vidéos et d’autres signaux continus de grande dimension – Nouvelles architectures permettant de prédire efficacement la dynamique du monde à partir de vidéos et d’autres signaux de grande dimension – Algorithmes évolutifs pour le prétraitement et l’organisation des données vidéo – Évaluations pour l’analyse comparative de la compréhension, de la prédiction et de la planification des modèles du monde – Algorithmes efficaces pour la planification et le raisonnement basés sur des modèles ».
Des agents capables de comprendre la vie réelle
Alors qu’OpenClaw, Claude Cowork et consorts illustrent le potentiel de l’automatisation par l’IA, AMI revendique une approche nettement plus ambitieuse, parce qu’ancrée dans le monde physique et donc la vie réelle :
« Les modèles du monde conditionnés par l’action permettent aux systèmes multi-agents de prédire les conséquences de leurs actions et de planifier des séquences d’actions pour accomplir une tâche, tout en respectant les mécanismes de sécurité. AMI fera progresser la recherche en IA et développera des applications où la fiabilité, la contrôlabilité et la sécurité sont essentielles, notamment pour le contrôle des processus industriels, l’automatisation, les dispositifs portables, la robotique, la santé et bien d’autres domaines », promet-elle.
Le conflit qui s’étend au Moyen-Orient aura-t-il des répercussions économiques sur l’industrie de la tech ? La question se pose à plus d’un titre : les puissances pétrolières du Golfe sont en effet à la fois une terre de datacenters pour les grands acteurs du numérique, et un partenaire financier de premier plan pour leurs projets d’infrastructures autour de l’IA.
Déclenchée par l’attaque des États-Unis et d’Israël le 28 février dernier, la guerre d’Iran a rapidement touché, à des niveaux divers, l’ensemble du Moyen-Orient, et aucune perspective de résolution rapide n’émerge, alors que les belligérants poursuivent leurs campagnes de bombardements respectives. Faut-il s’attendre à un conflit qui dure, à l’image de la guerre en Ukraine ? S’il se prolonge pendant des mois, voire des années, il aura vraisemblablement un impact direct sur l’économie du secteur de la tech et du numérique.
Répercussions inflationnistes
Analystes et commentateurs n’ont pas attendu longtemps pour élaborer leurs scénarios du pire. Le cabinet IDC a par exemple sorti dès le 2 mars une première étude visant à décrire et tenter de chiffrer les conséquences de la guerre sur l’industrie de l’IT.
Trois des six impacts identifiés vont dans le sens d’une accélération des dépenses et donc des investissements, ce qui peut être vu comme un signal positif pour le secteur. IDC évoque ainsi un renforcement des stratégies de résilience informatique en matière de cloud et de datacenter (pour se prémunir des interruptions de service telles que celle connue par Amazon Web Services dans ses zones Moyen-Orient) et une priorité accrue accordée aux problématiques de souveraineté. De la même façon, le cabinet s’attend à ce que le conflit entraîne une augmentation des investissements en matière de cybersécurité.
Il reste 88% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Que disent les délégués à la protection des données personnelles de la simplification du RGPD envisagée par la Commission européenne ? Un sondage organisé par l’association noyb révèle que leurs préoccupations portent essentiellement sur la simplification des démarches administratives, et non sur la redéfinition des données personnelles ou sur la limitation du droit d’accès, pourtant envisagés par Bruxelles en réponse aux demandes de l’industrie.
Dans l’univers tech, on entend souvent dire que l’excès de norme est un frein à l’innovation, et que le régulateur ferait bien de s’intéresser aux signaux qui remontent de la base (les entreprises) plutôt que de décider du cadre depuis le sommet.
L’association autrichienne noyb a décidé de prolonger la logique en descendant un cran plus bas : plutôt que d’interroger les entreprises, elle a cherché à connaître la position des individus qui, au sein de ces dernières, se situent en première ligne de la mise en œuvre du cadre réglementaire.
Ratio entre charge de travail et utilité perçue
En l’occurrence, les fameux Délégués à la protection des données (souvent abrégé en DPO, pour Data Protection Officer), instaurés par les articles 37 et suivants du non moins fameux Règlement général sur la protection des données (RGPD).
L’association a donc demandé à environ 500 de ces derniers quels étaient les points de friction liés au RGPD les plus fréquents dans leur quotidien. Elle en a profité pour essayer d’évaluer, toujours par la voie du sondage déclaratif, la part du temps de leur activité de DPO associée à chacune des grandes exigences du règlement. Elle a enfin tenté d’évaluer la façon dont ces DPO percevaient la valeur du service rendu à l’internaute en matière de respect de la vie privée.
Les enseignements de cette étude, présentés jeudi 5 mars, illustrent selon noyb à quel point la Commission européenne fait fausse route en matière de simplification du RGPD. Rappelons que Bruxelles a publié en novembre 2025 un paquet législatif dédié au numérique qui vise à amender plusieurs des grands textes de loi européens, dont le RGPD, la directive e-Privacy, le règlement sur l’IA, etc..
Qualifié de « digital omnibus » du fait de ce caractère fourre-tout, le texte est vivement attaqué pour les allègements qu’il propose en matière de défense de la vie privée. Mi-janvier, deux organisations européennes ont ajouté de l’huile sur le feu en arguant que certaines des mesures de ce Digital Omnibus seraient le reflet du message porté par les lobbys de l’industrie de la tech à Bruxelles. L’un des points de crispation concerne l’article 15 relatif au droit d’accès aux données personnelles, que la Commission européenne prévoit de réduire au motif qu’il y aurait des « abus ».
C’est donc dans ce contexte tendu que noyb dégaine son étude, dont les résultats se veulent donc représentatifs des attentes non pas d’un secteur d’activité, mais d’une fonction bien précise, dont l’avis semble tranché. L’association résume :
« Il s’avère que la plupart des professionnels ne souhaitent pas une réduction des protections, mais une simplification des obligations de documentation et des formalités administratives. Dans bien des cas, ils demandent même des lois plus claires plutôt qu’une plus grande « flexibilité », difficile à mettre en œuvre pour la plupart des entreprises. »
Les DPO ne veulent globalement pas moins de protections
Le sondage a été réalisé en juillet 2025, et une fois nettoyées, les données permettent à noyb de consolider (voir l’étude au format PDF) les réponses de 510 DPO, dont la moitié évolue dans des sociétés comptant plus de 500 employés. Il est à noter que l’association a recruté les sondés par ses propres canaux de communication (réseaux sociaux et newsletter centrée sur les enjeux liés au RGPD).
Pour ce qui est de la charge de travail, les répondants déclarent que les tâches les plus chronophages sont liées aux obligations déclaratives, à la mesure d’impact, et à la conformité en matière de sécurité. Les principes qui constituent le cœur du règlement, les obligations d’information ou la gestion du droit d’accès sont quant à eux considérés comme relativement indolores. D’après noyb, plus de 70 % des sondés répondent ainsi que le droit d’accès ne génère que « peu », « un peu » ou « pas » de travail.
L’association affirme que ce chiffre confirme sa propre lecture du phénomène, selon laquelle la plupart des entreprises ne font l’objet que de rares demandes d’accès, tandis que les acteurs susceptibles d’être fréquemment sollicités (secteur de la publicité par exemple) ont de toute façon des routines de traitement automatisées.
Le sondage évalue les différentes missions afférentes à la conformité RGPD en fonction de la charge de travail engendrée – crédit noyb
L’association interroge ensuite son échantillon de DPO sur leur perception de l’utilité des missions en question. Ici, ce sont les obligations liées à la sécurité, les principes fondamentaux du texte, et l’obligation d’information qui apparaissent comme les éléments les plus utiles, juste devant le droit à l’accès. Elle s’étonne dans ce contexte que Bruxelles propose de limiter le droit d’accès ou les obligations de transparence.
« Cette étude révèle un fossé immense entre les besoins des personnes qui travaillent concrètement au respect de la conformité et les problèmes alimentés par la « bulle du lobby bruxellois ». Nous n’aidons pas les entreprises européennes dans leur fonctionnement normal ; la proposition de la Commission empiète même souvent sur ce que les professionnels considèrent comme utile », résume Max Schrems, fondateur de noyb.
L’association évalue le rapport entre niveau de protection perçu et charge de travail pour les principales obligations du RGPD – crédit noyb
Le « one size fits all » ne fait pas consensus
noyb profite de son étude pour interroger les DPO sur l’intérêt, ou non, de créer des paliers en fonction desquels le niveau d’obligation pourrait varier, de façon par exemple à ce que les exigences réglementaires soient alourdies pour les grands acteurs spécialistes de la vente de données, et allégées pour les petites et moyennes entreprises chez qui la gestion de données personnelles n’est qu’une problématique satellite.
La question n’est pas totalement innocente : dans sa communication autour du paquet numérique, Bruxelles fait en effet valoir que la simplification du RGPD profitera à toutes les entreprises, sans prendre en compte cette différence d’impact. Qu’en disent les intéressés ? « Malgré le fait que beaucoup d’entre eux représentent de plus grandes entreprises (500 + employés), 70% des répondants ont déclaré qu’il y avait un besoin de règles plus strictes pour les grandes entreprises », argue noyb, qui défend donc l’idée d’un système de paliers, avec des règles très claires, ne laissant que peu de place à l’interprétation juridique, pour les PME.
L’association interroge également la perception des DPO sur la proposition, faite par Bruxelles, d’un système de liste blanche, pour automatiser le consentement de certains recueils et traitements à finalité claire (la mesure d’audience par exemple) et donc réduire la pression au niveau des fameux bandeaux de cookies.
noyb, qui avait exprimé en novembre dernier des craintes sur les possibilités réellement offertes par cette liste blanche, note à ce niveau que 84 % des sondés sont globalement favorables à l’idée, mais ajoute à l’équation une autre hypothèse, jusqu’ici écartée par Bruxelles : celle d’un fonctionnement par liste noire, qui interdirait donc les traitements « clairement illicites », à la façon de ce qu’énonce l’article 5 du règlement européen sur l’IA. L’idée recueille un accueil favorable (totalement ou partiellement) chez 91 % des sondés.
« Étonnamment, les spécialistes de la protection de la vie privée (…) ne pensent pas qu’une « liste noire » limiterait excessivement [les responsables de traitement]. Il semble que la sécurité juridique soit privilégiée par rapport à la flexibilité de la loi. On peut supposer que la garantie d’une concurrence loyale est un facteur justifiant l’établissement de « listes noires », étant donné que les concurrents seraient eux aussi soumis à des règles plus claires. », commente l’association, qui appelle par conséquent à un débat plus large autour du Digital Omnibus.
Que disent les délégués à la protection des données personnelles de la simplification du RGPD envisagée par la Commission européenne ? Un sondage organisé par l’association noyb révèle que leurs préoccupations portent essentiellement sur la simplification des démarches administratives, et non sur la redéfinition des données personnelles ou sur la limitation du droit d’accès, pourtant envisagés par Bruxelles en réponse aux demandes de l’industrie.
Dans l’univers tech, on entend souvent dire que l’excès de norme est un frein à l’innovation, et que le régulateur ferait bien de s’intéresser aux signaux qui remontent de la base (les entreprises) plutôt que de décider du cadre depuis le sommet.
L’association autrichienne noyb a décidé de prolonger la logique en descendant un cran plus bas : plutôt que d’interroger les entreprises, elle a cherché à connaître la position des individus qui, au sein de ces dernières, se situent en première ligne de la mise en œuvre du cadre réglementaire.
Ratio entre charge de travail et utilité perçue
En l’occurrence, les fameux Délégués à la protection des données (souvent abrégé en DPO, pour Data Protection Officer), instaurés par les articles 37 et suivants du non moins fameux Règlement général sur la protection des données (RGPD).
L’association a donc demandé à environ 500 de ces derniers quels étaient les points de friction liés au RGPD les plus fréquents dans leur quotidien. Elle en a profité pour essayer d’évaluer, toujours par la voie du sondage déclaratif, la part du temps de leur activité de DPO associée à chacune des grandes exigences du règlement. Elle a enfin tenté d’évaluer la façon dont ces DPO percevaient la valeur du service rendu à l’internaute en matière de respect de la vie privée.
Les enseignements de cette étude, présentés jeudi 5 mars, illustrent selon noyb à quel point la Commission européenne fait fausse route en matière de simplification du RGPD. Rappelons que Bruxelles a publié en novembre 2025 un paquet législatif dédié au numérique qui vise à amender plusieurs des grands textes de loi européens, dont le RGPD, la directive e-Privacy, le règlement sur l’IA, etc..
Qualifié de « digital omnibus » du fait de ce caractère fourre-tout, le texte est vivement attaqué pour les allègements qu’il propose en matière de défense de la vie privée. Mi-janvier, deux organisations européennes ont ajouté de l’huile sur le feu en arguant que certaines des mesures de ce Digital Omnibus seraient le reflet du message porté par les lobbys de l’industrie de la tech à Bruxelles. L’un des points de crispation concerne l’article 15 relatif au droit d’accès aux données personnelles, que la Commission européenne prévoit de réduire au motif qu’il y aurait des « abus ».
C’est donc dans ce contexte tendu que noyb dégaine son étude, dont les résultats se veulent donc représentatifs des attentes non pas d’un secteur d’activité, mais d’une fonction bien précise, dont l’avis semble tranché. L’association résume :
« Il s’avère que la plupart des professionnels ne souhaitent pas une réduction des protections, mais une simplification des obligations de documentation et des formalités administratives. Dans bien des cas, ils demandent même des lois plus claires plutôt qu’une plus grande « flexibilité », difficile à mettre en œuvre pour la plupart des entreprises. »
Les DPO ne veulent globalement pas moins de protections
Le sondage a été réalisé en juillet 2025, et une fois nettoyées, les données permettent à noyb de consolider (voir l’étude au format PDF) les réponses de 510 DPO, dont la moitié évolue dans des sociétés comptant plus de 500 employés. Il est à noter que l’association a recruté les sondés par ses propres canaux de communication (réseaux sociaux et newsletter centrée sur les enjeux liés au RGPD).
Pour ce qui est de la charge de travail, les répondants déclarent que les tâches les plus chronophages sont liées aux obligations déclaratives, à la mesure d’impact, et à la conformité en matière de sécurité. Les principes qui constituent le cœur du règlement, les obligations d’information ou la gestion du droit d’accès sont quant à eux considérés comme relativement indolores. D’après noyb, plus de 70 % des sondés répondent ainsi que le droit d’accès ne génère que « peu », « un peu » ou « pas » de travail.
L’association affirme que ce chiffre confirme sa propre lecture du phénomène, selon laquelle la plupart des entreprises ne font l’objet que de rares demandes d’accès, tandis que les acteurs susceptibles d’être fréquemment sollicités (secteur de la publicité par exemple) ont de toute façon des routines de traitement automatisées.
Le sondage évalue les différentes missions afférentes à la conformité RGPD en fonction de la charge de travail engendrée – crédit noyb
L’association interroge ensuite son échantillon de DPO sur leur perception de l’utilité des missions en question. Ici, ce sont les obligations liées à la sécurité, les principes fondamentaux du texte, et l’obligation d’information qui apparaissent comme les éléments les plus utiles, juste devant le droit à l’accès. Elle s’étonne dans ce contexte que Bruxelles propose de limiter le droit d’accès ou les obligations de transparence.
« Cette étude révèle un fossé immense entre les besoins des personnes qui travaillent concrètement au respect de la conformité et les problèmes alimentés par la « bulle du lobby bruxellois ». Nous n’aidons pas les entreprises européennes dans leur fonctionnement normal ; la proposition de la Commission empiète même souvent sur ce que les professionnels considèrent comme utile », résume Max Schrems, fondateur de noyb.
L’association évalue le rapport entre niveau de protection perçu et charge de travail pour les principales obligations du RGPD – crédit noyb
Le « one size fits all » ne fait pas consensus
noyb profite de son étude pour interroger les DPO sur l’intérêt, ou non, de créer des paliers en fonction desquels le niveau d’obligation pourrait varier, de façon par exemple à ce que les exigences réglementaires soient alourdies pour les grands acteurs spécialistes de la vente de données, et allégées pour les petites et moyennes entreprises chez qui la gestion de données personnelles n’est qu’une problématique satellite.
La question n’est pas totalement innocente : dans sa communication autour du paquet numérique, Bruxelles fait en effet valoir que la simplification du RGPD profitera à toutes les entreprises, sans prendre en compte cette différence d’impact. Qu’en disent les intéressés ? « Malgré le fait que beaucoup d’entre eux représentent de plus grandes entreprises (500 + employés), 70% des répondants ont déclaré qu’il y avait un besoin de règles plus strictes pour les grandes entreprises », argue noyb, qui défend donc l’idée d’un système de paliers, avec des règles très claires, ne laissant que peu de place à l’interprétation juridique, pour les PME.
L’association interroge également la perception des DPO sur la proposition, faite par Bruxelles, d’un système de liste blanche, pour automatiser le consentement de certains recueils et traitements à finalité claire (la mesure d’audience par exemple) et donc réduire la pression au niveau des fameux bandeaux de cookies.
noyb, qui avait exprimé en novembre dernier des craintes sur les possibilités réellement offertes par cette liste blanche, note à ce niveau que 84 % des sondés sont globalement favorables à l’idée, mais ajoute à l’équation une autre hypothèse, jusqu’ici écartée par Bruxelles : celle d’un fonctionnement par liste noire, qui interdirait donc les traitements « clairement illicites », à la façon de ce qu’énonce l’article 5 du règlement européen sur l’IA. L’idée recueille un accueil favorable (totalement ou partiellement) chez 91 % des sondés.
« Étonnamment, les spécialistes de la protection de la vie privée (…) ne pensent pas qu’une « liste noire » limiterait excessivement [les responsables de traitement]. Il semble que la sécurité juridique soit privilégiée par rapport à la flexibilité de la loi. On peut supposer que la garantie d’une concurrence loyale est un facteur justifiant l’établissement de « listes noires », étant donné que les concurrents seraient eux aussi soumis à des règles plus claires. », commente l’association, qui appelle par conséquent à un débat plus large autour du Digital Omnibus.
Pasqal, startup française du quantique, a annoncé coup sur coup une levée de fonds de 340 millions d’euros et son association avec un SPAC en vue de préparer son introduction en bourse, avec l’objectif d’une double cotation, à Paris et à New-York. L’opération valoriserait la société deux milliards de dollars.
Non contente d’avancer sur le développement d’ordinateurs quantiques à base d’atomes neutres, la startup française Pasqal fait cette semaine la démonstration de ses talents en matière d’ingénierie financière. Depuis son siège de Palaiseau, elle vient en effet de dévoiler une double opération, qui lui permet à la fois de muscler sa trésorerie immédiatement disponible et de préparer l’avenir en posant les bases d’une double introduction en bourse : d’abord sur le Nasdaq (l’indice des valeurs technologiques de Wall Street) à New-York puis sur Euronext à Paris.
Dans le détail, Pasqal a annoncé mercredi avoir procédé à un tour de table qui lui permet de réunir au moins 340 millions d’euros (environ 395 millions de dollars), en deux temps. La première moitié de cette manne (soit 170 millions d’euros) est amenée sous forme de capital, avec un tour de table qui réunit, selon la startup, un groupe d’investisseurs internationaux de premier plan.
L’opération est emmenée par le fonds états-unien Parkway Ventures, le taïwanais Quanta Computer, le coréen LG Electronics et le français CMA CGM. Pasqal indique que ses investisseurs historiques, parmi lesquels le français ISAI, fonds européen pour l’innovation, le fonds souverain de Singapour Temasek et la branche investissement de Saudi Aramco remettent également au pot.
Bpifrance, qui compte parmi les investisseurs de Pasqal depuis sa série A de 2021, ne semble pas participer directement, mais la startup prend soin de préciser que la banque publique d’investissement « maintient un rôle stratégique à long terme dans la structure du capital ».
… et un engagement équivalent en vue de l’entrée en bourse
La seconde tranche de 170 millions d’euros prend quant à elle la forme d’un engagement sous forme de financement convertible (les investisseurs prêtent de l’argent à l’entreprise dans l’optique d’un remboursement sous forme d’actions). Cette seconde tranche intervient dans le contexte d’une introduction en bourse programmée en deux temps : à Wall Street d’ici fin 2026, puis à Paris sur Euronext dans les mois suivants.
Pour ce faire, Pasqal va s’adosser à un SPAC (special purpose acquisition company), une coquille vide introduite spécifiquement en bourse pour préparer le terrain à une autre société. En l’occurrence, le véhicule concerné est déjà identifié : il s’agit de la société Bleichroeder Acquisition Corp. II, qui compte un certain Michel Combes parmi ses fondateurs. Ancien PDG de SFR et directeur général d’Altice, Michel Combes a par la suite occupé un poste de directeur financier chez l’opérateur Sprint, avant de prendre la tête du japonais Softbank pendant deux ans.
Cette tranche convertible associe elle aussi un aréopage d’investisseurs institutionnels, parmi lesquels le fonds indien Inflection Point, et le fonds Large Ventures de Bpifrance.
Si l’opération va à son terme dans les conditions décrites ici, Pasqal sera valorisée 2 milliards de dollars avant conclusion des financements, et environ 2,6 milliards de dollars en prenant en compte la trésorerie disponible via ses différents véhicules.
Un ancrage français conservé
Pasqal, qui indique compter environ 275 employés, revendique 25 clients et partenaires pour ses premiers ordinateurs quantiques, ainsi qu’un carnet de commandes de l’ordre de 80 millions de dollars. L’entreprise affirme que ces fonds vont lui permettre d’accélérer significativement ses développements :
« En France, Pasqal prévoit de doubler sa capacité de production en 24 mois, d’augmenter ses effectifs de près de 20 % avec 50 nouvelles embauches au cours des 18 prochains mois et d’investir massivement dans la R&D pour développer un ordinateur quantique avancé et tolérant aux pannes d’ici la fin de la décennie. »
Pasqal, qui compte parmi les quelques pépites hexagonales du quantique aux côtés de sociétés comme Quandela, C12, Alice&Bob ou Quobly, assure par ailleurs de son intention de rester une société de droit français, avec un ancrage français, en dépit de la ventilation de son capital :
« La gouvernance envisagée (…) prévoit la nomination d’un nouveau président non exécutif de nationalité française. Cette structure de gouvernance a été élaborée en étroite collaboration avec les actionnaires et reflétera l’engagement de Pasqal à consolider son ancrage français tout en poursuivant son expansion internationale. L’entreprise devrait conserver son statut juridique français et son siège social à Palaiseau. »
Pasqal, startup française du quantique, a annoncé coup sur coup une levée de fonds de 340 millions d’euros et son association avec un SPAC en vue de préparer son introduction en bourse, avec l’objectif d’une double cotation, à Paris et à New-York. L’opération valoriserait la société deux milliards de dollars.
Non contente d’avancer sur le développement d’ordinateurs quantiques à base d’atomes neutres, la startup française Pasqal fait cette semaine la démonstration de ses talents en matière d’ingénierie financière. Depuis son siège de Palaiseau, elle vient en effet de dévoiler une double opération, qui lui permet à la fois de muscler sa trésorerie immédiatement disponible et de préparer l’avenir en posant les bases d’une double introduction en bourse : d’abord sur le Nasdaq (l’indice des valeurs technologiques de Wall Street) à New-York puis sur Euronext à Paris.
Dans le détail, Pasqal a annoncé mercredi avoir procédé à un tour de table qui lui permet de réunir au moins 340 millions d’euros (environ 395 millions de dollars), en deux temps. La première moitié de cette manne (soit 170 millions d’euros) est amenée sous forme de capital, avec un tour de table qui réunit, selon la startup, un groupe d’investisseurs internationaux de premier plan.
L’opération est emmenée par le fonds états-unien Parkway Ventures, le taïwanais Quanta Computer, le coréen LG Electronics et le français CMA CGM. Pasqal indique que ses investisseurs historiques, parmi lesquels le français ISAI, fonds européen pour l’innovation, le fonds souverain de Singapour Temasek et la branche investissement de Saudi Aramco remettent également au pot.
Bpifrance, qui compte parmi les investisseurs de Pasqal depuis sa série A de 2021, ne semble pas participer directement, mais la startup prend soin de préciser que la banque publique d’investissement « maintient un rôle stratégique à long terme dans la structure du capital ».
… et un engagement équivalent en vue de l’entrée en bourse
La seconde tranche de 170 millions d’euros prend quant à elle la forme d’un engagement sous forme de financement convertible (les investisseurs prêtent de l’argent à l’entreprise dans l’optique d’un remboursement sous forme d’actions). Cette seconde tranche intervient dans le contexte d’une introduction en bourse programmée en deux temps : à Wall Street d’ici fin 2026, puis à Paris sur Euronext dans les mois suivants.
Pour ce faire, Pasqal va s’adosser à un SPAC (special purpose acquisition company), une coquille vide introduite spécifiquement en bourse pour préparer le terrain à une autre société. En l’occurrence, le véhicule concerné est déjà identifié : il s’agit de la société Bleichroeder Acquisition Corp. II, qui compte un certain Michel Combes parmi ses fondateurs. Ancien PDG de SFR et directeur général d’Altice, Michel Combes a par la suite occupé un poste de directeur financier chez l’opérateur Sprint, avant de prendre la tête du japonais Softbank pendant deux ans.
Cette tranche convertible associe elle aussi un aréopage d’investisseurs institutionnels, parmi lesquels le fonds indien Inflection Point, et le fonds Large Ventures de Bpifrance.
Si l’opération va à son terme dans les conditions décrites ici, Pasqal sera valorisée 2 milliards de dollars avant conclusion des financements, et environ 2,6 milliards de dollars en prenant en compte la trésorerie disponible via ses différents véhicules.
Un ancrage français conservé
Pasqal, qui indique compter environ 275 employés, revendique 25 clients et partenaires pour ses premiers ordinateurs quantiques, ainsi qu’un carnet de commandes de l’ordre de 80 millions de dollars. L’entreprise affirme que ces fonds vont lui permettre d’accélérer significativement ses développements :
« En France, Pasqal prévoit de doubler sa capacité de production en 24 mois, d’augmenter ses effectifs de près de 20 % avec 50 nouvelles embauches au cours des 18 prochains mois et d’investir massivement dans la R&D pour développer un ordinateur quantique avancé et tolérant aux pannes d’ici la fin de la décennie. »
Pasqal, qui compte parmi les quelques pépites hexagonales du quantique aux côtés de sociétés comme Quandela, C12, Alice&Bob ou Quobly, assure par ailleurs de son intention de rester une société de droit français, avec un ancrage français, en dépit de la ventilation de son capital :
« La gouvernance envisagée (…) prévoit la nomination d’un nouveau président non exécutif de nationalité française. Cette structure de gouvernance a été élaborée en étroite collaboration avec les actionnaires et reflétera l’engagement de Pasqal à consolider son ancrage français tout en poursuivant son expansion internationale. L’entreprise devrait conserver son statut juridique français et son siège social à Palaiseau. »
OpenAI avance un nouveau pion dans la course effrénée que se livrent les acteurs de l’IA générative avec la sortie, jeudi 5 mars, deGPT‑5.4, dernière itération en date de son grand modèle de langage. Immédiatement disponible au travers de ChatGPT, des API proposées aux entreprises ou de Codex, l’outil dédié aux développeurs, GPT‑5.4 est décliné en deux versions : GPT‑5.4 Pro, « pour les personnes qui recherchent une performance maximale sur des tâches complexes », et GPT‑5.4 Thinking, qui promet des capacités plus poussées en matière de recherche en ligne, de taille de contexte et de gestion des requêtes complexes.
Dans un long article de présentation, rempli de tests de performance superlatifs, OpenAI indique avoir mis, avec GPT‑5.4, l’accent sur la capacité à créer et éditer des documents bureautiques (un nouveau plugin Excel est par ailleurs lancé en même temps), mais aussi sur la capacité à contrôler un ordinateur et à voir (c’est-à-dire à analyser le contenu de captures d’écran) le résultat de ses actions au fil de l’eau. Difficile de ne pas y voir une réponse directe aux comportements agentiques développés par Anthropic avec Claude Cowork.
OpenAI accompagne le déploiement de GPT‑5.4 d’une série de mesures de performance qui attestent, selon l’entreprise, de la supériorité de son nouveau modèle sur les deux références concurrentes du moment, à savoir Claude Opus 4.6 et Gemini 3.1 Pro.
Comparaison, selon OpenAI, des performances de GPT-5.4 avec les modèles précédents et la concurrence d’Anthropic et de Google – crédit OpenAI
GPT‑5.4 fait actuellement l’objet d’un déploiement progressif, et doit selon OpenAI s’imposer auprès des utilisateurs comme le nouveau modèle de référence. Le nouveau venu va d’ailleurs évincer GPT-5.2 Thinking qui sera mis à la retraite d’ici trois mois. Le changement n’est pas tout à fait anodin pour les gros consommateurs : GPT-5.4 est en effet facturé plus cher que son prédécesseur. En version API, il faut ainsi compter 2,5 dollars par million de jetons, quand GPT-5.2 était à 1,75 dollar.
Prix d’accès aux modèles GPT du moment, en dollars par million de jetons en entrée, puis en dollars par million de jetons en sortie – capture d’écran
Au fait, pourquoi GPT-5.4, alors que les versions Pro utilisaient jusqu’ici GPT-5.2, sorti en décembre, et que OpenAI a en parallèle sorti GPT-5.3 Codex début février et GPT-5.3 Instant début mars ? OpenAI l’explique de la façon suivante :
« GPT-5.4 est notre premier modèle de raisonnement principal intégrant les fonctionnalités de codage avancées de GPT-5.3-codex et déployé progressivement sur ChatGPT, l’API et Codex. Nous l’appelons GPT-5.4 pour refléter cette évolution et simplifier le choix entre les modèles lors de l’utilisation de Codex. Nos modèles Instant et Thinking évolueront à des rythmes différents au fil du temps. »