Meta est tombé sur un os : le gouvernement chinois vient de rejeter le projet d’acquisition de Manus, un agent d’IA conçu par une des startups IA chinoises les plus en vue du moment, The Butterfly Effect. L’opération à 2 milliards de dollars, annoncée en décembre dernier, a immédiatement suscité des inquiétudes aussi bien du côté de Washington que de Pékin.
Créée par des fondateurs chinois puis relocalisée à Singapour dans l’espoir d’échapper aux fourches caudines de Pékin, The Butterfly Effect n’a pas pu esquiver une enquête du ministère chinois du Commerce. À l’époque, les autorités expliquaient que les investissements à l’étranger, les transferts de technologies et les fusions-acquisitions à l’international doivent se conformer aux lois du pays.
La Commission nationale du développement et de la réforme a finalement pris la décision d’interdire les investissements étrangers dans Manus, et demandé aux deux parties de retirer l’opération d’acquisition. Comme CNBC le rappelle, les États-Unis interdisent aussi aux investisseurs américains de financer directement des entreprises IA chinoises.
Il y a aussi la question du point de chute du fondateur et directeur général, Xiao Hong, qui devait occuper un poste de vice président au siège de Meta, en Californie. La Chine fait pression sur les fondateurs d’entreprises IA pour qu’ils restent au pays. En résumé, toute l’opération semble bien mal partie. Meta n’a pas voulu commenter le dernier (et ultime ?) rebondissement de cette saga.
Manus développe des agents IA capables de prendre en charge des missions complexes de manière autonome à la manière d’OpenClaw. La startup avait fait sensation en mars dernier, en marchant dans les pas d’un autre local de l’étape, DeepSeek. Manus avait annoncé dépasser les 100 millions de dollars de revenus annuels récurrents en seulement 8 mois.
Au moment de l’annonce l’an dernier, Meta évoquait l’intégration des agents Manus dans ses produits grand public et professionnels, y compris dans l’assistant Meta AI.
Meta est tombé sur un os : le gouvernement chinois vient de rejeter le projet d’acquisition de Manus, un agent d’IA conçu par une des startups IA chinoises les plus en vue du moment, The Butterfly Effect. L’opération à 2 milliards de dollars, annoncée en décembre dernier, a immédiatement suscité des inquiétudes aussi bien du côté de Washington que de Pékin.
Créée par des fondateurs chinois puis relocalisée à Singapour dans l’espoir d’échapper aux fourches caudines de Pékin, The Butterfly Effect n’a pas pu esquiver une enquête du ministère chinois du Commerce. À l’époque, les autorités expliquaient que les investissements à l’étranger, les transferts de technologies et les fusions-acquisitions à l’international doivent se conformer aux lois du pays.
La Commission nationale du développement et de la réforme a finalement pris la décision d’interdire les investissements étrangers dans Manus, et demandé aux deux parties de retirer l’opération d’acquisition. Comme CNBC le rappelle, les États-Unis interdisent aussi aux investisseurs américains de financer directement des entreprises IA chinoises.
Il y a aussi la question du point de chute du fondateur et directeur général, Xiao Hong, qui devait occuper un poste de vice président au siège de Meta, en Californie. La Chine fait pression sur les fondateurs d’entreprises IA pour qu’ils restent au pays. En résumé, toute l’opération semble bien mal partie. Meta n’a pas voulu commenter le dernier (et ultime ?) rebondissement de cette saga.
Manus développe des agents IA capables de prendre en charge des missions complexes de manière autonome à la manière d’OpenClaw. La startup avait fait sensation en mars dernier, en marchant dans les pas d’un autre local de l’étape, DeepSeek. Manus avait annoncé dépasser les 100 millions de dollars de revenus annuels récurrents en seulement 8 mois.
Au moment de l’annonce l’an dernier, Meta évoquait l’intégration des agents Manus dans ses produits grand public et professionnels, y compris dans l’assistant Meta AI.
Arrêtez nous si vous avez déjà lu ça aujourd’hui : une nouvelle fuite de données a touché une administration publique. Il s’agit cette fois de l’ANFR (Agence nationale des fréquences), et plus spécifiquement le téléservice Radiomaritime. Ce service public, qui se destine évidemment aux usagers de la mer (plaisanciers et professionnels), gère les démarches administratives liées aux équipements radio à bord.
Le service informatique de l’ANFR a découvert le 13 avril un dysfonctionnement dans la gestion de ce service. Des « accès non autorisés » aux données des comptes utilisateurs ont été repérés entre les 4 et 10 avril, rapporte un email d’alerte consulté par Next. Les données d’environ 330 000 usagers ont pu être extraites. Des informations en vente sur internet, comme l’a signalé l’ANSSI.
Le site web du téléservice Radiomaritime. Capture d’écran.
Les noms, prénoms, adresses postales, numéros de téléphone, adresses courriel, date de naissance de ces usagers circulent actuellement. En revanche, aucune donnée relative aux licences ni aux pièces jointes n’a été divulguée, assure l’ANFR. Comme la réglementation l’exige, l’agence a notifié la CNIL et déposé une plainte auprès du procureur de la République.
Sur le plan technique, l’agence a suspendu l’accès au téléservice et travaille à « l’identification précise des comptes affectés et des modalités de l’attaque ». Des margoulins pourraient se servir de ces données pour des tentatives d’escroqueries « dont la crédibilité serait renforcée par les données individuelles collectées ». Le portail Radiomaritime est actuellement fermé pour une opération de maintenance. Il s’agit d’installer des correctifs de sécurité qui seront « opérationnels dès la réouverture du service ».
Les personnes concernées doivent donc redoubler de vigilance dans les emails, messages ou appels téléphoniques ces prochaines semaines qui les inciteraient à communiquer d’autres informations confidentielles en retour. L’ANFR rappelle qu’elle ne demande jamais de communiquer par courriel ou téléphone des infos comme un RIB ou des identifiants de services en ligne hors périmètre, comme ceux d’une banque. De même, les identifiants du téléservice Radiomaritime ne sont jamais exigés par ces biais. Enfin, les emails de l’ANFR doivent être envoyés depuis une adresse @anfr.fr.
En cas de doute sur l’authenticité d’un message provenant de l’ANFR, il est toujours possible de contacter l’agence via cette page de son site web.
Arrêtez nous si vous avez déjà lu ça aujourd’hui : une nouvelle fuite de données a touché une administration publique. Il s’agit cette fois de l’ANFR (Agence nationale des fréquences), et plus spécifiquement le téléservice Radiomaritime. Ce service public, qui se destine évidemment aux usagers de la mer (plaisanciers et professionnels), gère les démarches administratives liées aux équipements radio à bord.
Le service informatique de l’ANFR a découvert le 13 avril un dysfonctionnement dans la gestion de ce service. Des « accès non autorisés » aux données des comptes utilisateurs ont été repérés entre les 4 et 10 avril, rapporte un email d’alerte consulté par Next. Les données d’environ 330 000 usagers ont pu être extraites. Des informations en vente sur internet, comme l’a signalé l’ANSSI.
Le site web du téléservice Radiomaritime. Capture d’écran.
Les noms, prénoms, adresses postales, numéros de téléphone, adresses courriel, date de naissance de ces usagers circulent actuellement. En revanche, aucune donnée relative aux licences ni aux pièces jointes n’a été divulguée, assure l’ANFR. Comme la réglementation l’exige, l’agence a notifié la CNIL et déposé une plainte auprès du procureur de la République.
Sur le plan technique, l’agence a suspendu l’accès au téléservice et travaille à « l’identification précise des comptes affectés et des modalités de l’attaque ». Des margoulins pourraient se servir de ces données pour des tentatives d’escroqueries « dont la crédibilité serait renforcée par les données individuelles collectées ». Le portail Radiomaritime est actuellement fermé pour une opération de maintenance. Il s’agit d’installer des correctifs de sécurité qui seront « opérationnels dès la réouverture du service ».
Les personnes concernées doivent donc redoubler de vigilance dans les emails, messages ou appels téléphoniques ces prochaines semaines qui les inciteraient à communiquer d’autres informations confidentielles en retour. L’ANFR rappelle qu’elle ne demande jamais de communiquer par courriel ou téléphone des infos comme un RIB ou des identifiants de services en ligne hors périmètre, comme ceux d’une banque. De même, les identifiants du téléservice Radiomaritime ne sont jamais exigés par ces biais. Enfin, les emails de l’ANFR doivent être envoyés depuis une adresse @anfr.fr.
En cas de doute sur l’authenticité d’un message provenant de l’ANFR, il est toujours possible de contacter l’agence via cette page de son site web.
Le coup de mou qui a affecté Claude Code ces dernières semaines n’était pas une vue de l’esprit. Anthropic a constaté l’existence de problèmes, et les a corrigés.
Claude Code a connu des soucis de fonctionnement entre la fin du mois de mars et mi-avril. Des utilisateurs se sont plaints d’une dégradation du service. Suite à des témoignages, Anthropic a mené l’enquête, et a déterminé trois problèmes qui ont été résolus le 20 avril avec la version v2.1.116.
Claude Code en baisse de régime
Dans son post-mortem, l’entreprise assure ne pas « dégrader intentionnellement » ses modèles et confirme que Claude Agent SDK et Claude Cowork sont également touchés, mais pas l’API ni la couche d’inférence.
Le premier souci remonte au 4 mars, un mois après le lancement d’Opus 4.6 : le niveau de raisonnement par défaut est passé de « high » – la valeur lors de son lancement début février – à « medium » pour « accélérer » les réponses, suite à des retours d’utilisateurs.
Avant ce changement, le modèle prenait plus de temps pour réfléchir et consommait aussi plus de tokens. Mais, en retour, il générait des réponses plus solides. Le hic, c’est que dans certains cas, la latence apparaissait très longue, donnant l’impression que l’interface était figée, que les réponses arrivaient tardivement (et pour cause), et que la consommation de tokens explosait.
Image : Anthropic
La modification d’Anthropic avec le niveau de raisonnement « medium » a bien eu l’effet escompté : moins de tokens consommés, plus de rapidité et de stabilité… mais des réponses moins recherchées. Face aux retours négatifs, Anthropic a fait machine arrière le 7 avril en basculant les modèles sur « high effort » et Opus 4.7 sur « xhigh effort », un nouveau palier mis en place pour le nouveau modèle.
Deuxième problème, qui est cette fois un bug : le 26 mars, l’entreprise active la mise en cache des requêtes (prompt caching), et après une période d’inactivité dépassant l’heure, supprime une partie de l’historique. L’idée était de réduire le nombre de tokens envoyés, d’accélérer la reprise d’une session et au bout du compte de diminuer les coûts.
Image : Anthropic
L’implémentation a cependant débouché sur la suppression de chaque nouveau message après le seuil d’inactivité, au lieu de supprimer l’ancien raisonnement une seule fois. Claude Code ne conservait donc qu’un fragment très récent de contexte. Côté utilisateur, les conséquences ne se faisaient pas attendre : oubli du contexte fâcheux, répétitions, choix d’outils incohérents… Le modèle agissait, mais sans se souvenir pourquoi !
Autre écueil : en supprimant ainsi le contexte à chaque prompt, les requêtes ne retrouvent plus les données et doivent être recalculées entièrement, comme si le système repartait de zéro à chaque fois. Résultat : davantage de tokens consommés et l’impression que les quotas fondent comme neige au soleil. Le diagnostic a été difficile à établir, il a fallu plus d’une semaine pour le débusquer ; il a finalement été corrigé le 10 avril. Pour l’anecdote, Opus 4.7 a détecté le bug suite à son analyse, alors qu’Opus 4.6 n’a rien trouvé.
Enfin, le passage à Opus 4.7 avait tendance à produire des réponses longues et donc à engloutir les tokens. Anthropic a limité les réponses à 100 mots maximum et restreint les échanges entre appels d’outils à 25 mots. Mais en réduisant le verbiage, Claude Code a aussi réduit sa capacité à penser en profondeur. Introduite le 16 avril, la consigne a été retirée quatre jours plus tard.
Pour éviter que de tels problèmes se reproduisent, Anthropic s’engage à utiliser plus régulièrement la version publique de Claude Code, et moins des versions de test. Des analyses détaillées seront produites pour comprendre l’impact des changements, des outils pour réaliser des audits et suivre les modifications ont été développés, et des tests seront effectués pour chaque modification du système de prompts. Et histoire de se faire pardonner, les quotas d’usage ont été réinitialisés pour tous les abonnés.
L’entreprise a également créé un compte X dédié @ClaudeDevs « afin de pouvoir expliquer en détail nos décisions produit et leurs justifications. Nous partagerons également ces informations dans des fils de discussion GitHub ». Enfin, dans le billet du 23 avril, Anthropic annonce avoir « réinitialisé les limites d’utilisation pour tous les abonnés ».
Le coup de mou qui a affecté Claude Code ces dernières semaines n’était pas une vue de l’esprit. Anthropic a constaté l’existence de problèmes, et les a corrigés.
Claude Code a connu des soucis de fonctionnement entre la fin du mois de mars et mi-avril. Des utilisateurs se sont plaints d’une dégradation du service. Suite à des témoignages, Anthropic a mené l’enquête, et a déterminé trois problèmes qui ont été résolus le 20 avril avec la version v2.1.116.
Claude Code en baisse de régime
Dans son post-mortem, l’entreprise assure ne pas « dégrader intentionnellement » ses modèles et confirme que Claude Agent SDK et Claude Cowork sont également touchés, mais pas l’API ni la couche d’inférence.
Le premier souci remonte au 4 mars, un mois après le lancement d’Opus 4.6 : le niveau de raisonnement par défaut est passé de « high » – la valeur lors de son lancement début février – à « medium » pour « accélérer » les réponses, suite à des retours d’utilisateurs.
Avant ce changement, le modèle prenait plus de temps pour réfléchir et consommait aussi plus de tokens. Mais, en retour, il générait des réponses plus solides. Le hic, c’est que dans certains cas, la latence apparaissait très longue, donnant l’impression que l’interface était figée, que les réponses arrivaient tardivement (et pour cause), et que la consommation de tokens explosait.
Image : Anthropic
La modification d’Anthropic avec le niveau de raisonnement « medium » a bien eu l’effet escompté : moins de tokens consommés, plus de rapidité et de stabilité… mais des réponses moins recherchées. Face aux retours négatifs, Anthropic a fait machine arrière le 7 avril en basculant les modèles sur « high effort » et Opus 4.7 sur « xhigh effort », un nouveau palier mis en place pour le nouveau modèle.
Deuxième problème, qui est cette fois un bug : le 26 mars, l’entreprise active la mise en cache des requêtes (prompt caching), et après une période d’inactivité dépassant l’heure, supprime une partie de l’historique. L’idée était de réduire le nombre de tokens envoyés, d’accélérer la reprise d’une session et au bout du compte de diminuer les coûts.
Image : Anthropic
L’implémentation a cependant débouché sur la suppression de chaque nouveau message après le seuil d’inactivité, au lieu de supprimer l’ancien raisonnement une seule fois. Claude Code ne conservait donc qu’un fragment très récent de contexte. Côté utilisateur, les conséquences ne se faisaient pas attendre : oubli du contexte fâcheux, répétitions, choix d’outils incohérents… Le modèle agissait, mais sans se souvenir pourquoi !
Autre écueil : en supprimant ainsi le contexte à chaque prompt, les requêtes ne retrouvent plus les données et doivent être recalculées entièrement, comme si le système repartait de zéro à chaque fois. Résultat : davantage de tokens consommés et l’impression que les quotas fondent comme neige au soleil. Le diagnostic a été difficile à établir, il a fallu plus d’une semaine pour le débusquer ; il a finalement été corrigé le 10 avril. Pour l’anecdote, Opus 4.7 a détecté le bug suite à son analyse, alors qu’Opus 4.6 n’a rien trouvé.
Enfin, le passage à Opus 4.7 avait tendance à produire des réponses longues et donc à engloutir les tokens. Anthropic a limité les réponses à 100 mots maximum et restreint les échanges entre appels d’outils à 25 mots. Mais en réduisant le verbiage, Claude Code a aussi réduit sa capacité à penser en profondeur. Introduite le 16 avril, la consigne a été retirée quatre jours plus tard.
Pour éviter que de tels problèmes se reproduisent, Anthropic s’engage à utiliser plus régulièrement la version publique de Claude Code, et moins des versions de test. Des analyses détaillées seront produites pour comprendre l’impact des changements, des outils pour réaliser des audits et suivre les modifications ont été développés, et des tests seront effectués pour chaque modification du système de prompts. Et histoire de se faire pardonner, les quotas d’usage ont été réinitialisés pour tous les abonnés.
L’entreprise a également créé un compte X dédié @ClaudeDevs « afin de pouvoir expliquer en détail nos décisions produit et leurs justifications. Nous partagerons également ces informations dans des fils de discussion GitHub ». Enfin, dans le billet du 23 avril, Anthropic annonce avoir « réinitialisé les limites d’utilisation pour tous les abonnés ».
Le Canadien Cohere acquiert l’Allemand Aleph Alpha afin de construire une alternative IA aux géants américains et chinois. Un dossier surveillé de près par Ottawa et Berlin.
Cohere, fondée en 2019 à Toronto par d’anciens chercheurs de Google, développe de grands modèles de langage pour les entreprises, et les déploie dans les infrastructures de ses clients. Aleph Alpha, créée la même année à Heidelberg (Bade-Wurtemberg), exerce une activité similaire. Les deux entreprises ont décidé d’« unir leurs forces » dans un deal qui valorise Cohere à hauteur de 20 milliards de dollars.
Cette alliance transatlantique « combine la capacité d’IA à l’échelle mondiale de Cohere avec l’excellence en recherche et les solides relations institutionnelles d’Aleph Alpha », se réjouit le groupe canadien. L’accord donne naissance à « un champion mondial de l’IA soutenu par les écosystèmes canadien et allemand ».
« Grâce à l’alliance entre Cohere et Aleph Alpha, nous faisons progresser une IA sécurisée et souveraine aux côtés de partenaires de confiance », explique Evan Solomon, ministre de l’IA du gouvernement fédéral canadien. « Nous devons bâtir des champions mondiaux qui rivalisent sur la scène internationale», enchérit Aidan Gomez, le patron de Cohere, « et la façon d’y arriver est par des partenariats ».
« La stratégie de Cohere est de concevoir l’IA la plus sécurisée et la plus efficace pour les gouvernements qui protègent leur souveraineté », ajoute le dirigeant. Aussi bien l’Allemagne que le Canada — avec qui les relations avec les États-Unis sont devenues houleuses — cherchent des solutions alternatives aux technologies états-uniennes et chinoises. « Nos pays doivent se rapprocher, collaborer et établir des interdépendances afin de renforcer notre résilience », précise Aidan Gomez.
Durant le dernier forum économique de Davos, le Premier ministre canadien Mark Carney avait plaidé pour un rapprochement entre puissances intermédiaires, pour exister face aux grandes puissances qui imposent leurs lois face au droit international. « Nous voulons nous assurer que les gouvernements et les entreprises disposent d’une alternative entre les hyperscalers et les puissances dominantes », affirme Evan Solomon.
Même discours côté allemand. Ce rapprochement a « une forte valeur géostratégique et économique », déclare le ministère allemand du Numérique. Les systèmes d’IA utilisés par les autorités du pays resteront développés et exploités sous contrôle national. Cette problématique parcourt l’ensemble des pays de l’Union européenne qui, à l’instar du Canada, subissent les injonctions (et parfois les humiliations) de la Maison Blanche.
Le Canadien Cohere acquiert l’Allemand Aleph Alpha afin de construire une alternative IA aux géants américains et chinois. Un dossier surveillé de près par Ottawa et Berlin.
Cohere, fondée en 2019 à Toronto par d’anciens chercheurs de Google, développe de grands modèles de langage pour les entreprises, et les déploie dans les infrastructures de ses clients. Aleph Alpha, créée la même année à Heidelberg (Bade-Wurtemberg), exerce une activité similaire. Les deux entreprises ont décidé d’« unir leurs forces » dans un deal qui valorise Cohere à hauteur de 20 milliards de dollars.
Cette alliance transatlantique « combine la capacité d’IA à l’échelle mondiale de Cohere avec l’excellence en recherche et les solides relations institutionnelles d’Aleph Alpha », se réjouit le groupe canadien. L’accord donne naissance à « un champion mondial de l’IA soutenu par les écosystèmes canadien et allemand ».
« Grâce à l’alliance entre Cohere et Aleph Alpha, nous faisons progresser une IA sécurisée et souveraine aux côtés de partenaires de confiance », explique Evan Solomon, ministre de l’IA du gouvernement fédéral canadien. « Nous devons bâtir des champions mondiaux qui rivalisent sur la scène internationale», enchérit Aidan Gomez, le patron de Cohere, « et la façon d’y arriver est par des partenariats ».
« La stratégie de Cohere est de concevoir l’IA la plus sécurisée et la plus efficace pour les gouvernements qui protègent leur souveraineté », ajoute le dirigeant. Aussi bien l’Allemagne que le Canada — avec qui les relations avec les États-Unis sont devenues houleuses — cherchent des solutions alternatives aux technologies états-uniennes et chinoises. « Nos pays doivent se rapprocher, collaborer et établir des interdépendances afin de renforcer notre résilience », précise Aidan Gomez.
Durant le dernier forum économique de Davos, le Premier ministre canadien Mark Carney avait plaidé pour un rapprochement entre puissances intermédiaires, pour exister face aux grandes puissances qui imposent leurs lois face au droit international. « Nous voulons nous assurer que les gouvernements et les entreprises disposent d’une alternative entre les hyperscalers et les puissances dominantes », affirme Evan Solomon.
Même discours côté allemand. Ce rapprochement a « une forte valeur géostratégique et économique », déclare le ministère allemand du Numérique. Les systèmes d’IA utilisés par les autorités du pays resteront développés et exploités sous contrôle national. Cette problématique parcourt l’ensemble des pays de l’Union européenne qui, à l’instar du Canada, subissent les injonctions (et parfois les humiliations) de la Maison Blanche.