Vue lecture

☕️ La Chine bloque l’acquisition de Manus par Meta



Meta est tombé sur un os : le gouvernement chinois vient de rejeter le projet d’acquisition de Manus, un agent d’IA conçu par une des startups IA chinoises les plus en vue du moment, The Butterfly Effect. L’opération à 2 milliards de dollars, annoncée en décembre dernier, a immédiatement suscité des inquiétudes aussi bien du côté de Washington que de Pékin.

Créée par des fondateurs chinois puis relocalisée à Singapour dans l’espoir d’échapper aux fourches caudines de Pékin, The Butterfly Effect n’a pas pu esquiver une enquête du ministère chinois du Commerce. À l’époque, les autorités expliquaient que les investissements à l’étranger, les transferts de technologies et les fusions-acquisitions à l’international doivent se conformer aux lois du pays.

La Commission nationale du développement et de la réforme a finalement pris la décision d’interdire les investissements étrangers dans Manus, et demandé aux deux parties de retirer l’opération d’acquisition. Comme CNBC le rappelle, les États-Unis interdisent aussi aux investisseurs américains de financer directement des entreprises IA chinoises. 

Il y a aussi la question du point de chute du fondateur et directeur général, Xiao Hong, qui devait occuper un poste de vice président au siège de Meta, en Californie. La Chine fait pression sur les fondateurs d’entreprises IA pour qu’ils restent au pays. En résumé, toute l’opération semble bien mal partie. Meta n’a pas voulu commenter le dernier (et ultime ?) rebondissement de cette saga.

Manus développe des agents IA capables de prendre en charge des missions complexes de manière autonome à la manière d’OpenClaw. La startup avait fait sensation en mars dernier, en marchant dans les pas d’un autre local de l’étape, DeepSeek. Manus avait annoncé dépasser les 100 millions de dollars de revenus annuels récurrents en seulement 8 mois.

Au moment de l’annonce l’an dernier, Meta évoquait l’intégration des agents Manus dans ses produits grand public et professionnels, y compris dans l’assistant Meta AI.

  •  

☕️ La Chine bloque l’acquisition de Manus par Meta



Meta est tombé sur un os : le gouvernement chinois vient de rejeter le projet d’acquisition de Manus, un agent d’IA conçu par une des startups IA chinoises les plus en vue du moment, The Butterfly Effect. L’opération à 2 milliards de dollars, annoncée en décembre dernier, a immédiatement suscité des inquiétudes aussi bien du côté de Washington que de Pékin.

Créée par des fondateurs chinois puis relocalisée à Singapour dans l’espoir d’échapper aux fourches caudines de Pékin, The Butterfly Effect n’a pas pu esquiver une enquête du ministère chinois du Commerce. À l’époque, les autorités expliquaient que les investissements à l’étranger, les transferts de technologies et les fusions-acquisitions à l’international doivent se conformer aux lois du pays.

La Commission nationale du développement et de la réforme a finalement pris la décision d’interdire les investissements étrangers dans Manus, et demandé aux deux parties de retirer l’opération d’acquisition. Comme CNBC le rappelle, les États-Unis interdisent aussi aux investisseurs américains de financer directement des entreprises IA chinoises. 

Il y a aussi la question du point de chute du fondateur et directeur général, Xiao Hong, qui devait occuper un poste de vice président au siège de Meta, en Californie. La Chine fait pression sur les fondateurs d’entreprises IA pour qu’ils restent au pays. En résumé, toute l’opération semble bien mal partie. Meta n’a pas voulu commenter le dernier (et ultime ?) rebondissement de cette saga.

Manus développe des agents IA capables de prendre en charge des missions complexes de manière autonome à la manière d’OpenClaw. La startup avait fait sensation en mars dernier, en marchant dans les pas d’un autre local de l’étape, DeepSeek. Manus avait annoncé dépasser les 100 millions de dollars de revenus annuels récurrents en seulement 8 mois.

Au moment de l’annonce l’an dernier, Meta évoquait l’intégration des agents Manus dans ses produits grand public et professionnels, y compris dans l’assistant Meta AI.

  •  

☕️ Une fuite de données à l’ANFR touche 330 000 usagers du téléservice Radiomaritime



Arrêtez nous si vous avez déjà lu ça aujourd’hui : une nouvelle fuite de données a touché une administration publique. Il s’agit cette fois de l’ANFR (Agence nationale des fréquences), et plus spécifiquement le téléservice Radiomaritime. Ce service public, qui se destine évidemment aux usagers de la mer (plaisanciers et professionnels), gère les démarches administratives liées aux équipements radio à bord.

Le service informatique de l’ANFR a découvert le 13 avril un dysfonctionnement dans la gestion de ce service. Des « accès non autorisés » aux données des comptes utilisateurs ont été repérés entre les 4 et 10 avril, rapporte un email d’alerte consulté par Next. Les données d’environ 330 000 usagers ont pu être extraites. Des informations en vente sur internet, comme l’a signalé l’ANSSI.

Le site web du téléservice Radiomaritime. Capture d’écran.

Les noms, prénoms, adresses postales, numéros de téléphone, adresses courriel, date de naissance de ces usagers circulent actuellement. En revanche, aucune donnée relative aux licences ni aux pièces jointes n’a été divulguée, assure l’ANFR. Comme la réglementation l’exige, l’agence a notifié la CNIL et déposé une plainte auprès du procureur de la République.

Sur le plan technique, l’agence a suspendu l’accès au téléservice et travaille à « l’identification précise des comptes affectés et des modalités de l’attaque ». Des margoulins pourraient se servir de ces données pour des tentatives d’escroqueries « dont la crédibilité serait renforcée par les données individuelles collectées ». Le portail Radiomaritime est actuellement fermé pour une opération de maintenance. Il s’agit d’installer des correctifs de sécurité qui seront « opérationnels dès la réouverture du service ».

Les personnes concernées doivent donc redoubler de vigilance dans les emails, messages ou appels téléphoniques ces prochaines semaines qui les inciteraient à communiquer d’autres informations confidentielles en retour. L’ANFR rappelle qu’elle ne demande jamais de communiquer par courriel ou téléphone des infos comme un RIB ou des identifiants de services en ligne hors périmètre, comme ceux d’une banque. De même, les identifiants du téléservice Radiomaritime ne sont jamais exigés par ces biais. Enfin, les emails de l’ANFR doivent être envoyés depuis une adresse @anfr.fr.

En cas de doute sur l’authenticité d’un message provenant de l’ANFR, il est toujours possible de contacter l’agence via cette page de son site web.

  •  

☕️ Une fuite de données à l’ANFR touche 330 000 usagers du téléservice Radiomaritime



Arrêtez nous si vous avez déjà lu ça aujourd’hui : une nouvelle fuite de données a touché une administration publique. Il s’agit cette fois de l’ANFR (Agence nationale des fréquences), et plus spécifiquement le téléservice Radiomaritime. Ce service public, qui se destine évidemment aux usagers de la mer (plaisanciers et professionnels), gère les démarches administratives liées aux équipements radio à bord.

Le service informatique de l’ANFR a découvert le 13 avril un dysfonctionnement dans la gestion de ce service. Des « accès non autorisés » aux données des comptes utilisateurs ont été repérés entre les 4 et 10 avril, rapporte un email d’alerte consulté par Next. Les données d’environ 330 000 usagers ont pu être extraites. Des informations en vente sur internet, comme l’a signalé l’ANSSI.

Le site web du téléservice Radiomaritime. Capture d’écran.

Les noms, prénoms, adresses postales, numéros de téléphone, adresses courriel, date de naissance de ces usagers circulent actuellement. En revanche, aucune donnée relative aux licences ni aux pièces jointes n’a été divulguée, assure l’ANFR. Comme la réglementation l’exige, l’agence a notifié la CNIL et déposé une plainte auprès du procureur de la République.

Sur le plan technique, l’agence a suspendu l’accès au téléservice et travaille à « l’identification précise des comptes affectés et des modalités de l’attaque ». Des margoulins pourraient se servir de ces données pour des tentatives d’escroqueries « dont la crédibilité serait renforcée par les données individuelles collectées ». Le portail Radiomaritime est actuellement fermé pour une opération de maintenance. Il s’agit d’installer des correctifs de sécurité qui seront « opérationnels dès la réouverture du service ».

Les personnes concernées doivent donc redoubler de vigilance dans les emails, messages ou appels téléphoniques ces prochaines semaines qui les inciteraient à communiquer d’autres informations confidentielles en retour. L’ANFR rappelle qu’elle ne demande jamais de communiquer par courriel ou téléphone des infos comme un RIB ou des identifiants de services en ligne hors périmètre, comme ceux d’une banque. De même, les identifiants du téléservice Radiomaritime ne sont jamais exigés par ces biais. Enfin, les emails de l’ANFR doivent être envoyés depuis une adresse @anfr.fr.

En cas de doute sur l’authenticité d’un message provenant de l’ANFR, il est toujours possible de contacter l’agence via cette page de son site web.

  •  

Claude Code réfléchissait trop, puis plus assez : Anthropic corrige le coup de mou

Réflexion profon… 😴
Claude Code réfléchissait trop, puis plus assez : Anthropic corrige le coup de mou

Le coup de mou qui a affecté Claude Code ces dernières semaines n’était pas une vue de l’esprit. Anthropic a constaté l’existence de problèmes, et les a corrigés.

Claude Code a connu des soucis de fonctionnement entre la fin du mois de mars et mi-avril. Des utilisateurs se sont plaints d’une dégradation du service. Suite à des témoignages, Anthropic a mené l’enquête, et a déterminé trois problèmes qui ont été résolus le 20 avril avec la version v2.1.116.

Claude Code en baisse de régime

Dans son post-mortem, l’entreprise assure ne pas « dégrader intentionnellement » ses modèles et confirme que Claude Agent SDK et Claude Cowork sont également touchés, mais pas l’API ni la couche d’inférence.

Le premier souci remonte au 4 mars, un mois après le lancement d’Opus 4.6 : le niveau de raisonnement par défaut est passé de « high » – la valeur lors de son lancement début février – à « medium » pour « accélérer » les réponses, suite à des retours d’utilisateurs.

Avant ce changement, le modèle prenait plus de temps pour réfléchir et consommait aussi plus de tokens. Mais, en retour, il générait des réponses plus solides. Le hic, c’est que dans certains cas, la latence apparaissait très longue, donnant l’impression que l’interface était figée, que les réponses arrivaient tardivement (et pour cause), et que la consommation de tokens explosait.

Image : Anthropic

La modification d’Anthropic avec le niveau de raisonnement « medium » a bien eu l’effet escompté : moins de tokens consommés, plus de rapidité et de stabilité… mais des réponses moins recherchées. Face aux retours négatifs, Anthropic a fait machine arrière le 7 avril en basculant les modèles sur « high effort » et Opus 4.7 sur « xhigh effort », un nouveau palier mis en place pour le nouveau modèle.

Deuxième problème, qui est cette fois un bug : le 26 mars, l’entreprise active la mise en cache des requêtes (prompt caching), et après une période d’inactivité dépassant l’heure, supprime une partie de l’historique. L’idée était de réduire le nombre de tokens envoyés, d’accélérer la reprise d’une session et au bout du compte de diminuer les coûts.

Image : Anthropic

L’implémentation a cependant débouché sur la suppression de chaque nouveau message après le seuil d’inactivité, au lieu de supprimer l’ancien raisonnement une seule fois. Claude Code ne conservait donc qu’un fragment très récent de contexte. Côté utilisateur, les conséquences ne se faisaient pas attendre : oubli du contexte fâcheux, répétitions, choix d’outils incohérents… Le modèle agissait, mais sans se souvenir pourquoi !

Autre écueil : en supprimant ainsi le contexte à chaque prompt, les requêtes ne retrouvent plus les données et doivent être recalculées entièrement, comme si le système repartait de zéro à chaque fois. Résultat : davantage de tokens consommés et l’impression que les quotas fondent comme neige au soleil. Le diagnostic a été difficile à établir, il a fallu plus d’une semaine pour le débusquer ; il a finalement été corrigé le 10 avril. Pour l’anecdote, Opus 4.7 a détecté le bug suite à son analyse, alors qu’Opus 4.6 n’a rien trouvé.

Enfin, le passage à Opus 4.7 avait tendance à produire des réponses longues et donc à engloutir les tokens. Anthropic a limité les réponses à 100 mots maximum et restreint les échanges entre appels d’outils à 25 mots. Mais en réduisant le verbiage, Claude Code a aussi réduit sa capacité à penser en profondeur. Introduite le 16 avril, la consigne a été retirée quatre jours plus tard.

Pour éviter que de tels problèmes se reproduisent, Anthropic s’engage à utiliser plus régulièrement la version publique de Claude Code, et moins des versions de test. Des analyses détaillées seront produites pour comprendre l’impact des changements, des outils pour réaliser des audits et suivre les modifications ont été développés, et des tests seront effectués pour chaque modification du système de prompts. Et histoire de se faire pardonner, les quotas d’usage ont été réinitialisés pour tous les abonnés.

L’entreprise a également créé un compte X dédié @ClaudeDevs « afin de pouvoir expliquer en détail nos décisions produit et leurs justifications. Nous partagerons également ces informations dans des fils de discussion GitHub ». Enfin, dans le billet du 23 avril, Anthropic annonce avoir « réinitialisé les limites d’utilisation pour tous les abonnés ».

  •  

Claude Code réfléchissait trop, puis plus assez : Anthropic corrige le coup de mou

Réflexion profon… 😴
Claude Code réfléchissait trop, puis plus assez : Anthropic corrige le coup de mou

Le coup de mou qui a affecté Claude Code ces dernières semaines n’était pas une vue de l’esprit. Anthropic a constaté l’existence de problèmes, et les a corrigés.

Claude Code a connu des soucis de fonctionnement entre la fin du mois de mars et mi-avril. Des utilisateurs se sont plaints d’une dégradation du service. Suite à des témoignages, Anthropic a mené l’enquête, et a déterminé trois problèmes qui ont été résolus le 20 avril avec la version v2.1.116.

Claude Code en baisse de régime

Dans son post-mortem, l’entreprise assure ne pas « dégrader intentionnellement » ses modèles et confirme que Claude Agent SDK et Claude Cowork sont également touchés, mais pas l’API ni la couche d’inférence.

Le premier souci remonte au 4 mars, un mois après le lancement d’Opus 4.6 : le niveau de raisonnement par défaut est passé de « high » – la valeur lors de son lancement début février – à « medium » pour « accélérer » les réponses, suite à des retours d’utilisateurs.

Avant ce changement, le modèle prenait plus de temps pour réfléchir et consommait aussi plus de tokens. Mais, en retour, il générait des réponses plus solides. Le hic, c’est que dans certains cas, la latence apparaissait très longue, donnant l’impression que l’interface était figée, que les réponses arrivaient tardivement (et pour cause), et que la consommation de tokens explosait.

Image : Anthropic

La modification d’Anthropic avec le niveau de raisonnement « medium » a bien eu l’effet escompté : moins de tokens consommés, plus de rapidité et de stabilité… mais des réponses moins recherchées. Face aux retours négatifs, Anthropic a fait machine arrière le 7 avril en basculant les modèles sur « high effort » et Opus 4.7 sur « xhigh effort », un nouveau palier mis en place pour le nouveau modèle.

Deuxième problème, qui est cette fois un bug : le 26 mars, l’entreprise active la mise en cache des requêtes (prompt caching), et après une période d’inactivité dépassant l’heure, supprime une partie de l’historique. L’idée était de réduire le nombre de tokens envoyés, d’accélérer la reprise d’une session et au bout du compte de diminuer les coûts.

Image : Anthropic

L’implémentation a cependant débouché sur la suppression de chaque nouveau message après le seuil d’inactivité, au lieu de supprimer l’ancien raisonnement une seule fois. Claude Code ne conservait donc qu’un fragment très récent de contexte. Côté utilisateur, les conséquences ne se faisaient pas attendre : oubli du contexte fâcheux, répétitions, choix d’outils incohérents… Le modèle agissait, mais sans se souvenir pourquoi !

Autre écueil : en supprimant ainsi le contexte à chaque prompt, les requêtes ne retrouvent plus les données et doivent être recalculées entièrement, comme si le système repartait de zéro à chaque fois. Résultat : davantage de tokens consommés et l’impression que les quotas fondent comme neige au soleil. Le diagnostic a été difficile à établir, il a fallu plus d’une semaine pour le débusquer ; il a finalement été corrigé le 10 avril. Pour l’anecdote, Opus 4.7 a détecté le bug suite à son analyse, alors qu’Opus 4.6 n’a rien trouvé.

Enfin, le passage à Opus 4.7 avait tendance à produire des réponses longues et donc à engloutir les tokens. Anthropic a limité les réponses à 100 mots maximum et restreint les échanges entre appels d’outils à 25 mots. Mais en réduisant le verbiage, Claude Code a aussi réduit sa capacité à penser en profondeur. Introduite le 16 avril, la consigne a été retirée quatre jours plus tard.

Pour éviter que de tels problèmes se reproduisent, Anthropic s’engage à utiliser plus régulièrement la version publique de Claude Code, et moins des versions de test. Des analyses détaillées seront produites pour comprendre l’impact des changements, des outils pour réaliser des audits et suivre les modifications ont été développés, et des tests seront effectués pour chaque modification du système de prompts. Et histoire de se faire pardonner, les quotas d’usage ont été réinitialisés pour tous les abonnés.

L’entreprise a également créé un compte X dédié @ClaudeDevs « afin de pouvoir expliquer en détail nos décisions produit et leurs justifications. Nous partagerons également ces informations dans des fils de discussion GitHub ». Enfin, dans le billet du 23 avril, Anthropic annonce avoir « réinitialisé les limites d’utilisation pour tous les abonnés ».

  •  

☕️ Le canadien Cohere et l’allemand Aleph Alpha forment une alternative IA aux États-Unis



Le Canadien Cohere acquiert l’Allemand Aleph Alpha afin de construire une alternative IA aux géants américains et chinois. Un dossier surveillé de près par Ottawa et Berlin.

Cohere, fondée en 2019 à Toronto par d’anciens chercheurs de Google, développe de grands modèles de langage pour les entreprises, et les déploie dans les infrastructures de ses clients. Aleph Alpha, créée la même année à Heidelberg (Bade-Wurtemberg), exerce une activité similaire. Les deux entreprises ont décidé d’« unir leurs forces » dans un deal qui valorise Cohere à hauteur de 20 milliards de dollars.

Cette alliance transatlantique « combine la capacité d’IA à l’échelle mondiale de Cohere avec l’excellence en recherche et les solides relations institutionnelles d’Aleph Alpha », se réjouit le groupe canadien. L’accord donne naissance à « un champion mondial de l’IA soutenu par les écosystèmes canadien et allemand ».

« Grâce à l’alliance entre Cohere et Aleph Alpha, nous faisons progresser une IA sécurisée et souveraine aux côtés de partenaires de confiance », explique Evan Solomon, ministre de l’IA du gouvernement fédéral canadien. « Nous devons bâtir des champions mondiaux qui rivalisent sur la scène internationale», enchérit Aidan Gomez, le patron de Cohere, « et la façon d’y arriver est par des partenariats ».

« La stratégie de Cohere est de concevoir l’IA la plus sécurisée et la plus efficace pour les gouvernements qui protègent leur souveraineté », ajoute le dirigeant. Aussi bien l’Allemagne que le Canada — avec qui les relations avec les États-Unis sont devenues houleuses — cherchent des solutions alternatives aux technologies états-uniennes et chinoises. « Nos pays doivent se rapprocher, collaborer et établir des interdépendances afin de renforcer notre résilience », précise Aidan Gomez.

Durant le dernier forum économique de Davos, le Premier ministre canadien Mark Carney avait plaidé pour un rapprochement entre puissances intermédiaires, pour exister face aux grandes puissances qui imposent leurs lois face au droit international. « Nous voulons nous assurer que les gouvernements et les entreprises disposent d’une alternative entre les hyperscalers et les puissances dominantes », affirme Evan Solomon.

Même discours côté allemand. Ce rapprochement a « une forte valeur géostratégique et économique », déclare le ministère allemand du Numérique. Les systèmes d’IA utilisés par les autorités du pays resteront développés et exploités sous contrôle national. Cette problématique parcourt l’ensemble des pays de l’Union européenne qui, à l’instar du Canada, subissent les injonctions (et parfois les humiliations) de la Maison Blanche.

  •  

☕️ Le canadien Cohere et l’allemand Aleph Alpha forment une alternative IA aux États-Unis



Le Canadien Cohere acquiert l’Allemand Aleph Alpha afin de construire une alternative IA aux géants américains et chinois. Un dossier surveillé de près par Ottawa et Berlin.

Cohere, fondée en 2019 à Toronto par d’anciens chercheurs de Google, développe de grands modèles de langage pour les entreprises, et les déploie dans les infrastructures de ses clients. Aleph Alpha, créée la même année à Heidelberg (Bade-Wurtemberg), exerce une activité similaire. Les deux entreprises ont décidé d’« unir leurs forces » dans un deal qui valorise Cohere à hauteur de 20 milliards de dollars.

Cette alliance transatlantique « combine la capacité d’IA à l’échelle mondiale de Cohere avec l’excellence en recherche et les solides relations institutionnelles d’Aleph Alpha », se réjouit le groupe canadien. L’accord donne naissance à « un champion mondial de l’IA soutenu par les écosystèmes canadien et allemand ».

« Grâce à l’alliance entre Cohere et Aleph Alpha, nous faisons progresser une IA sécurisée et souveraine aux côtés de partenaires de confiance », explique Evan Solomon, ministre de l’IA du gouvernement fédéral canadien. « Nous devons bâtir des champions mondiaux qui rivalisent sur la scène internationale», enchérit Aidan Gomez, le patron de Cohere, « et la façon d’y arriver est par des partenariats ».

« La stratégie de Cohere est de concevoir l’IA la plus sécurisée et la plus efficace pour les gouvernements qui protègent leur souveraineté », ajoute le dirigeant. Aussi bien l’Allemagne que le Canada — avec qui les relations avec les États-Unis sont devenues houleuses — cherchent des solutions alternatives aux technologies états-uniennes et chinoises. « Nos pays doivent se rapprocher, collaborer et établir des interdépendances afin de renforcer notre résilience », précise Aidan Gomez.

Durant le dernier forum économique de Davos, le Premier ministre canadien Mark Carney avait plaidé pour un rapprochement entre puissances intermédiaires, pour exister face aux grandes puissances qui imposent leurs lois face au droit international. « Nous voulons nous assurer que les gouvernements et les entreprises disposent d’une alternative entre les hyperscalers et les puissances dominantes », affirme Evan Solomon.

Même discours côté allemand. Ce rapprochement a « une forte valeur géostratégique et économique », déclare le ministère allemand du Numérique. Les systèmes d’IA utilisés par les autorités du pays resteront développés et exploités sous contrôle national. Cette problématique parcourt l’ensemble des pays de l’Union européenne qui, à l’instar du Canada, subissent les injonctions (et parfois les humiliations) de la Maison Blanche.

  •  

En faisant condamner Spliiit, la LFP a-t-elle marqué contre son camp ?

La notion de foyer hors jeu
En faisant condamner Spliiit, la LFP a-t-elle marqué contre son camp ?

C’est une première : Spliiit, le service de partage d’abonnements, a été condamné en référé par le tribunal judiciaire de Paris saisi par la Ligue de football professionnel (LFP). En cause : le partage de comptes pour Ligue 1 +, la plateforme de streaming de la LFP. 

La décision du tribunal judiciaire de Paris du 17 avril contre Spliiit a fait du bruit et pour cause : c’est la première fois que l’entreprise spécialisée dans le partage de comptes est condamnée. Par conséquent, elle a cessé de proposer le partage de Ligue 1 +, et supprimé toute référence au service de streaming de la LFP sur son site web, en vertu de la décision de justice. « Je suis tombé de ma chaise quand j’ai appris ça », déclare Jonathan Lalinec, le directeur général de Spliiit, à Next.

La question centrale autour de laquelle gravite toute cette histoire, c’est la notion de foyer. La formule principale de Ligue 1 +à 14,99 euros par mois (avec engagement 12 mois) autorise en effet la lecture sur 2 écrans en simultané. La communication du service de streaming a été pour le moins floue sur le sujet : au lancement de la nouvelle offre l’été dernier, le compte X (anciennement Twitter) de Ligue 1 + annonçait sans ambiguïté qu’il n’y avait pas de notion de foyer pour la gestion des 2 écrans.

Sur le compte Twitter de Ligue 1 +, en août 2025. Capture d’écran

Les conditions générales d’abonnement, mises à jour le 23 septembre, disent pourtant autre chose : la filiale LFP 2 qui opère Ligue 1 + se réserve en effet le droit de désactiver un compte abonné « en cas de partage de compte ayant pour effet de faire bénéficier à un tiers en dehors du foyer ». Ils indiquent par ailleurs que la notion de foyer « exclut totalement tout type de partage de compte via un site internet dédié, une application, un réseau social, une plateforme dédiée en tout ou partie à ce type de pratiques, etc. »

Dans l’ordonnance de référé que Next s’est procuré, le tribunal explique que le service proposé par Spliiit « aux abonnés du service Ligue 1 + est clairement interdit par les stipulations des conditions générales d’utilisation de la plateforme applicables à compter du 23 septembre 2025 ». L’entreprise est « mal fondée à invoquer, aux fins de démontrer l’existence de stipulations ambigües nécessitant leur interprétation », les extraits de Twitter (dont ce tweet remontant au 7 août) et les réactions d’internautes, « antérieurs à la nouvelle rédaction des CGU ». Elle ne peut pas davantage « invoquer la nécessité d’interpréter ces stipulations de manières favorables aux consommateurs en vertu de l’article L.211 - 1 du code de la consommation ».

Le tribunal a donc nettement penché pour les arguments de la LFP. Spliiit avait pourtant bon espoir de faire entendre les siens. « Si on accepte de retirer Ligue 1 +, c’est la porte ouverte pour d’autres services qui pourraient se dire « on vous supprime » », explique Jonathan Lalinec. Le dirigeant s’était demandé s’il fallait aller devant le tribunal : « autant je suis prêt à me battre contre Netflix, Disney, Apple, mais si on est attaqué par un petit service comme ça, ça ne vaut pas le coup. »

Ligue 1 + n’était en effet qu’une goutte d’eau pour Spliiit : « ça représente 0,1% de nos abonnés », soit « un chiffre d’affaires de 3 000 euros » durant les sept mois où le service a été proposé en partage de comptes. Ces chiffres, transmis à la LFP, ont étonné la Ligue : « ils s’attendaient sans doute à ce qu’on ait des milliers d’abonnés Ligue 1 +, ce qui n’était absolument pas le cas ».

À la réception de la première mise en demeure, le directeur général n’était pas certain de vouloir se défendre face à la LFP, « je ne vous cache pas que des honoraires d’avocats ça coûte beaucoup plus cher ! » Mais finalement, Spliiit a voulu rester droit dans ses bottes : « on assume totalement ce qu’on fait ». Ça n’a pas fonctionné, et le référé est tombé. Une ordonnance qui ne fait pas une jurisprudence, « c’est une mesure provisoire qui est sur 180 jours donc pendant 180 jours on doit le retirer », précise Jonathan Lalinec. La LFP peut aller au fond, mais « on n’a pas eu d’informations là-dessus ».

La LFP n’a pas répondu aux sollicitations de Next pour le moment.

Carton rouge pour le partage de comptes

Ligue 1 + ne devrait de toute manière pas revenir de si tôt sur Spliiit. Dans son communiqué, la LFP ne parle pas explicitement de streaming ou d’IPTV illicites pour qualifier l’activité de l’entreprise. En revanche, l’organisateur du championnat de foot « réaffirme sa détermination à lutter contre toutes les formes d’exploitation non autorisée de ses services ». 

Illustration : Flock

Jonathan Lalinec regrette d’ailleurs la publication du communiqué : « On leur a dit [à la LFP] : « écoutez, ne communiquez pas forcément » », des discussions entre avocats ont eu lieu, « et le vendredi matin à 9 h, on a vu que le communiqué est parti, donc on s’est dit c’est qu’ils voulaient vraiment le faire savoir. Je pense qu’ils sont assez fiers de leur coup, mais c’est contre-productif pour eux ».

Car Spliiit se présente justement comme une solution contre le piratage. « Nos clients nous le disent eux-mêmes : sans ces services [de partage de comptes], j’aurais tendance à revenir sur de l’IPTV ou des plateformes de streaming [illégales] ». « On aurait pu travailler ensemble », déplore le dirigeant, « on aurait pu aider Ligue 1 +à recruter de nouveaux abonnés : quand vous partagez un abonnement, vous souscrivez directement à l’éditeur, donc vous ne consommez pas de l’IPTV ou du streaming illégal. »

Le service ne propose de ne partager que des comptes comprenant des options multi-utilisateur. « On n’a jamais eu BeinSport, parce que BeinSport n’a jamais eu d’offre multi-utilisateur », illustre le directeur, « donc de toute façon, si vous n’avez pas d’offre multi-utilisateur, vous ne serez jamais référencés […] tant qu’il n’y a pas d’abonnement partageable, on ne se permettra pas de le référencer ».

Disney, Netflix, Apple : toujours le flou

Sur un autre front, Spliiit est toujours en attente d’une décision de justice concernant le dossier qui l’oppose à Netflix, Disney et Apple regroupés au sein de l’ACE (Alliance for Creativity and Entertainment). Une plainte qui a fait l’objet d’une ordonnance de référé du tribunal judiciaire de Paris, en 2022.

Les différentes offres Spliiit.

Les trois plateformes états-uniennes reprochaient une atteinte à leurs marques, une incitation à enfreindre les conditions d’utilisation (partage hors foyer), des actes de concurrence déloyale et du parasitisme. Pour Spliiit, il n’existait ni contrefaçon évidente, ni trouble manifeste. Le tribunal a reconnu que les plaignantes avaient bien qualité à agir, mais que leurs règles de partage étaient (à l’époque) ambigües et incohérentes. Les services pouvaient aussi interpréter leurs propres règles.

Pas de condamnation de Spliiit donc, et renvoi à un procès au fond. Et depuis ? « La justice prend du temps, et entre 2021 et 2026, il s’est passé beaucoup de choses du point de vue des éditeurs », explique Jonathan Lalinec, « ils ont changé leurs offres, ils ont rajouté des offres payantes, l’offre extra abonné, l’offre abonné supplémentaire ». La notion de foyer a donc volé en éclat, contre monnaie sonnante et trébuchante. « C’est un procès qui est sans objet », affirme-t-il, « il a été repoussé, il aurait dû avoir lieu en 2023, repoussé en 2024, repoussé en 2025… »

L’an dernier, une médiation a été demandée par la justice « à la dernière minute », mais les parties ne sont pas parvenues à se mettre d’accord. Une plaidoirie a finalement eu lieu le 5 octobre, avec une décision programmée en décembre… et sans cesse reportée depuis : « je crois qu’on est au 14e report, donc voilà, je ne peux pas vous donner de date exacte ». Le jugement est attendu : « c’est vraiment la décision au fond de cette affaire qui permettra de trancher si l’abonnement, finalement, peut être partagé et sous quelles conditions. »

Spliiit est aujourd’hui un service qui se porte bien, avec 600 services référencés pour la presse, la musique et la SVOD, en France et en Europe et un chiffre d’affaires de 4 millions d’euros.

Mise à jour 29/04 — Ajout d’un paragraphe reprenant l’ordonnance de référé.

  •  

En faisant condamner Spliiit, la LFP a-t-elle marqué contre son camp ?

La notion de foyer hors jeu
En faisant condamner Spliiit, la LFP a-t-elle marqué contre son camp ?

C’est une première : Spliiit, le service de partage d’abonnements, a été condamné en référé par le tribunal judiciaire de Paris saisi par la Ligue de football professionnel (LFP). En cause : le partage de comptes pour Ligue 1 +, la plateforme de streaming de la LFP. 

La décision du tribunal judiciaire de Paris du 17 avril contre Spliiit a fait du bruit et pour cause : c’est la première fois que l’entreprise spécialisée dans le partage de comptes est condamnée. Par conséquent, elle a cessé de proposer le partage de Ligue 1 +, et supprimé toute référence au service de streaming de la LFP sur son site web, en vertu de la décision de justice. « Je suis tombé de ma chaise quand j’ai appris ça », déclare Jonathan Lalinec, le directeur général de Spliiit, à Next.

La question centrale autour de laquelle gravite toute cette histoire, c’est la notion de foyer. La formule principale de Ligue 1 +à 14,99 euros par mois (avec engagement 12 mois) autorise en effet la lecture sur 2 écrans en simultané. La communication du service de streaming a été pour le moins floue sur le sujet : au lancement de la nouvelle offre l’été dernier, le compte X (anciennement Twitter) de Ligue 1 + annonçait sans ambiguïté qu’il n’y avait pas de notion de foyer pour la gestion des 2 écrans.

Sur le compte Twitter de Ligue 1 +, en août 2025. Capture d’écran

Les conditions générales d’abonnement, mises à jour le 23 septembre, disent pourtant autre chose : la filiale LFP 2 qui opère Ligue 1 + se réserve en effet le droit de désactiver un compte abonné « en cas de partage de compte ayant pour effet de faire bénéficier à un tiers en dehors du foyer ». Ils indiquent par ailleurs que la notion de foyer « exclut totalement tout type de partage de compte via un site internet dédié, une application, un réseau social, une plateforme dédiée en tout ou partie à ce type de pratiques, etc. »

Dans l’ordonnance de référé que Next s’est procuré, le tribunal explique que le service proposé par Spliiit « aux abonnés du service Ligue 1 + est clairement interdit par les stipulations des conditions générales d’utilisation de la plateforme applicables à compter du 23 septembre 2025 ». L’entreprise est « mal fondée à invoquer, aux fins de démontrer l’existence de stipulations ambigües nécessitant leur interprétation », les extraits de Twitter (dont ce tweet remontant au 7 août) et les réactions d’internautes, « antérieurs à la nouvelle rédaction des CGU ». Elle ne peut pas davantage « invoquer la nécessité d’interpréter ces stipulations de manières favorables aux consommateurs en vertu de l’article L.211 - 1 du code de la consommation ».

Le tribunal a donc nettement penché pour les arguments de la LFP. Spliiit avait pourtant bon espoir de faire entendre les siens. « Si on accepte de retirer Ligue 1 +, c’est la porte ouverte pour d’autres services qui pourraient se dire « on vous supprime » », explique Jonathan Lalinec. Le dirigeant s’était demandé s’il fallait aller devant le tribunal : « autant je suis prêt à me battre contre Netflix, Disney, Apple, mais si on est attaqué par un petit service comme ça, ça ne vaut pas le coup. »

Ligue 1 + n’était en effet qu’une goutte d’eau pour Spliiit : « ça représente 0,1% de nos abonnés », soit « un chiffre d’affaires de 3 000 euros » durant les sept mois où le service a été proposé en partage de comptes. Ces chiffres, transmis à la LFP, ont étonné la Ligue : « ils s’attendaient sans doute à ce qu’on ait des milliers d’abonnés Ligue 1 +, ce qui n’était absolument pas le cas ».

À la réception de la première mise en demeure, le directeur général n’était pas certain de vouloir se défendre face à la LFP, « je ne vous cache pas que des honoraires d’avocats ça coûte beaucoup plus cher ! » Mais finalement, Spliiit a voulu rester droit dans ses bottes : « on assume totalement ce qu’on fait ». Ça n’a pas fonctionné, et le référé est tombé. Une ordonnance qui ne fait pas une jurisprudence, « c’est une mesure provisoire qui est sur 180 jours donc pendant 180 jours on doit le retirer », précise Jonathan Lalinec. La LFP peut aller au fond, mais « on n’a pas eu d’informations là-dessus ».

La LFP n’a pas répondu aux sollicitations de Next pour le moment.

Carton rouge pour le partage de comptes

Ligue 1 + ne devrait de toute manière pas revenir de si tôt sur Spliiit. Dans son communiqué, la LFP ne parle pas explicitement de streaming ou d’IPTV illicites pour qualifier l’activité de l’entreprise. En revanche, l’organisateur du championnat de foot « réaffirme sa détermination à lutter contre toutes les formes d’exploitation non autorisée de ses services ». 

Illustration : Flock

Jonathan Lalinec regrette d’ailleurs la publication du communiqué : « On leur a dit [à la LFP] : « écoutez, ne communiquez pas forcément » », des discussions entre avocats ont eu lieu, « et le vendredi matin à 9 h, on a vu que le communiqué est parti, donc on s’est dit c’est qu’ils voulaient vraiment le faire savoir. Je pense qu’ils sont assez fiers de leur coup, mais c’est contre-productif pour eux ».

Car Spliiit se présente justement comme une solution contre le piratage. « Nos clients nous le disent eux-mêmes : sans ces services [de partage de comptes], j’aurais tendance à revenir sur de l’IPTV ou des plateformes de streaming [illégales] ». « On aurait pu travailler ensemble », déplore le dirigeant, « on aurait pu aider Ligue 1 +à recruter de nouveaux abonnés : quand vous partagez un abonnement, vous souscrivez directement à l’éditeur, donc vous ne consommez pas de l’IPTV ou du streaming illégal. »

Le service ne propose de ne partager que des comptes comprenant des options multi-utilisateur. « On n’a jamais eu BeinSport, parce que BeinSport n’a jamais eu d’offre multi-utilisateur », illustre le directeur, « donc de toute façon, si vous n’avez pas d’offre multi-utilisateur, vous ne serez jamais référencés […] tant qu’il n’y a pas d’abonnement partageable, on ne se permettra pas de le référencer ».

Disney, Netflix, Apple : toujours le flou

Sur un autre front, Spliiit est toujours en attente d’une décision de justice concernant le dossier qui l’oppose à Netflix, Disney et Apple regroupés au sein de l’ACE (Alliance for Creativity and Entertainment). Une plainte qui a fait l’objet d’une ordonnance de référé du tribunal judiciaire de Paris, en 2022.

Les différentes offres Spliiit.

Les trois plateformes états-uniennes reprochaient une atteinte à leurs marques, une incitation à enfreindre les conditions d’utilisation (partage hors foyer), des actes de concurrence déloyale et du parasitisme. Pour Spliiit, il n’existait ni contrefaçon évidente, ni trouble manifeste. Le tribunal a reconnu que les plaignantes avaient bien qualité à agir, mais que leurs règles de partage étaient (à l’époque) ambigües et incohérentes. Les services pouvaient aussi interpréter leurs propres règles.

Pas de condamnation de Spliiit donc, et renvoi à un procès au fond. Et depuis ? « La justice prend du temps, et entre 2021 et 2026, il s’est passé beaucoup de choses du point de vue des éditeurs », explique Jonathan Lalinec, « ils ont changé leurs offres, ils ont rajouté des offres payantes, l’offre extra abonné, l’offre abonné supplémentaire ». La notion de foyer a donc volé en éclat, contre monnaie sonnante et trébuchante. « C’est un procès qui est sans objet », affirme-t-il, « il a été repoussé, il aurait dû avoir lieu en 2023, repoussé en 2024, repoussé en 2025… »

L’an dernier, une médiation a été demandée par la justice « à la dernière minute », mais les parties ne sont pas parvenues à se mettre d’accord. Une plaidoirie a finalement eu lieu le 5 octobre, avec une décision programmée en décembre… et sans cesse reportée depuis : « je crois qu’on est au 14e report, donc voilà, je ne peux pas vous donner de date exacte ». Le jugement est attendu : « c’est vraiment la décision au fond de cette affaire qui permettra de trancher si l’abonnement, finalement, peut être partagé et sous quelles conditions. »

Spliiit est aujourd’hui un service qui se porte bien, avec 600 services référencés pour la presse, la musique et la SVOD, en France et en Europe et un chiffre d’affaires de 4 millions d’euros.

Mise à jour 29/04 — Ajout d’un paragraphe reprenant l’ordonnance de référé.

  •  

☕️ Erreur 521 en série : des dizaines de sites pirates hors ligne



Plusieurs sites de contenus piratés très populaires affichent désormais une erreur 521 de Cloudflare. Impossible d’y accéder, et le plus intéressant c’est qu’ils sont tous tombés en même temps : le serveur d’origine refuse la connexion ou ne répond plus.

Myflixerz, Sflix, Watchseries, HDtoday et d’autres encore sont aux abonnés absents. Ces sites distribuent des contenus piratés à grands flots, attirant des millions de visiteurs chaque mois… qui se cassent désormais le nez en tentant d’y accéder. Les noms de domaine existent toujours, Cloudflare est bien en place, mais l’erreur 521 indique que l’infrastructure qui héberge ces sites est hors ligne ou inaccessible.

Capture d’écran du site Myflyxerz

Cloudflare n’est donc pas responsable de ce mystérieux serrage de kiki. Comme le rapporte TorrentFreak, il est probable que ces dizaines de sites web ne soient pas indépendants : ils s’appuient sur un modèle « Piracy-as-a-Service » (PaaS) dans lequel le contenu est hébergé par des services communs comme MegaCloud ou VidCloud qui servent de colonne vertébrale technique.

Logiquement, si cette infrastructure centrale tombe, tous les sites qui s’y adossent également. Personne n’ayant revendiqué quoi que ce soit pour le moment, difficile de pointer du doigt le responsable. Néanmoins, plusieurs hypothèses sont sur la table. La première est probablement la moins probable, il s’agirait d’une coupure technique, une simple panne côté backend. L’ampleur de l’événement est tel que ce scénario semble peu crédible.

Autre hypothèse : une action concertée d’ayants droit. La Motion Picture Association (MPA) surveille activement ces réseaux. Le rapport de l’organisation, remis au représentant américain au commerce l’automne dernier (PDF), affirmait ainsi que les réseaux Myflixerz et Sflix avaient généré 622 millions de visites rien qu’au mois d’août 2025. Autant de manque à gagner…

Il existe un précédent. En 2023, l’Alliance for Creativity and Entertainment (ACE) mettait le grappin sur 2Embed, une infrastructure PaaS hébergeant de nombreux contenus distribués par une myriade de portails de streaming illicite. L’opération, menée au Vietnam, avait provoqué un effet domino sur de nombreux sites (dont la plupart se sont remis depuis).

Enfin, il peut s’agir tout simplement d’une coupure de l’accès par les services backend, qui peuvent l’avoir fait de leur plein gré ou sous la contrainte d’un hébergeur ou d’un fournisseur réseau. Dans tous les cas, les sites en question ne sont pas à court de ressources : ils finiront par réapparaitre un jour ou l’autre. Cela n’en reste pas moins un coup dur, car construire une nouvelle infrastructure PaaS demande du temps.

  •  

☕️ Erreur 521 en série : des dizaines de sites pirates hors ligne



Plusieurs sites de contenus piratés très populaires affichent désormais une erreur 521 de Cloudflare. Impossible d’y accéder, et le plus intéressant c’est qu’ils sont tous tombés en même temps : le serveur d’origine refuse la connexion ou ne répond plus.

Myflixerz, Sflix, Watchseries, HDtoday et d’autres encore sont aux abonnés absents. Ces sites distribuent des contenus piratés à grands flots, attirant des millions de visiteurs chaque mois… qui se cassent désormais le nez en tentant d’y accéder. Les noms de domaine existent toujours, Cloudflare est bien en place, mais l’erreur 521 indique que l’infrastructure qui héberge ces sites est hors ligne ou inaccessible.

Capture d’écran du site Myflyxerz

Cloudflare n’est donc pas responsable de ce mystérieux serrage de kiki. Comme le rapporte TorrentFreak, il est probable que ces dizaines de sites web ne soient pas indépendants : ils s’appuient sur un modèle « Piracy-as-a-Service » (PaaS) dans lequel le contenu est hébergé par des services communs comme MegaCloud ou VidCloud qui servent de colonne vertébrale technique.

Logiquement, si cette infrastructure centrale tombe, tous les sites qui s’y adossent également. Personne n’ayant revendiqué quoi que ce soit pour le moment, difficile de pointer du doigt le responsable. Néanmoins, plusieurs hypothèses sont sur la table. La première est probablement la moins probable, il s’agirait d’une coupure technique, une simple panne côté backend. L’ampleur de l’événement est tel que ce scénario semble peu crédible.

Autre hypothèse : une action concertée d’ayants droit. La Motion Picture Association (MPA) surveille activement ces réseaux. Le rapport de l’organisation, remis au représentant américain au commerce l’automne dernier (PDF), affirmait ainsi que les réseaux Myflixerz et Sflix avaient généré 622 millions de visites rien qu’au mois d’août 2025. Autant de manque à gagner…

Il existe un précédent. En 2023, l’Alliance for Creativity and Entertainment (ACE) mettait le grappin sur 2Embed, une infrastructure PaaS hébergeant de nombreux contenus distribués par une myriade de portails de streaming illicite. L’opération, menée au Vietnam, avait provoqué un effet domino sur de nombreux sites (dont la plupart se sont remis depuis).

Enfin, il peut s’agir tout simplement d’une coupure de l’accès par les services backend, qui peuvent l’avoir fait de leur plein gré ou sous la contrainte d’un hébergeur ou d’un fournisseur réseau. Dans tous les cas, les sites en question ne sont pas à court de ressources : ils finiront par réapparaitre un jour ou l’autre. Cela n’en reste pas moins un coup dur, car construire une nouvelle infrastructure PaaS demande du temps.

  •  

Vers la fin du « 100 % renouvelable » ? La réforme du Scope 2 fait grincer des dents

Le courant ne passe pas
Vers la fin du « 100 % renouvelable » ? La réforme du Scope 2 fait grincer des dents

Une partie de l’industrie s’est levée comme un seul homme pour s’opposer à une réforme des règles de calcul des émissions indirectes de CO₂. Porté par le Greenhouse Gas Protocol, ce projet a pour objectif d’améliorer la fiabilité des données et leur utilité pour les politiques climatiques. Au vu de l’environnement politique aux États-Unis et des contraintes économiques, ces changements sont explosifs.

De grands groupes états-uniens (Apple, Amazon, FedEx, Akamai, GM, eBay…) mais aussi internationaux (BYD, Luxshare, Hon Hai…) ont signé une déclaration publique pour s’opposer à la réforme portée par le Greenhouse Gas Protocol qui veut donner davantage de transparence dans le calcul des émissions indirectes de gaz à effet de serre. C’est ce qu’on appelle le Scope 2, qui concerne les émissions liées à l’énergie (électricité, chaleur…) achetée et consommée par une entreprise.

Le Scope 1 correspond aux émissions directes, le Scope 3 mesure quant à lui toutes les autres émissions (indirectes), des fournisseurs au transport de marchandises, en passant par le déplacement des employés…

Du renouvelable en différé

Si ces émissions sont indirectes, c’est parce qu’elles sont attribuées à l’entreprise qui consomme une énergie produite ailleurs. Les émissions produites par une centrale électrique pour le compte d’une autre entreprise sont comptabilisées en Scope 2. La communication de ces émissions indirectes peut être obligatoire en fonction des régions.

Dans l’Union européenne, la directive relative à la publication d’informations en matière de durabilité (CSRD), en cours d’application à l’échelle du continent, doit présenter les émissions Scope 1 et Scope 2, ainsi que Scope 3 si l’information est pertinente en regard de l’activité de l’entreprise.

Le Greenhouse Gas Protocol (GHGP) est utilisé partout dans le monde, en Europe comme en Asie et aux États-Unis, c’est un référentiel qui, depuis 2015, sert de base à de nombreux cadres réglementaires. Les règles plus strictes de la réforme en cours ont été imaginées pour limiter les risques de greenwashing : le texte propose un alignement horaire entre la production et la consommation.

Les entreprises « compensent » leur consommation d’énergie fossile en achetant des certificats d’électricité renouvelable sur une base annuelle sans nécessairement refléter leur consommation réelle heure par heure. 


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois

Y en a un peu plus, je vous le mets quand même ?
GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois

On n’en est pas à un nouveau LLM par jour, mais pas loin ! OpenAI a dévoilé GPT-5.5, alors que son prédécesseur GPT-5.4 remonte à début mars. Cette nouvelle version s’ajoute au lancement de ChatGPT Images 2.0 il y a quelques jours, et à celui de Privacy Filter qui masque les données personnelles dans du texte.

Il se passe toujours quelque chose chez OpenAI. Tenez, la startup a lancé cette nuit GPT-5.5, nouvelle version du grand modèle de langage qui propulse, entre autres, ChatGPT. Comme GPT-5.4 lancé le 5 mars, cette mouture est censée accélérer les tâches de productivité. Y compris quand la requête n’est pas tout à fait claire : « Vous pouvez confier à GPT-5.5 une tâche complexe et mal structurée, composée de plusieurs volets, et lui faire confiance pour planifier, utiliser des outils, vérifier son travail, composer avec l’incertitude et poursuivre le travail jusqu’au bout ».

OpenAI promet une amélioration sensible dans les capacités de raisonnement dans un contexte donné : en code agentique, en utilisation de l’ordinateur, dans le travail intellectuel et les premières étapes de la recherche scientifique. La société assure en outre que GPT-5.5 conserve la même latence par token que GPT-5.4, « tout en offrant un niveau d’intelligence supérieur ». 

Image : OpenAI

GPT-5.4 reste nettement moins cher à l’unité, avec un coût de 2,50 dollars en entrée et 15 dollars en sortie par million de tokens. GPT-5.5 double ces tarifs, mais le modèle compense par une plus grande efficacité, selon OpenAI : il utilise moins de tokens pour effectuer les mêmes tâches. Et ce serait aussi le cas dans Codex.

Les benchmarks publiés par OpenAI indiquent un bond réel dans les tâches agentiques : GPT-5.5 creuse nettement l’écart avec son prédécesseur direct et ses concurrents sur Terminal-Bench, qui mesure la capacité à utiliser un ordinateur, enchaîner des actions, planifier et corriger ses erreurs. Sur les tests de torture plus classiques, la progression du LLM est incrémentale avec des gains modérés sur GDPval (tâches professionnelles réelles) et OSWorld (usage d’un ordinateur).

Image : OpenAI

GPT-5.5 est en phase de déploiement pour les abonnés payants (Plus, Pro, Business, Enterprise) et dans Codex. GPT-5.5 Pro l’est également pour les utilisateurs Pro, Business et Enterprise. L’API y aura droit très bientôt. ChatGPT intègre la déclinaison Thinking de GPT-5.5 dans les formules Plus, Pro, Business et Enterprise.

Privacy Filter masque les informations privées

L’entreprise a également présenté un modèle tout à fait inédit, OpenAI Privacy Filter, dont la mission est de détecter et de supprimer des données personnelles (PII) dans du texte. Le modèle doit comprendre le contexte linguistique, identifier des informations personnelles (même implicites) et distinguer ce qui est public de ce qui relève de la vie privée.

Dit autrement, ce filtre de confidentialité ne se contente pas de repérer des informations basiques comme « @exemple.com » ou un numéro de téléphone. Il est en mesure de décider si cette information doit être masquée, en fonction de l’usage. Le modèle peut être exécuté en local : pas besoin d’envoyer le texte contenant des données sensibles sur un serveur, tout est fait par l’appareil. 

Par conséquent, il s’agit d’un modèle relativement petit (1,5 milliard de paramètres, dont 50 millions sont actifs) qui peut tout de même traiter des documents relativement longs, jusqu’à 128 000 tokens. Privacy Filter couvre huit catégories de données : personnes privées, adresses, emails, téléphones, URL, dates privées, numéros de compte et secrets (mots de passe, clés API, etc.). Attention cependant, ce n’est pas un outil d’anonymisation complet : il peut en effet se tromper et il nécessite absolument une validation humaine dans les cas sensibles.

Le modèle est publié en poids ouverts sous licence Apache 2.0, sur Hugging Face et GitHub. OpenAI le propose à des fins d’expérimentation, de personnalisation, mais aussi dans le cadre d’un déploiement commercial. Privacy Filter est conçu pour s’intégrer dans les bases de données indexées, les outils d’analyse ou de support client, les systèmes de logs ou dans les pipelines d’entraînement de modèles.

ChatGPT Images 2.0, toujours plus loin dans le faux

Si OpenAI a abandonné ses prétentions en matière de génération vidéo en fermant Sora sans cérémonie, la génération d’images, elle, est toujours aussi importante. L’entreprise a lancé le 21 avril ChatGPT Images 2.0, un peu plus d’un an après la première version. Le nouveau modèle est censé respecter scrupuleusement les instructions, qu’il s’agisse de placement et de relation entre les objets, ou de rendu de textes denses.

Image générée par ChatGPT Images 2.0.

Images 2.0 devrait donc se montrer plus doué pour générer des bandes dessinées en respectant le look des personnages d’une case à une autre, des pages de magazine avec une typographie correcte, mais aussi des interfaces d’applications et de jeux, des storyboards et des assets marketing.

Une des nouveautés intéressantes d’Images 2.0 : le mode « Thinking » du modèle peut effectuer des recherches en ligne pour obtenir des informations en temps réel, créer plusieurs images distinctes à partir d’une seule requête, et vérifier ses propres résultats. Les images générées, que l’on peut modifier et affiner, peuvent monter à une résolution 2K. OpenAI fait enfin une sacrée promesse, celle que les images générées par Images 2.0 fassent moins « générées par IA » — floutant un peu plus la frontière entre le vrai et le faux.

  •  

GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois

Y en a un peu plus, je vous le mets quand même ?
GPT-5.5, Privacy Filter, ChatGPT Images 2.0 : OpenAI fait feu de tout bois

On n’en est pas à un nouveau LLM par jour, mais pas loin ! OpenAI a dévoilé GPT-5.5, alors que son prédécesseur GPT-5.4 remonte à début mars. Cette nouvelle version s’ajoute au lancement de ChatGPT Images 2.0 il y a quelques jours, et à celui de Privacy Filter qui masque les données personnelles dans du texte.

Il se passe toujours quelque chose chez OpenAI. Tenez, la startup a lancé cette nuit GPT-5.5, nouvelle version du grand modèle de langage qui propulse, entre autres, ChatGPT. Comme GPT-5.4 lancé le 5 mars, cette mouture est censée accélérer les tâches de productivité. Y compris quand la requête n’est pas tout à fait claire : « Vous pouvez confier à GPT-5.5 une tâche complexe et mal structurée, composée de plusieurs volets, et lui faire confiance pour planifier, utiliser des outils, vérifier son travail, composer avec l’incertitude et poursuivre le travail jusqu’au bout ».

OpenAI promet une amélioration sensible dans les capacités de raisonnement dans un contexte donné : en code agentique, en utilisation de l’ordinateur, dans le travail intellectuel et les premières étapes de la recherche scientifique. La société assure en outre que GPT-5.5 conserve la même latence par token que GPT-5.4, « tout en offrant un niveau d’intelligence supérieur ». 

Image : OpenAI

GPT-5.4 reste nettement moins cher à l’unité, avec un coût de 2,50 dollars en entrée et 15 dollars en sortie par million de tokens. GPT-5.5 double ces tarifs, mais le modèle compense par une plus grande efficacité, selon OpenAI : il utilise moins de tokens pour effectuer les mêmes tâches. Et ce serait aussi le cas dans Codex.

Les benchmarks publiés par OpenAI indiquent un bond réel dans les tâches agentiques : GPT-5.5 creuse nettement l’écart avec son prédécesseur direct et ses concurrents sur Terminal-Bench, qui mesure la capacité à utiliser un ordinateur, enchaîner des actions, planifier et corriger ses erreurs. Sur les tests de torture plus classiques, la progression du LLM est incrémentale avec des gains modérés sur GDPval (tâches professionnelles réelles) et OSWorld (usage d’un ordinateur).

Image : OpenAI

GPT-5.5 est en phase de déploiement pour les abonnés payants (Plus, Pro, Business, Enterprise) et dans Codex. GPT-5.5 Pro l’est également pour les utilisateurs Pro, Business et Enterprise. L’API y aura droit très bientôt. ChatGPT intègre la déclinaison Thinking de GPT-5.5 dans les formules Plus, Pro, Business et Enterprise.

Privacy Filter masque les informations privées

L’entreprise a également présenté un modèle tout à fait inédit, OpenAI Privacy Filter, dont la mission est de détecter et de supprimer des données personnelles (PII) dans du texte. Le modèle doit comprendre le contexte linguistique, identifier des informations personnelles (même implicites) et distinguer ce qui est public de ce qui relève de la vie privée.

Dit autrement, ce filtre de confidentialité ne se contente pas de repérer des informations basiques comme « @exemple.com » ou un numéro de téléphone. Il est en mesure de décider si cette information doit être masquée, en fonction de l’usage. Le modèle peut être exécuté en local : pas besoin d’envoyer le texte contenant des données sensibles sur un serveur, tout est fait par l’appareil. 

Par conséquent, il s’agit d’un modèle relativement petit (1,5 milliard de paramètres, dont 50 millions sont actifs) qui peut tout de même traiter des documents relativement longs, jusqu’à 128 000 tokens. Privacy Filter couvre huit catégories de données : personnes privées, adresses, emails, téléphones, URL, dates privées, numéros de compte et secrets (mots de passe, clés API, etc.). Attention cependant, ce n’est pas un outil d’anonymisation complet : il peut en effet se tromper et il nécessite absolument une validation humaine dans les cas sensibles.

Le modèle est publié en poids ouverts sous licence Apache 2.0, sur Hugging Face et GitHub. OpenAI le propose à des fins d’expérimentation, de personnalisation, mais aussi dans le cadre d’un déploiement commercial. Privacy Filter est conçu pour s’intégrer dans les bases de données indexées, les outils d’analyse ou de support client, les systèmes de logs ou dans les pipelines d’entraînement de modèles.

ChatGPT Images 2.0, toujours plus loin dans le faux

Si OpenAI a abandonné ses prétentions en matière de génération vidéo en fermant Sora sans cérémonie, la génération d’images, elle, est toujours aussi importante. L’entreprise a lancé le 21 avril ChatGPT Images 2.0, un peu plus d’un an après la première version. Le nouveau modèle est censé respecter scrupuleusement les instructions, qu’il s’agisse de placement et de relation entre les objets, ou de rendu de textes denses.

Image générée par ChatGPT Images 2.0.

Images 2.0 devrait donc se montrer plus doué pour générer des bandes dessinées en respectant le look des personnages d’une case à une autre, des pages de magazine avec une typographie correcte, mais aussi des interfaces d’applications et de jeux, des storyboards et des assets marketing.

Une des nouveautés intéressantes d’Images 2.0 : le mode « Thinking » du modèle peut effectuer des recherches en ligne pour obtenir des informations en temps réel, créer plusieurs images distinctes à partir d’une seule requête, et vérifier ses propres résultats. Les images générées, que l’on peut modifier et affiner, peuvent monter à une résolution 2K. OpenAI fait enfin une sacrée promesse, celle que les images générées par Images 2.0 fassent moins « générées par IA » — floutant un peu plus la frontière entre le vrai et le faux.

  •  

☕️ Un robot de Sony bat des champions humains au ping-pong



Si les robots ne sont pas encore capables d’asservir l’humanité, ils peuvent déjà nous battre aux échecs ou au Go (Deep Blue et AlphaGo), au poker (Cepheus) et désormais… au ping-pong. Un robot mis au point par Sony AI a battu des athlètes humains.

Les frères Lebrun peuvent trembler. Le robot Ace a remporté trois matchs sur les cinq qui l’ont opposé à des champions de chair et de sang. Ce projet de recherche de Sony AI s’intéresse depuis un moment au tennis de table, une discipline dans laquelle la perception de l’environnement, les réflexes et la rapidité des réactions sont primordiaux.

Sony AI compte déjà à son actif GT Sophy, le pilote IA que les joueurs peuvent affronter dans la simulation de course Gran Turismo. Ace s’appuie sur des principes similaires, mais dans le monde réel avec suivi des effets et analyse des trajectoires complexes, le tout avec des temps de réponse d’une précision de l’ordre de la milliseconde.

« La vitesse en robotique, lorsqu’elle n’est pas prédéterminée, reste l’une des dernières frontières dans ce domaine », explique Michael Spranger, président de Sony AI. Les robots autonomes ont encore de la difficulté à « interagir avec leur environnement, et encore plus avec des humains, aux vitesses auxquelles nous sommes habitués ». Le projet a été conçu pour « franchir cette limite ».

Ace est monté sur un bras à huit articulations et une base mobile. Pas d’yeux pour le robot, mais neuf capteurs d’image (IMX273) et de mouvement (IMX636) répartis dans la pièce qui couvrent la table sous différents angles. Cet attirail lui permet de suivre la balle, aussi bien sa position que la rotation, avec une latence de perception de 10,2 millisecondes. Ça n’est pas anodin : une balle peut dépasser les 20 m/s, avec des effets de rotation de 160 révolutions par seconde, et plus.

Le système de caméras se concentre sur le logo présent sur la balle pour en estimer la rotation et l’axe, le tout en quelques millisecondes. L’agent du robot, son « cerveau », est entraîné avec des données synthétiques issues de parties jouées par des humains. Le système, qui ajuste ses mouvements 1 000 fois par seconde, peut ajuster la trajectoire de sa frappe en plein mouvement « pour tenir compte des dynamiques imprévisibles d’un échange en conditions réelles », explique le labo, comme une balle qui touche le filet, ce qui en modifie la trajectoire et l’angle. 

L’étude a été publiée dans Nature.

Pour chaque coup, le robot pioche dans une sélection de plusieurs gestes appris à l’avance (smash, coup lifté, etc.) qu’il transmet ensuite à son système moteur. 3 000 heures de jeu en simulation ont alimenté cette bibliothèque. Mais parfois, l’intelligence artificielle peut surprendre même les plus aguerris.

Pendant un match, Ace a ainsi intercepté la balle très tôt pour lui donner un effet coupé. Un geste que l’ancien pongiste olympique Kinjiro Nakamura pensait impossible : « Je ne l’avais même pas vu chez les meilleurs joueurs. Mais maintenant que j’ai vu le robot le faire à une distance aussi courte, cela signifie que les humains pourraient aussi y parvenir ».

  •  

☕️ Un robot de Sony bat des champions humains au ping-pong



Si les robots ne sont pas encore capables d’asservir l’humanité, ils peuvent déjà nous battre aux échecs ou au Go (Deep Blue et AlphaGo), au poker (Cepheus) et désormais… au ping-pong. Un robot mis au point par Sony AI a battu des athlètes humains.

Les frères Lebrun peuvent trembler. Le robot Ace a remporté trois matchs sur les cinq qui l’ont opposé à des champions de chair et de sang. Ce projet de recherche de Sony AI s’intéresse depuis un moment au tennis de table, une discipline dans laquelle la perception de l’environnement, les réflexes et la rapidité des réactions sont primordiaux.

Sony AI compte déjà à son actif GT Sophy, le pilote IA que les joueurs peuvent affronter dans la simulation de course Gran Turismo. Ace s’appuie sur des principes similaires, mais dans le monde réel avec suivi des effets et analyse des trajectoires complexes, le tout avec des temps de réponse d’une précision de l’ordre de la milliseconde.

« La vitesse en robotique, lorsqu’elle n’est pas prédéterminée, reste l’une des dernières frontières dans ce domaine », explique Michael Spranger, président de Sony AI. Les robots autonomes ont encore de la difficulté à « interagir avec leur environnement, et encore plus avec des humains, aux vitesses auxquelles nous sommes habitués ». Le projet a été conçu pour « franchir cette limite ».

Ace est monté sur un bras à huit articulations et une base mobile. Pas d’yeux pour le robot, mais neuf capteurs d’image (IMX273) et de mouvement (IMX636) répartis dans la pièce qui couvrent la table sous différents angles. Cet attirail lui permet de suivre la balle, aussi bien sa position que la rotation, avec une latence de perception de 10,2 millisecondes. Ça n’est pas anodin : une balle peut dépasser les 20 m/s, avec des effets de rotation de 160 révolutions par seconde, et plus.

Le système de caméras se concentre sur le logo présent sur la balle pour en estimer la rotation et l’axe, le tout en quelques millisecondes. L’agent du robot, son « cerveau », est entraîné avec des données synthétiques issues de parties jouées par des humains. Le système, qui ajuste ses mouvements 1 000 fois par seconde, peut ajuster la trajectoire de sa frappe en plein mouvement « pour tenir compte des dynamiques imprévisibles d’un échange en conditions réelles », explique le labo, comme une balle qui touche le filet, ce qui en modifie la trajectoire et l’angle. 

L’étude a été publiée dans Nature.

Pour chaque coup, le robot pioche dans une sélection de plusieurs gestes appris à l’avance (smash, coup lifté, etc.) qu’il transmet ensuite à son système moteur. 3 000 heures de jeu en simulation ont alimenté cette bibliothèque. Mais parfois, l’intelligence artificielle peut surprendre même les plus aguerris.

Pendant un match, Ace a ainsi intercepté la balle très tôt pour lui donner un effet coupé. Un geste que l’ancien pongiste olympique Kinjiro Nakamura pensait impossible : « Je ne l’avais même pas vu chez les meilleurs joueurs. Mais maintenant que j’ai vu le robot le faire à une distance aussi courte, cela signifie que les humains pourraient aussi y parvenir ».

  •  

☕️ SpaceX aurait courtisé Mistral avant son deal avec Cursor



Cursor pourrait tomber dans l’escarcelle de SpaceX, pour la modique somme de 60 milliards de dollars. Mais l’acteur majeur du spatial avait d’autres projets en tête pour rattraper son retard dans un secteur des outils de génération de code dominé par Claude Code, Codex et donc, Cursor. Ces dernières semaines, xAI (qui a fusionné avec SpaceX) aurait en effet planché sur un partenariat à trois, avec Cursor… et le groupe français Mistral.

Les discussions rapportées par Business Insider se seraient tenues au plus haut niveau de SpaceX. Elon Musk aurait en effet évoqué cette idée d’une collaboration resserrée avec les deux entreprises IA, dans l’idée de rivaliser avec Anthropic et OpenAI. Rappelons que si l’accord avec Cursor devait capoter, SpaceX s’est engagé à verser 10 milliards de dollars d’indemnités.

Michael Nicolls, le président de xAI et dirigeant de SpaceX, déplorait début avril dans un mémo que son entreprise était « clairement en retard » sur la concurrence. Et qu’il fallait accélérer pour se mettre au niveau, d’où la proposition à Cursor. Business Insider ne donne pas d’autres détails sur la nature de ce ménage à trois, mais le site rappelle que Devendra Chaplot, membre fondateur et cocréateur des premiers LLM de Mistral AI, a rejoint les rangs de xAI où il supervise l’entraînement des modèles de langage.

SpaceX n’était manifestement pas seul sur les rangs pour acquérir Cursor. Microsoft aurait également jeté un œil sur le dossier, selon des sources de CNBC. Le géant du logiciel a cependant décidé de ne pas faire de proposition. Microsoft part de moins loin que SpaceX/xAI dans le domaine des outils IA de codage, grâce à GitHub Copilot qui compte 4,7 millions d’utilisateurs payants, indiquait en début d’année Satya Nadella, le CEO du groupe. C’est 75 % de plus qu’il y a un an.

Codex vient de son côté d’atteindre les 4 millions d’utilisateurs actifs, soit 1 million de plus qu’il y a deux semaines. Codex pose les bases de la fameuse « superapp » d’OpenAI.

  •  

☕️ SpaceX aurait courtisé Mistral avant son deal avec Cursor



Cursor pourrait tomber dans l’escarcelle de SpaceX, pour la modique somme de 60 milliards de dollars. Mais l’acteur majeur du spatial avait d’autres projets en tête pour rattraper son retard dans un secteur des outils de génération de code dominé par Claude Code, Codex et donc, Cursor. Ces dernières semaines, xAI (qui a fusionné avec SpaceX) aurait en effet planché sur un partenariat à trois, avec Cursor… et le groupe français Mistral.

Les discussions rapportées par Business Insider se seraient tenues au plus haut niveau de SpaceX. Elon Musk aurait en effet évoqué cette idée d’une collaboration resserrée avec les deux entreprises IA, dans l’idée de rivaliser avec Anthropic et OpenAI. Rappelons que si l’accord avec Cursor devait capoter, SpaceX s’est engagé à verser 10 milliards de dollars d’indemnités.

Michael Nicolls, le président de xAI et dirigeant de SpaceX, déplorait début avril dans un mémo que son entreprise était « clairement en retard » sur la concurrence. Et qu’il fallait accélérer pour se mettre au niveau, d’où la proposition à Cursor. Business Insider ne donne pas d’autres détails sur la nature de ce ménage à trois, mais le site rappelle que Devendra Chaplot, membre fondateur et cocréateur des premiers LLM de Mistral AI, a rejoint les rangs de xAI où il supervise l’entraînement des modèles de langage.

SpaceX n’était manifestement pas seul sur les rangs pour acquérir Cursor. Microsoft aurait également jeté un œil sur le dossier, selon des sources de CNBC. Le géant du logiciel a cependant décidé de ne pas faire de proposition. Microsoft part de moins loin que SpaceX/xAI dans le domaine des outils IA de codage, grâce à GitHub Copilot qui compte 4,7 millions d’utilisateurs payants, indiquait en début d’année Satya Nadella, le CEO du groupe. C’est 75 % de plus qu’il y a un an.

Codex vient de son côté d’atteindre les 4 millions d’utilisateurs actifs, soit 1 million de plus qu’il y a deux semaines. Codex pose les bases de la fameuse « superapp » d’OpenAI.

  •  

L’IA générative ne créera pas le prochain GTA toute seule

IA encore un bon bout de chemin à faire
L’IA générative ne créera pas le prochain GTA toute seule

Ce n’est pas demain la veille que n’importe qui pourra générer le prochain GTA simplement en le demandant à une IA. Et peut-être même jamais, d’après deux pontes de l’industrie vidéo-ludique.

Que les joueurs l’apprécient ou pas, l’IA générative fait partie du quotidien de nombreux studios de développement de jeux vidéo. L’enquête annuelle réalisée à l’occasion de la Game Developers Conference (GDC) indique que 36 % des professionnels de l’industrie utilisent des outils d’IA. Le sondage, qui interroge 2 300 professionnels, précise que 58 % d’entre eux se servent de cette technologie chez les éditeurs, les équipes support, le marketing et les relations presse, et 30 % chez les développeurs.

Un outil de plus pour les développeurs

Pour autant, l’IA générative ne peut pas remplacer les humains qui créent les jeux. Pas encore, affirme Peter Molyneux, légende britannique du jeu vidéo et père du genre « god games » avec Populous, Fable et Black & White. « La qualité de l’IA n’est pas suffisante pour que nous puissions réellement l’utiliser dans les jeux pour le moment », explique-t-il à la BBC.

Masters of Albion. Capture d’écran

Celui qui, à 66 ans, s’apprête à lancer Masters of Albion, son dernier jeu (et ultime, jure-t-il), prévient qu’il faut être « très, très prudents et nous assurer qu’il existe des garde-fous, afin de ne pas abuser de cette puissance que l’IA nous donne ». Cette technologie va sans aucun doute « provoquer des perturbations»… mais il se veut aussi prudemment optimiste. « Vous savez quoi ? Nous sommes des êtres humains. Nous avons toujours évolué. Nous ne sommes jamais restés immobiles. Les sociétés changent, et nous nous adaptons. »

Le discours est similaire chez Strauss Zelnick, le PDG de Take-Two qui publie GTA, la franchise NBA 2KBioShock et bien d’autres blockbusters. « Peut-on utiliser des outils d’IA pour créer des storyboards plus rapidement ? Ou pour aider à dégager des éléments d’intrigue ? Ou encore pour explorer des alternatives ? Bien sûr », explique-t-il au micro de Christopher Dring de The Game Business.

Il avance que ces outils sont tout simplement plus efficaces que ceux utilisés auparavant, comme la recherche sur internet. D’ici à penser que l’IA peut concevoir un jeu de A à Z qui fasse un carton, il y a tout un monde. 

Le génie n’est pas sorti de la bouteille

Fin janvier, Google lançait un pavé dans la mare en dévoilant son « project Genie », un prototype expérimental qui génère des mondes ouverts interactifs, un peu comme les derniers Zelda en 3D, simplement à partir d’une requête ou d’une photo. La démo est certes impressionnante, mais on est très loin d’un « vrai » jeu.

« L’idée que de nouveaux outils permettraient à une seule personne d’appuyer sur un bouton pour générer un succès et le diffuser auprès de millions de consommateurs à travers le monde est risible », affirme Strauss Zelnick. Il martèle : « Ça n’a jamais existé dans le monde du divertissement ». Le dirigeant en veut pour preuve la musique générée par IA : « Ça ressemble à une chanson, mais je vous mets au défi de l’écouter plus d’une fois. C’est très bien pour l’envoyer comme carte d’anniversaire, mais pas beaucoup plus ». 

Il y aura toujours des margoulins pour tenter de refourguer des jeux entièrement générés par IA, code et assets compris, ou pour promettre de créer des jeux révolutionnaires, comme un certain Elon Musk. À l’heure actuelle, l’industrie se dirige plutôt vers l’utilisation d’outils d’aide à la conception, que ce soit pour le prototypage ou tester différents chemins dans une histoire, comme le studio Larian, créateur de Baldur’s Gate 3, l’a indiqué en décembre dernier.

L’enquête de la GDC précisait ainsi que 81 % des répondants utilisent l’IA générative pour de la recherche ou du brainstorming. Loin derrière, la génération d’assets concentre 19 % des usages – et les joueurs sont généralement les premiers à s’en rendre compte et à s’en plaindre. Il y a également eu toute la polémique autour de DLSS 5 qui utilise l’IA générative pour modifier les graphisme des jeux.

  •  
❌