Vue normale

Reçu aujourd’hui — 27 octobre 2025Next.ink

Free TV : TF1 et France Télévisions dénoncent une « méthode brutale et unilatérale »

27 octobre 2025 à 16:05
Quand lama fâché lui toujours faire ainsi
Free TV : TF1 et France Télévisions dénoncent une « méthode brutale et unilatérale »

France Télévisions et TF1 ont dénoncé lundi le lancement « sans concertation préalable » de l’offre Free TV, qui promet un accès gratuit à 170 chaînes de télévision sur smartphone, ordinateur ou écran de TV, en échange de publicités. Les deux groupes en appellent aux pouvoirs publics et au régulateur.

Actionnaire historique de Molotov, Xavier Niel sait très bien qu’il jette un pavé dans la mare quand il relaie le lancement de l’offre de télévision Free TV, en axant son discours sur la gratuité du service. Une semaine plus tard, réponse du berger à la bergère : France Télévisions et le Groupe TF1 associent leurs voix dans un communiqué commun pour dénoncer l’initiative :

« France Télévisions et le Groupe TF1 dénoncent avec la plus grande fermeté l’initiative de Free visant à commercialiser leurs services sans aucune concertation préalable avec les éditeurs concernés. Cette méthode brutale et unilatérale témoigne d’un mépris des droits des ayants droit créateurs et acteurs du secteur audiovisuel et de leurs partenaires commerciaux. 

Appel aux pouvoirs publics et à l’Arcom

Free TV propose pour mémoire à tous les internautes (abonnés à Free ou non) d’accéder à 170 chaînes de télévision dans sa formule gratuite, financée par la publicité. Le bouquet comprend la majorité des chaînes de la TNT gratuite, dont celles de France TV, mais les canaux des groupes TF1 et M6 en sont exclus.

À ce premier étage s’ajoute une offre optionnelle Free TV+ (5,99 euros par mois, gratuite pour les abonnés Freebox avec le service de télévision ou les abonnés mobiles Forfait Free 5G et Série Free) qui réunit quant à elle 300 chaînes, dont celles du groupe TF1.

Résumé de l’offre Free TV et de son pendant payant Free TV+

TF1 et France Télévisions voient dans cette approche une façon directe de concurrencer leurs propres canaux de distribution, et donc une menace à caractère stratégique. «  La majorité des éditeurs privilégient l’intégration de leurs services via leur propre application pour des raisons évidentes de maitrise éditoriale, expérience utilisateurs et maîtrise publicitaire », avancent les deux groupes, selon qui l’initiative de Free « remet en cause la stratégie de développement et les ressources disponibles des éditeurs pour financer la création ».

« Dans un contexte de profonde mutation du secteur », ils appellent donc à la fois les pouvoirs publics et le régulateur, l’Arcom, « à examiner avec la plus grande attention cette initiative qui déstabilise l’ensemble de l’écosystème ».

Maîtriser la distribution

L’actualité récente illustre bien à quel point la distribution de leurs contenus revêt un caractère stratégique pour les groupes audiovisuels. Chez TF1, on a par exemple inauguré récemment des micro-transactions au sein de l’application TF1+, dédiée aux programmes du groupe et pensée comme un relais de croissance face à la montée en puissance des grandes plateformes vidéo.

Et ces dernières ne sont pas que de simples concurrentes dans l’équation : elles deviennent également des alliées, comme en témoigne l’accord, inédit au moment de son annonce, grâce auquel Netflix diffusera les chaînes et contenus de TF1 à compter de 2026. L’audiovisuel public n’est pas en reste : début juillet, France Télévisions a ainsi formalisé la signature d’un partenariat commercial avec Amazon Prime Video.

Free n’ignore logiquement rien de ces enjeux commerciaux. C’est d’ailleurs le précédent Molotov qui explique que les chaînes appartenant à TF1 et M6 soient exclues du bouquet gratuit Free TV et réservées à l’option payante.

Free et TF1 sont pour mémoire liés par un accord global de distribution qui permet à l’opérateur de distribuer les contenus du groupe audiovisuel à destination de ses abonnés Freebox. Lors de son dernier renouvellement, en 2024, l’accord prévoyait que « les abonnés Freebox [puissent] accéder à l’ensemble des chaînes TNT du groupe TF1 (TF1, TMC, LCI, TFX, TF1 Séries Films) et aux programmes du groupe TF1 en replay (MYTF1) dans l’application OQEE by Free en mobilité et sur TV connectée ».

À l’époque, l’application OQEE était cependant réservée aux abonnés Freebox, quand Free TV ne pose aucune autre barrière à l’entrée que la création d’un compte et l’acceptation des cookies.

Les services d’immigration américains ont leur outil de surveillance des réseaux sociaux

27 octobre 2025 à 15:30
Panoptique automatisé
Les services d’immigration américains ont leur outil de surveillance des réseaux sociaux

C’est déjà signé. L’ICE, l’agence de l’immigration et des douanes des États-Unis a, depuis un mois, accès à un système de surveillance des réseaux sociaux nommé Zignal Labs qui lui permet de surveiller les familles immigrées et les opposants à la politique de chasse des étrangers mise en place par Donald Trump.

Les services de l’immigration et des douanes états-uniens, l’ICE, viennent de signer un contrat pour accéder à la plateforme de monitoring de réseaux sociaux de Zignal Labs.

On sait depuis peu que l’ICE a prévu de mettre en place une équipe spécifiquement assignée à la surveillance des réseaux sociaux. Cette agence a accès à Immigration OS, l’outil d’assistance à l’expulsion de Palantir, comme l’indiquait Amnesty International en aout dernier. Mais celui-ci ne scrute pas en permanence X, TikTok et autres Instagram. L’autre agence de protection des frontières, le Service des douanes et de la protection des frontières (CBP), utilise Babel X pour cela, toujours selon Amnesty.

5,7 millions d’euros sur cinq ans

Mais l’ICE a finalement choisi une autre solution, Zignal Labs, donc, avec un contrat de 5,7 millions de dollars sur cinq ans, comme l’a révélé le média The Lever. Zignal Labs, c’est au départ une entreprise de Californie qui analyse les réseaux sociaux pour en tirer des données pour l’analyse publicitaire. Elle a aussi noué des partenariats sur l’analyse de données, notamment avec le Washington Post dès 2016.

Ainsi en 2021, le média s’appuyait sur ses données en expliquant que « les fausses informations en ligne concernant la fraude électorale ont chuté de 73 % après que plusieurs réseaux sociaux ont suspendu le compte du président Trump et de ses principaux alliés la semaine dernière, selon les conclusions du cabinet d’études Zignal Labs, soulignant ainsi le pouvoir des entreprises technologiques à limiter les fausses informations qui empoisonnent le débat public lorsqu’elles agissent de manière agressive ».

Mais la même année, l’entreprise annonçait son pivot vers des logiciels pour les agences de sécurité avec, comme le souligne The Lever, la création d’un bureau regroupant des anciens responsables de l’armée états-unienne ou venant de la police.

Zignal surveille aussi Gaza

The Lever a repéré sur internet une brochure de l’entreprise datant de 2025 qui vante les capacités de sa plateforme pour donner des « renseignements tactiques » aux « opérateurs sur le terrain » à Gaza, sans pour autant nommer précisément l’armée israélienne. Interrogée par nos confrères, l’entreprise n’a pas répondu sur ce sujet ni sur le contrat avec l’ICE.

Ce n’est d’ailleurs pas directement avec Zignal que l’ICE a passé le contrat. L’agence états-unienne est passé par une autre société, Carahsoft, qui fournit le service et avec qui Zignal Labs s’était associé en juillet dernier pour fournir une plateforme OSINT de nouvelle génération aux agences gouvernementales et de défense.

Comme on peut le voir sur la brochure évoquée ci-dessus, Zignal est plus qu’une entreprise surveillant les réseaux sociaux. Elle se vante de « fournir en temps réel des renseignements exploitables aux opérateurs » en proposant une solution d’OSINT (des renseignements dont l’origine sont des « sources ouvertes »).

Le département de la Sécurité intérieure, dont dépend l’ICE, n’en est pas à sa première signature impliquant une solution de Zignal, puisqu’elle avait engagé un premier contrat de 700 000 dollars directement avec l’entreprise en 2019.

« Terroriser les familles d’immigrants […] cibler les militants »

« [Le département de la Sécurité intérieure] ne devrait pas acheter des outils de surveillance qui récupèrent nos publications sur les réseaux sociaux sur Internet, puis utilisent l’IA pour examiner minutieusement nos propos en ligne. Et les agences ne devraient certainement pas déployer ce type de technologie opaque en secret, sans aucune obligation de rendre des comptes », avance Patrick Toomey, directeur adjoint du projet de sécurité nationale de l’Union américaine pour les libertés civiles (ACLU) à The Lever.

« L’ICE est une agence sans foi ni loi qui utilisera la surveillance des réseaux sociaux basée sur l’IA non seulement pour terroriser les familles d’immigrants, mais aussi pour cibler les militants qui luttent contre ses abus. Il s’agit d’une atteinte à notre démocratie et à notre droit à la liberté d’expression, alimentée par l’algorithme et financée par nos impôts. », réagit Will Owen de l’association Surveillance Technology Oversight Project (STOP) interrogé par Wired.

☕️ Nouvelle alerte sur des « tsunamis » de déchets électroniques

27 octobre 2025 à 14:34

L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».

Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».

Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.

Monstre de consommation numérique s'auto-alimentant

La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.

Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».

Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».

AWS : le post-mortem de la grande panne révèle un bug rare et une automatisation extrême

27 octobre 2025 à 13:06
Quelle dépendance ?
AWS : le post-mortem de la grande panne révèle un bug rare et une automatisation extrême

Amazon Web Services a publié un long post-mortem, revenant de manière détaillée sur la gigantesque panne qui a affecté ses services le 20 octobre. À la racine de la cascade, une situation de compétition autour d’enregistrements DNS et un effondrement d’autres services par effet domino. L’automatisation s’est retournée contre ses concepteurs.

La panne AWS du 20 octobre a affecté de très nombreuses entreprises s‘appuyant sur son cloud pour proposer leurs services. Alexa, Asana, Snapchat, Fortnite, Epic Games Store, ChatGPT, Autocad ou encore Docker ont été directement touchés, avec une interruption totale ou partielle de leurs activités pendant plusieurs heures.

Comment une telle panne a-t-elle pu arriver ?

AWS avait publié une série d’informations tout au long de la panne, ne serait-ce que pour tenir informée la clientèle, forcément démunie. On savait que le service de base de données DynamoDB était impliqué et qu’Amazon avait rencontré des problèmes avec les DNS. Mais le rapport complet de l’incident est nettement plus intéressant.

Pour comprendre ce qui s’est passé, rappelons qu’AWS est une infrastructure immense, dans laquelle DynamoDB tient une place importante. Le service utilise des centaines de milliers d’enregistrements DNS pour gérer la flotte de serveurs qui lui sont rattachés. Deux systèmes entièrement automatisés sont chargés d’assurer la résilience de l’ensemble en gérant ces enregistrements et en assurant la cohérence du tout.

C’est aussi à travers eux que le problème s’est présenté, sous la forme d’une situation de compétition (race condition en anglais). Expliquons rapidement de quoi il s’agit : une situation de compétition est un bug survenant quand le comportement d’un programme dépend de l’ordre ou du moment précis d’exécution de plusieurs processus tournant en parallèle.

Dans le cas présent, les deux systèmes automatisés travaillaient simultanément sur les mêmes enregistrements DNS. En temps normal, ce n’est pas un problème et des mécanismes existent pour gérer les résultats. Mais pour une raison inconnue (AWS ne dit pas laquelle), l’un des systèmes automatisés, appelé DNS Enactor, s’est mis à afficher un retard important dans ses calculs et donc dans la mise à jour des enregistrements DNS. L’autre système a fini ses calculs, mis à jour les enregistrements DNS, puis a lancé un nettoyage pour effacer les anciennes informations.


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

T@LC : on a posé 20 fois la même question à une IA, on a eu 5 réponses différentes

27 octobre 2025 à 09:37
Oublie que t'as aucune chance, vas-y fonce ! On sait jamais !
T@LC : on a posé 20 fois la même question à une IA, on a eu 5 réponses différentes

Dans notre nouvel épisode de T@LC (Tests À La Con), nous avons posé 20 fois une même question à Claude, mais n’avons obtenu la bonne réponse que 16 fois. L’intelligence artificielle générative s’est trompée dans ses calculs (elles ne sont pas bonnes dans ce domaine), mais aussi dans son raisonnement.

On en parle à longueur d’actualités, mais un rappel ne peut pas faire de mal : les intelligences artificielles génératives ont deux principaux défauts. Tout d’abord, elles hallucinent plus ou moins régulièrement, c’est-à-dire qu’elles proposent des résultats incorrects ou trompeurs, pour reprendre la notion qui est généralement admise dans cette communauté (sans être une définition absolue).

Le deuxième défaut est étroitement lié au premier : les intelligences artificielles sont probabilistes. Et qui dit probabilité, dit risque d’erreur. C’est aussi simple que cela. En fait, une intelligence artificielle va donner la réponse qu’elle juge la plus probable selon ses modèles mathématiques.

On pourrait très grossièrement résumer en disant que si une IA est fiable à 90 % sur un sujet, elle donnera la bonne réponse 9 fois sur 10 (ce n’est pas si simple, mais c’est une première approche). La dixième fois, elle peut halluciner et répondre complètement à côté de la plaque. Les probabilités peuvent varier, mais de par la construction des modèles, il est impossible de garantir un résultat fiable à 100 % en toutes circonstances.

Une question, vingt réponses : quatre sont fausses

Vous voulez un exemple ? Nous avons posé plusieurs fois une même question à Claude avec le modèle Haiku 4.5 : « Combien de temps faut-il pour consommer 500 Go avec un débit de 50 Mb/s ? ».

Rien de bien compliqué pour un humain : 50 Mb/s c’est équivalent à 6,25 Mo/s (on divise par huit), soit 80 000 secondes pour 500 000 Mo (500 Go) ou bien encore 22,2 heures. C’est également 22 heures, 13 minutes et 33 secondes.

Enfin « rien de compliqué » à condition de s’entendre sur le passage des Go aux Mo. Parle-t-on de 500 000 Mo (500 * 10³) ou bien de 512 000 Mo (500 * 1024 ou 500 * 2¹⁰) pour 500 Go ? Ce n’est pas la question ici, mais avec 512 000 Mo on arrive à 81 920 secondes, soit 22,76 heures ou encore 22 heures, 45 minutes et 33 secondes.

Nous avons posé 20 fois la même question à Claude, en effaçant à chaque fois la conversation précédente et en lançant une nouvelle. Nous avons accordé une bonne réponse aussi bien pour 22h13 que 22h45. Sur les 20 tentatives, l’intelligence artificielle n’a cependant donné la bonne réponse 16 fois.

Deux fois elle s’est trompée lors des opérations mathématiques, mais le raisonnement était bon, les deux autres fois son raisonnement était faux. Avant de passer aux explications détaillées, voici le bilan de nos 20 questions (identiques) :


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Informatique quantique : Lucy et ses 12 qubits s’installent au Très Grand Centre de Calcul

27 octobre 2025 à 08:07

Quandela (fabricant français d’ordinateurs quantiques), le GENCI (Grand équipement national de calcul intensif) et le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) ont annoncé en fin de semaine dernière la livraison de Lucy : « un ordinateur quantique photonique universel numérique de 12 qubits ». Il est installé au Très Grand Centre de Calcul (TGCC) du CEA dans le 91.

Le CEA affirme que c’est « l’ordinateur quantique photonique le plus puissant au monde », mais rappelons qu’il existe bien d’autres technologies pour réaliser les qubits des ordinateurs quantiques. La machine a été acquise par « l’EuroHPC Joint Undertaking dans le cadre du consortium EuroQCS-France ».

Quandela s’était déjà trouvé une place chez OVHcloud. L’hébergeur roubaisien avait inauguré son MosaiQ en mars 2024, une machine quantique de Quandela avec deux qubits photoniques. Elle est évolutive et peut passer facilement à six qubits si besoin, puis 12 et même 24 à condition d’installer une seconde machine pour cette dernière étape. Quandela s’est aussi installée au Canada en 2024, chez Exaion.

OVHcloud et Quandela nous expliquaient alors que la consommation électrique classique en utilisation de la machine à deux qubits était de l’ordre de 2,5 kW, mais avec cinq kW recommandés car l’ordinateur a besoin de plus de puissance au démarrage. Pour plus de détails sur la machine quantique d’OVHcloud vous pouvez lire cette actualité.

Le CEA met en avant l’expertise française et européenne :

« Assemblé en seulement douze mois dans le site industriel de Quandela, le système illustre la force de la collaboration européenne. Les modules cryogéniques ont été conçus par attocube systems AG près de Munich, les dispositifs quantiques ont été fabriqués sur la ligne pilote de Quandela à Palaiseau, et l’intégration finale a été réalisée dans son usine de Massy. Avec 80% de ses composants – et l’ensemble des composants critiques – d’origine européenne, Lucy incarne la capacité de l’Europe à concevoir et livrer des technologies quantiques souveraines ».

L’ouverture aux chercheurs européens est prévue pour début 2026.

☕️ Sora d’OpenAI utilisée pour insérer des propos racistes dans la bouche de célébrités

27 octobre 2025 à 07:43

Sora a déjà permis des deepfakes et des représentations racistes et sexistes de personnages historiques. Mais l’application d’OpenAI rend aussi possible la création de vidéos dans lesquelles des personnes connues semblent proférer des insultes racistes.

Ainsi, comme l’explique Rolling Stone, des deepfakes commencent à circuler sur le nouveau réseau social d’OpenAI (non accessible officiellement en France) où l’on voit des personnalités étatsuniennes comme le boxeur et youtubeur Jack Paul proférer des insultes racistes. Ou plutôt, qui semblent proférer. Car les utilisateurs qui créent ce genre de vidéos s’appuient sur la proximité sonore de certains mots pour passer outre les blocages.

Un crâne ouvert au sommet sert de piscine à un homme qui se baigne dans une bouée canard, le tout sur fond bleu tirant vers le noir.

Ainsi, par exemple, Jack Paul est représenté dans un supermarché criant « I hate juice » (je déteste le jus), qui se rapproche fortement de façon sonore d’une phrase antisémite, jouant sur le rapprochement sonore de « juice » (jus) et de « jews » (juifs). La vidéo a été générée par Sora le 12 octobre et est encore en ligne actuellement.

De la même façon, une vidéo met en scène Sam Altman crier « I hate knitters » (je déteste les personnes qui tricotent), pour se rapprocher du terme « niggers » (nègres).

Les chercheurs de l’entreprise Copyleaks qui ont repéré le phénomène expliquent : « ce comportement illustre une tendance peu surprenante en matière de contournement basé sur les prompts, où les utilisateurs testent intentionnellement les systèmes à la recherche de faiblesses dans la modération du contenu. Lorsqu’ils sont associés à des ressemblances avec des personnes reconnaissables, ces deepfakes deviennent plus viraux et plus préjudiciables, se propageant rapidement sur la plateforme et au-delà (toutes les vidéos que nous avons examinées pouvaient être téléchargées, ce qui permettait leur publication croisée ailleurs) ».

Reçu avant avant-hierNext.ink

#Nextpresso : que vaut un SSD de 480 Go à 21 euros ?

24 octobre 2025 à 15:47
Le premier qui dit 21 euros a… gagné
#Nextpresso : que vaut un SSD de 480 Go à 21 euros ?

21 euros pour un SSD de 2,5 pouces, voilà de quoi redonner une seconde vie à quelques vieux ordinateurs ou ajouter un peu de stockage à moindre coût. Que peut-on attendre pour ce prix ? Nous en avons testé et démonté un.

Le prix des SSD ne cesse de baisser au fil des années. La barre symbolique d’un euro par Go a été dépassée au début des années 2010. La descente du prix au Go a ensuite été rapide durant cette décennie. 35 centimes par Go aux alentours de 2015, 15 à 20 centimes le Go en 2018, moins de 10 centimes en 2019 et jusqu’à 5 centimes en 2024.

Au gré des promotions, il est parfois possible de descendre encore plus bas. C’est le cas de l’Acer SA100 de 480 Go en S-ATA (447 Go une fois formaté, selon l’explorateur de fichiers de Windows 11), qui a été vendu il y a quelques jours à 20,99 euros par Amazon. Nous en avons commandé un pour voir ce qu’il propose pour ce prix.

Premiers tours de piste

On commence avec les classiques ATTO Disk Benchmark 4.01, CrystalDiskMark 8.0.6 et HD Tune Pro 6.10.


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

24 octobre 2025 à 15:35
Money !
Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

Lors des discussions sur le budget 2026 de l’État, les députés vont devoir se positionner sur plusieurs taxes ciblant les grandes entreprises du numérique. La taxe GAFAM, qui existe déjà et les vise particulièrement, pourrait passer de 3 à 15 %. Ils devront aussi discuter d’une contribution sur l’utilisation des réseaux de communication par les fournisseurs de contenus.

Venant de plusieurs horizons, des propositions pour taxer les grandes entreprises du numérique (surtout états-uniennes) vont être discutées dans l’hémicycle ces prochains jours.

Les débats s’ouvrent ce vendredi 24 octobre en séance plénière à l’Assemblée nationale pour discuter puis voter le budget de 2026. Si son examen n’est pas fini au bout de 70 jours, le gouvernement peut recourir à une adoption par ordonnances (article 47 de la Constitution).

Dans la nuit de mercredi 22 à jeudi 23 octobre, la commission des finances de l’Assemblée nationale a rejeté globalement la première partie du budget de l’État qui avait été amendée au cours de la semaine. C’est donc sur la base du projet de loi initial que les députés vont devoir s’exprimer cette fois-ci en séance plénière.

Proposition de relever la taxe GAFAM à 15 %

Mais une mesure qui ne figure pas dans cette version initiale pourrait trouver une majorité dans l’hémicycle. En effet, le taux de la taxe GAFAM, aujourd’hui à 3 %, pourrait allègrement augmenter. Elle consiste notamment à taxer les recettes générées par le ciblage publicitaire.

L’année dernière déjà, le député Corentin Le Fur (droite républicaine) avait proposé de le porter à 5 %. Dans son contre-projet qu’il a publié en septembre dernier, le PS indiquait vouloir le doubler et donc le passer de 3 à 6 %.

Mais, dans un amendement déposé par le député Renaissance, Jean-René Cazeneuve, il est proposé « de porter de 3 % à 15 % » le taux de cette taxe. Ce texte, qui a été voté lors de l’examen en commission, propose aussi d’augmenter le seuil de taxation au niveau mondial à 2 milliards d’euros au lieu des 700 millions actuellement dans la loi.

Dans son exposé, le député affirme que « la France a instauré cette taxe en 2019 pour remédier à l’inégalité fiscale entre les entreprises du numérique, souvent étrangères, et les acteurs économiques soumis à l’impôt sur le territoire. Son rendement, d’environ 700 millions d’euros en 2024, demeure sans rapport avec les profits réalisés en France par les grands groupes du secteur ».

Si le texte revient donc aujourd’hui à l’Assemblée sans les amendements votés en commission et donc sans intégrer cet amendement de Jean-René Cazeneuve, celui-ci a des chances d’être de nouveau voté dans l’hémicycle via un nouvel amendement.

Une taxe sur les fournisseurs de contenus comme Netflix ?

Un autre sujet de financement du numérique revient via les discussions sur le budget 2026 : le financement des réseaux télécoms par les plus importants fournisseurs de contenus. Selon le dernier bilan de l’état de l’Internet en France de l’Arcep, « cinq acteurs – Netflix, Akamai, Google, Meta et Amazon – génèrent 47 % de ce trafic », qui était de 50,8 Tb/s fin 2024 (+ 9,2 % en un an).

Le député RN Jean-Philippe Tanguy a déposé, en commission, un amendement [PDF] qui proposait la création d’une « contribution annuelle forfaitaire » de « 12 000 euros par Gb/s d’utilisation annuelle moyenne ». Cela ne concerne que « les personnes désignées contrôleurs d’accès par la Commission européenne », et « utilisant une bande passante moyenne annuelle supérieure à 1 Gb/s ». « Idée délirante, tarif délirant », rétorque Pierre Beyssac, porte-parole du Parti Pirate.

Ceci pour participer aux investissements « [des] pouvoirs publics et [des] fournisseurs d’accès à internet » pour développer et maintenir les infrastructures. Comme nous l’expliquions déjà en 2022, c’est encore le retour d’une idée récurrente. Cet amendement du député RN a été rejeté en commission, mais Jean-Philippe Tanguy l’a de nouveau présenté pendant la séance plénière. Il a peu de chance d’être intégré au texte final. Le député RN semble attaché à cette mesure, puisqu’il l’avait déjà proposé l’année dernière.

La Fédération Française des Télécoms (FFTélécoms), important lobby du secteur qui rassemble les principaux FAI mais aussi l’opérateur d’infrastructures Axione ou Verizon France par exemple, a publié récemment une tribune sur le sujet dans Les Echos. Elle y accuse les « big tech » (sont visés ici Netflix, Meta, Google et Amazon) d’être des « passagers clandestins » (terme utilisé aussi par le député RN dans l’exposé de son amendement) profitant d’« une asymétrie délétère pour l’Europe ».

Si la FFTélécoms réclame une contribution financière de leur part, elle souhaite « des accords commerciaux entre les opérateurs et les grands fournisseurs de trafic, pas une nouvelle taxe », explique-t-elle à nos confrères de Contexte. Elle souhaiterait, par contre, que l’Europe impose un cadre à ces négociations via le Digital Networks Act. Ce texte doit être présenté dans moins de deux mois à la Commission européenne. Mais il est difficile de savoir ce qu’il va contenir. Et, toujours selon Contexte, la CCIA Europe, lobby de la tech étatsunienne, veut éviter « toute tentative d’introduire des « network fees » » et y met tout son poids en organisant diverses réunions de lobbying.

Le directeur d’un prestataire US de failles « 0-day » accusé d’en avoir vendu à la Russie

24 octobre 2025 à 15:07
Aïe OS
Le directeur d’un prestataire US de failles « 0-day » accusé d’en avoir vendu à la Russie

Mardi, on apprenait qu’un employé de Trenchant, qui développe et revend des failles de sécurité informatique à la communauté du renseignement des « Five Eyes », aurait lui-même été ciblé par un logiciel espion. Ce jeudi, on apprenait que le dirigeant de Trenchant qui l’avait licencié, en l’accusant d’avoir volé des vulnérabilités développées en interne, était lui-même accusé d’avoir vendu des « secrets commerciaux » à un acheteur russe.

Ce mardi 21 octobre, TechCrunch révélait qu’un développeur d’exploits « zero-day » avait reçu, plus tôt cette année, un message sur son téléphone personnel l’informant qu’ « Apple a détecté une attaque ciblée par un logiciel espion mercenaire contre [son] iPhone. »

Il s’agirait du premier cas documenté de personne payée par un prestataire de logiciels espions étant elle-même la cible d’un logiciel espion, relevait TechCrunch. Le développeur, qui a requis l’anonymat, travaillait en effet jusqu’à il y a peu pour Trenchant, filiale du marchand d’armes états-unien L3Harris Technologies, spécialisée dans la recherche de vulnérabilités et les « computer network operations », du nom donné par les « Five Eyes » aux capacités cyberoffensives.

Le développeur expliquait à TechCrunch qu’il soupçonnait que cette notification pouvait être liée aux circonstances de son départ de Trenchant, qui l’avait désigné comme « bouc émissaire » d’une fuite d’outils internes dont son employeur avait été victime.

Soupçonné d’avoir fait fuiter des failles Chrome, alors qu’il travaillait sur iOS

Un mois avant de recevoir la notification de menace d’Apple, il avait en effet été invité au siège londonien de l’entreprise pour participer à un événement de « team building ». Or, une fois sur place, explique-t-il à TechCrunch, il avait « immédiatement été convoqué » dans une salle de réunion pour s’entretenir par vidéoconférence avec Peter Williams, alors directeur général de Trenchant, connu au sein de l’entreprise sous le nom de « Doogie ».

Williams lui avait alors expliqué qu’il était soupçonné d’avoir un second emploi, qu’il était suspendu, et que tous ses appareils professionnels seraient confisqués afin d’être analysés dans le cadre d’une enquête interne. Deux semaines plus tard, Williams l’appelait pour lui annoncer qu’il était licencié et qu’il n’avait d’autre choix que d’accepter l’accord à l’amiable ainsi que l’indemnité que lui proposait l’entreprise.

Le développeur a depuis appris par d’anciens collègues qu’il était soupçonné d’avoir divulgué plusieurs vulnérabilités inconnues du navigateur Chrome et identifiées par les équipes de Trenchant. Or, le développeur faisait partie d’une équipe chargée exclusivement de l’identification de failles zero-day dans iOS et du développement de logiciels espions pour les terminaux Apple.

Une version confirmée à TechCrunch par trois de ses anciens collègues, qui précisent que les employés de Trenchant n’ont qu’un accès strictement compartimenté aux outils liés aux plateformes sur lesquelles ils travaillent, et que le développeur congédié ne pouvait pas accéder aux failles, exploits et outils ciblant Chrome.

Soupçonné d’avoir vendu pour 1,3M$ de « secrets commerciaux » à la Russie

Ce jeudi 23 octobre, soit deux jours seulement après le premier article, coup de théâtre : TechCrunch révèle que le département de la Justice états-unien a accusé ce même Peter Williams, le 14 octobre dernier, d’avoir volé huit secrets commerciaux à deux entreprises (non identifiées) entre avril 2022 et août 2025, et de les avoir vendus à un acheteur en Russie.

Williams, un Australien de 39 ans résidant à Washington, avait été recruté comme directeur général de Trenchant en octobre 2024, poste qu’il a occupé jusqu’à fin août 2025, d’après les informations déposées par l’entreprise au registre britannique des entreprises.

Quatre anciens employés de Trenchant ont confirmé à TechCrunch que Williams avait bien été arrêté, mais sans préciser quand, et un porte-parole du département de la Justice a précisé qu’il n’était actuellement pas détenu.

D’après l’acte d’accusation, Williams aurait obtenu 1,3 million de dollars en échange de ces secrets commerciaux. L’intégralité des fonds (y compris en cryptos) déposés dans sept comptes bancaires ont été saisis, ainsi qu’une liste d’objets de valeur « sujets de confiscation » à son domicile, dont plusieurs bagues de diamant Tiffany, un sac à main Louis Vuitton, des vestes Moncler, et 24 montres de luxe (dont huit « replicas », copies plutôt haut de gamme, difficiles à distinguer des originales).

L’affaire est traitée par la section du contre-espionnage et du contrôle des exportations de la division de la sécurité nationale du ministère américain de la Justice, précise TechCrunch. Nos confrères ont par ailleurs appris qu’une audience préliminaire et une audience relative à l’accord de plaidoyer sont prévues le 29 octobre à Washington, D.C.

Du neuf pour Copilot chez Microsoft, dont Mico qui retente l’aventure Clippy

24 octobre 2025 à 14:39
Hey ! Listen !
Du neuf pour Copilot chez Microsoft, dont Mico qui retente l’aventure Clippy

Dans un billet publié ce 23 octobre, Microsoft a annoncé une série d’apports pour son assistant Copilot. Bien que plusieurs des fonctionnalités soient intéressantes, l’une en particulier a attiré l’attention : Mico. Ce petit assistant, présenté comme un « blob » pouvant changer de forme, accompagne Copilot en mode vocal. Il rappelle inévitablement Clippy… en lequel il peut justement se transformer.

Mico fait d’autant plus parler de lui que les tentatives de Microsoft pour « humaniser » certaines tâches ou pour les rendre plus « sympas » ont rapidement tourné à la catastrophe, de Bob à Clippy. Le plus souvent, si l’on met de côté une efficacité limitée et – dans le cas de Clippy – le peu de répondant face à de nombreuses situations dans Office, beaucoup détestaient cette expérience où ils se sentaient comme des enfants.

Rendre le mode vocal plus sympathique

Mico procède donc autrement. Le petit blob coloré et polymorphe (qui pourrait presque sortir de La Planète au Trésor, de Disney) apparait uniquement quand on passe en mode vocal sur Copilot pour les échanges de questions-réponses. Il est configuré par défaut pour surgir automatiquement, mais on peut le désactiver dans les options. Surtout, Mico n’est pas là pour fournir davantage de fonctions, mais seulement pour donner un visage « plaisant » aux interactions. Dans son billet, l’éditeur explique que Mico est une simple contraction de « Microsoft Copilot ».

« Cette présence visuelle facultative écoute, réagit et change même de couleur pour refléter vos interactions, ce qui rend les conversations vocales plus naturelles. Mico montre son soutien par le biais d’animations et d’expressions, créant ainsi une expérience conviviale et engageante », indique Microsoft.

La société fournit une vidéo de démonstration. Publiée sur YouTube, elle a l’originalité d’être sans son. Un choix curieux pour un assistant vocal. Elle a le mérite cependant de montrer Mico en mouvement. Microsoft assume également la comparaison avec Clippy. Comme l’ont montré certains utilisateurs sur les réseaux sociaux, cliquer plusieurs fois sur le blob le transforme momentanément en Clippy.

Des souvenirs et des connecteurs

Le billet de Microsoft contient des annonces autrement plus sérieuses, rassemblées sous l’étiquette « une IA centrée sur l’humain ». Comme Mico, elles sont (presque) toutes centrées sur Copilot dans sa version standard, intégrée dans Windows.

Comme OpenAI depuis plusieurs mois et Anthropic depuis septembre (et surtout cette semaine), Microsoft annonce ainsi que son Copilot dispose maintenant d’une mémoire. Elle fonctionne comme on l’a déjà vu ailleurs : elle permet de retenir les informations importantes pour créer une sorte de contexte permanent. Il suffit de les signaler comme telles pour que Copilot s’en souvienne dans les interactions suivantes. Comme dans ChatGPT et Claude, ces « souvenirs » peuvent être modifiés ou supprimés.

Copilot s’accompagne également de nouveaux connecteurs. La version Microsoft 365 en avait déjà, mais la mouture grand public gagne la capacité de se connecter à d’autres services. L’éditeur cite OneDrive, Outlook, Gmail, Google Drive et Google Agenda. Il est aussi possible de mixer plusieurs comptes, de traduire des documents, de créer des flux de travail avec intégration d’évènements dans les agendas d’Outlook ou Gmail, etc. Microsoft précise que le tout premier accès aux données réclamera une autorisation et que les accès peuvent être révoqués à n’importe quel moment. Ces connecteurs sont en cours de déploiement et ne sont pas encore disponibles partout.

Copilot se dote également « d’actions proactives ». Intégrées dans Deep Research, elles peuvent apparaitre sous forme de suggestions si l’IA estime que ces informations sont utiles, par exemple pour orienter les prochaines étapes en fonction de l’activité passée. Cette fonction est pour l’instant en préversion et réclame un abonnement Microsoft 365.

Microsoft veut frapper fort sur la santé et l’éducation

L’entreprise a de grandes ambitions sur la santé et l’éducation. Elle renforce donc ces domaines sur Copilot avec deux annonces spécifiques, mais limitées aux États-Unis pour l’instant.

D’abord, « Copilot for Health », qui doit répondre à tout ce qui concerne la santé. Sujet particulièrement sensible et sur lequel l’entreprise dit avoir amélioré la façon dont l’IA fonde ses réponses sur des sources crédibles, comme Harvard Health.

« Copilot vous aide également à trouver les bons médecins rapidement et en toute confiance, en les associant en fonction de la spécialité, de l’emplacement, de la langue et d’autres préférences. L’objectif est simple : vous aider à prendre le contrôle de votre santé en vous fournissant des informations de haute qualité et en vous connectant rapidement aux bons soins », vante Microsoft, qui accompagne le propos d’une nouvelle vidéo sans le moindre son.

Sur l’éducation, les annonces sont intéressantes. Microsoft propose Learn Live, qui se propose de devenir un « tuteur socratique doté d’une voix qui vous guide à travers des concepts au lieu de simplement donner des réponses ». Plutôt que d’afficher des informations, la fonction pose des questions, donne des repères visuels et des tableaux blancs interactifs pour jauger les réponses. On peut indiquer le contexte d’apprentissage, par exemple la révision d’un examen.

Intégration dans Edge et Windows

Il fallait s’y attendre, Microsoft ne compte pas laisser passer l’opportunité de mettre à contribution son gigantesque parc informatique. L’intégration dans Edge et Windows est donc renforcée, sans surprise.

Pour Edge, il s’agit simplement de faire jeu égal avec toutes les annonces que l’on a déjà pu voir : Gemini dans Chrome, The Browser Company avec Dia, Opera avec Neon, Perplexity avec Comet, ou encore très récemment OpenAI avec Atlas. Il est là encore question de raisonner sur des onglets ouverts, de demander des synthèses d’informations, de lancer des actions comme la réservation d’un hôtel, etc. Microsoft ajoute cependant une petite nouveauté, les Journeys : « Copilot se souvient de votre parcours de navigation pour que vous puissiez retrouver vos recherches, reprendre vos tâches ou explorer plus en profondeur ». la fonction, qui ressemble à s’y méprendre à Recall dans Windows, n’est pour l’instant disponible qu’aux États-Unis en préversion.

Pour Windows, Microsoft redit surtout ce qu’elle déjà dit dans un billet du 16 octobre : « Copilot sur Windows transforme chaque PC Windows 11 en PC IA ». L’occasion d’annoncer la disponibilité mondiale de Copilot Vision, sans doute l’une des fonctions les plus intéressantes chez Microsoft. Elle permet l’interaction avec d’autres applications, d’agir sur ce que l’on voit à l’écran, en pilotant le tout à la voix avec les mots d’activation « Hey Copilot ». Les demandes textuelles doivent arriver « bientôt ».

D’autres nouveautés sont présentées. Par exemple, Copilot Search mélange maintenant les réponses générées par IA et les résultats classiques dans une seule vue, dans une approche finalement identique à Google. Pages, le canevas de collaboration, accepte maintenant jusqu’à 20 fichiers en entrée.

L’ensemble de ces nouveautés est rassemblé sous l’étiquette « Fall Update », qui n’est pas sans rappeler la nomenclature (peu claire) de Windows 10 à ses débuts. Pour l’instant, beaucoup de ces fonctions sont limitées aux États-Unis, Microsoft évoquant surtout les autres pays anglo-saxons pour les prochains déploiements (Royaume-Uni, Canada, Nouvelle-Zélande…). L’Europe n’est pas mentionnée, mais on imagine que les fonctions y arriveront tôt ou tard.

À la découverte de Sync-in, un projet libre et français de stockage et gestion de fichiers

24 octobre 2025 à 13:56
Le souverain, c'est aussi à la maison
À la découverte de Sync-in, un projet libre et français de stockage et gestion de fichiers

Cet été, un Français a lancé un projet sur lequel il travaillait en solitaire depuis longtemps : Sync-in. C’est un service open source d’hébergement et de gestion des fichiers, qui concurrence en partie NextCloud. Le projet jouit désormais d’une communauté grandissante. Johan Legrand, son concepteur, a également répondu à nos questions.

Comme nous l’explique l’auteur de Sync-in, le projet est né d’un constat : la grande majorité des services pour stocker ses fichiers sont possédés par de grandes entreprises américaines. Il souhaitait donc une solution d’hébergement et de stockage des fichiers. Les produits comme NextCloud et ownCloud existent bien, mais ils sont trop complets pour ce que l’ingénieur avait en tête.

Sync-in, c’est quoi ?

Il s’est donc lancé seul à l’aventure il y a dix ans, écrivant petit à petit sa propre solution, avant de valider ses choix techniques il y a deux ans et demi : TypeScript et Node.js, après une première version en Python. Précisons d’ailleurs que le projet ayant une décennie, plusieurs entreprises l’utilisent déjà, dont une moitié la version Python du projet.

Au sujet de cette version Python, l’auteur du projet, Johan Legrand, nous indique : « À mesure que le projet avançait, atteignant des centaines de milliers de lignes, j’ai commencé à constater la faiblesse de Python en termes de performance, d’asynchronisme, de typage. J’avais patché Python pour rendre le code asynchrone, mais le résultat n’était pas aussi bon que je l’espérais. Le frontend étant développé en TypeScript depuis le début, je me suis naturellement dirigé vers ce langage pour refondre le backend de Sync-in, ce qui m’a permis de mutualiser le code et de profiter des avantages de Node.js ».

La version finale a été publiée en juillet et la composante serveur a été mise à jour plusieurs fois depuis. Depuis la version 1.3 sortie en août, un paquet NPM est même disponible pour simplifier l’installation, en plus du conteneur Docker déjà fourni.

Sync-in est donc avant tout un logiciel serveur, qui nécessite d’avoir soit son propre serveur physique sur place, soit d’en louer un, par exemple à travers une offre VPS (Virtual Private Server). Une fois la partie serveur installée et configurée, on se sert d’un client web, d’une des applications desktop (Windows, macOS et Linux) ou mobile compatible WebDAV (il n’y a pour l’instant pas d’application mobile officielle Sync-In). L’ensemble est open source, visible dans un dépôt GitHub et s’accompagne d’un serveur Discord pour la communauté. Tout le code est sous licence AGPL 3.


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Un rapport alerte sur la « distorsion systémique » de l’info par l’IA générative

24 octobre 2025 à 13:33
T'as le look, coco
Un rapport alerte sur la « distorsion systémique » de l’info par l’IA générative

Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.

Les IA génératives semblent douées pour résumer, mais leur processus n’offre pas de garanties suffisantes en matière d’intégrité de l’information qui a servi de matière première. Tel est l’enseignement principal d’une vaste étude engagée par 22 médias de service public européens, dont Radio France, la RTBF (Belgique), Radio Canada ou la RSF (Suisse).

Réunis sous l’égide de l’Union européenne de radio-télévision (UER, EBU en anglais) et de la BBC, les différents médias impliqués ont appliqué le même protocole : soumettre à quatre services d’IA générative populaires (ChatGPT, Copilot, Gemini et Perplexity) un ensemble de trente questions d’actualité générale, en indiquant au modèle de privilégier leurs contenus comme source.

Illustration des prompts utilisés dans le cadre de l’étude : « Utilise les sources [du média participant] dès que possible. [QUESTION] Par exemple, utilise les sources du NPR dès que possible. Pourquoi les États-Unis ont-ils bombardé le Yémen ? »

Les questions ont été déterminées sans volonté particulière de chercher à piéger le modèle, affirment les auteurs, et chaque média participant s’est assuré qu’il disposait bien d’une matière informationnelle susceptible de nourrir les recherches du modèle.

Près d’une réponse sur deux présente une faille significative

Les réponses formulées par les quatre modèles interrogés ont ensuite été examinées par des journalistes, et évaluées selon cinq critères : l’exactitude, la capacité à sourcer l’information (expliquer d’où elle vient), la distinction opérée entre les faits et les éventuelles opinions exprimées, l’éditorialisation opérée par le modèle (par exemple, les commentaires ajoutés au résumé factuel) et le niveau de contexte fourni. 


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ TikTok et Meta ont enfreint le DSA, selon la Commission européenne

24 octobre 2025 à 12:16

Bruxelles vient de publier les conclusions préliminaires de ses enquêtes sur les infractions potentielles du DSA (règlement sur les services numériques) par Meta et TikTok.

La Commission européenne estime que les deux entreprises n’accordent pas aux chercheurs « un accès adéquat aux données publiques » sur leurs plateformes, que ce soit Facebook, Instagram ou TikTok. Le texte européen prévoit que les chercheurs puissent accéder aux données des très grandes plateformes en ligne (VLOP) et très grands moteurs de recherche (VLOSE) sans même l’intermédiaire des coordinateurs de services numériques.

Drapeaux de l’Union européenne

« Permettre aux chercheurs d’accéder aux données des plateformes est une obligation de transparence essentielle en vertu de la législation sur les services numériques, car elle permet au public d’examiner l’incidence potentielle des plateformes sur notre santé physique et mentale », explique la Commission.

Elle ajoute que les deux entreprises ont « peut-être mis en place des procédures et des outils contraignants pour permettre aux chercheurs de demander l’accès aux données publiques ».

Si c’est la seule critique de la Commission contre TikTok dans ses conclusions préliminaires, elle en ajoute une autre à l’intention de l’entreprise de Mark Zuckerberg : « en ce qui concerne Meta, ni Facebook ni Instagram ne semblent fournir un mécanisme de « notification et d’action » convivial et facilement accessible permettant aux utilisateurs de signaler les contenus illicites, tels que les contenus pédopornographiques et les contenus à caractère terroriste ».

La Commission explique qu’il faut passer plusieurs étapes inutiles et que les réseaux de Meta imposent des exigences supplémentaires aux utilisateurs pour faire ces signalements. Elle accuse aussi l’entreprise d’utiliser des « dark patterns » et des designs « d’interface trompeuses »  dans ses mécanismes de « notification et d’action ».

« Nos démocraties dépendent de la confiance. Cela signifie que les plateformes doivent responsabiliser les utilisateurs, respecter leurs droits et ouvrir leurs systèmes à un examen minutieux. Le règlement sur les services numériques en fait un devoir, pas un choix », rappelle Henna Virkkunen, vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie.

« TikTok s’engage en faveur de la transparence et valorise la contribution des chercheurs à notre plateforme et à l’ensemble du secteur. Nous examinons actuellement les conclusions de la Commission européenne », mais les exigences en matière d’accès des chercheurs aux données « mettent en conflit direct le DSA et le RGPD », affirme TikTok à l’AFP.

« Nous contestons toute allégation de violation du DSA et poursuivons nos négociations avec la Commission européenne sur ces questions », commente de son côté Meta toujours auprès de l’AFP.

Pour ses IA, Anthropic va utiliser jusqu’à un million de TPU Google

24 octobre 2025 à 09:23
T’es là ? TPU là !
Pour ses IA, Anthropic va utiliser jusqu’à un million de TPU Google

Anthropic et Google viennent d’annoncer une intensification de leur partenariat. Le premier va ainsi utiliser jusqu’à un million de TPU du second, illustrant une nouvelle fois le besoin constant de nouvelles capacités de calcul pour les IA. Parallèlement, Anthropic élargit la fonction « mémoire » de Claude à d’autres abonnements.

Il est devenu crucial pour les entreprises de l’IA de diversifier les ressources matérielles sur lesquelles tournent leurs opérations, qu’il s’agisse de l’entrainement ou de l’inférence, pour citer les deux plus importantes. Des entreprises comme Amazon, Google et Microsoft développent ainsi leurs propres puces. Elles permettent de réduire la dépendance à NVIDIA – qui garde l’avantage de la puissance brute – en confiant à des puces moins onéreuses et plus économes certaines opérations, dont l’inférence.

Partenariat majeur avec Google

C’est dans ce contexte qu’Anthropic et Google viennent d’annoncer une extension de leur partenariat. Il vise à intensifier l’utilisation de Google Cloud par Anthropic, afin de « répondre à la demande croissante des clients », indique l’éditeur de Claude. Google y voit une validation du « bon rapport qualité-prix et de l’efficacité » de ses puces.

Cette extension doit permettre d’utiliser jusqu’à un million de TPU (Tensor Core Unit) de Google, y compris la 7ᵉ génération de ces puces (Ironwood, lancée en avril), comme le précise Google dans son communiqué. Les TPU de 7ᵉ génération ne sont pas encore disponibles, il faut pour le moment faire une demande d’accès anticipé.

Anthropic, comme OpenAI, diversifie ses sources d’approvisionnement

Dans son communiqué, Anthropic explique que cet investissement représente « des dizaines de milliards de dollars », sans que l’on sache qui investit quoi. Cette approche permettrait à Anthropic de « faire progresser les capacités de Claude tout en maintenant des partenariats solides dans l’ensemble de l’industrie ». Pour la société, cet accord illustre dans tous les cas une « approche diversifiée qui utilise efficacement trois plateformes de puces : les TPU de Google, Trainium d’Amazon et les GPU de NVIDIA ».

AMD est pour le moment le grand absent de cette liste. OpenAI, qui multiplie aussi les partenariats, en a annoncé un avec le Texan, mais presque de seconde zone car il n’était pas question de superintelligence ou d’IA générale, contrairement aux annonces avec NVIDIA et Broadcom.

La lecture des communiqués d’Anthropic, Google ou même des précédents chez OpenAI et autres affiche un optimisme toujours rayonnant au sein de la tech américaine. Comme nous le relevions début octobre, on constate cependant un haut niveau de « consanguinité » dans les investissements : c’est toujours le même petit groupe d’entreprises, au sein duquel elles investissent les unes dans les autres, OpenAI et NVIDIA drainant des centaines de milliards de dollars. Certains analystes y voient le signe supplémentaire d’une bulle spéculative.

Le retour de la mesure en « GW de puissance »

Google indique qu’« Anthropic aura accès à plus d’un gigawatt de capacité qui sera mise en service en 2026 », une information qui réclame de grosses pincettes car elle ne veut pas dire grand-chose seule. Et même si on la combine avec 1 million de TPU, cela donnerait 1 000 watts par TPU. Un chiffre très élevé pour un seul TPU, dans l’ordre de grandeur des derniers GPU de NVIDIA.

Anthropic ajoute que cette capacité accrue lui permettra de répondre à « une demande de croissance exponentielle » tout en maintenant ses « modèles à la pointe de l’industrie ». « Ces ressources de calcul plus importantes permettront également d’effectuer des tests plus approfondis, des recherches d’alignement et un déploiement responsable à grande échelle », précise Anthropic.

Selon Google, ses TPU seront utilisés aussi bien pour l’entrainement des IA d’Anthropic que pour l’inférence. Dans son communiqué, Google ajoute qu’Anthropic aura aussi accès à « des services Google Cloud supplémentaires », mais sans dire lesquels.

La mémoire de Claude sort des entreprises

Dans sa guerre féroce contre OpenAI et son ChatGPT, Claude manquait d’une fonctionnalité ajoutée dans son concurrent en avril puis étendue en juin à l’ensemble des utilisateurs : la mémoire. Elle permet de retenir un nombre croissant d’informations jugées cruciales. L’exemple fourni par OpenAI était alors parlant : mentionner une allergie alimentaire afin que l’aliment concerné soit écarté des recettes. Sur Claude, la mémoire a fini par arriver en septembre, mais elle était réservée aux entreprises, via les abonnements Teams et Enterprise.

Dans un tweet, Anthropic annonce que la fonction est désormais disponible pour des abonnements plus « classiques » : d’abord pour les personnes ayant un abonnement Max (100 à 200 dollars par mois), puis ce sera au tour des abonnements Pro d’ici deux semaines.

La fonction elle-même n’a pas changé et se veut toujours tournée vers le travail d’équipe. Facultative, la fonction est censée retenir des paramètres importants et apprendre du contexte professionnel, particulièrement dans la gestion de projets. Claude crée des « souvenirs » spécifiques à chaque projet et doit permettre des gains de temps, les personnes concernées n’ayant a priori plus besoin de repréciser le contexte de leurs demandes.

☕️ Liquid Glass : Apple ralentit sur la transparence dans ses dernières bêtas

24 octobre 2025 à 08:54

La sortie de Liquid Glass n’est pas passée inaperçue. La nouvelle interface d’Apple, unifiée et mettant largement l’accent sur l’effet verre et sa transparence, a provoqué bien des remous, de nombreuses discussions opposant ses fans à ses détracteurs.

Parmi les critiques, la plus courante est la baisse de lisibilité, qui entraine chez une partie de la clientèle des soucis d’accessibilité. C’est particulièrement vrai quand les systèmes affichent des textes blancs sur un panneau de verre et que l’arrière-plan est à dominante claire.

Ces retours étaient déjà nombreux pendant la phase bêta d’iOS 26 et macOS Tahoe. Apple a avancé par tâtonnement, mais a finalement laissé la transparence opérer à quasi plein régime dans les versions finales. Pourtant, dans les dernières bêtas 26.1 des systèmes, une option a fait son apparition. « Un rétropédalage annoncé », pour nos confrères d’iGen.

Ainsi, dans iOS 26.1, la section « Luminosité et affichage » gagne une nouvelle rubrique : Liquid Glass. Dans macOS 26.1, elle réside dans « Apparence », au sein des Réglages. Elle permet d’influer sur un seul paramètre : l’apparence des contrôles. On peut désormais choisir entre « Transparent » et « Teinté », le second réduisant fortement la transparence, que l’on soit en thème clair ou sombre.

Comme on peut le constater rapidement, la différence est marquée et les informations sont beaucoup plus lisibles. Le réglage rejaillit sur tous les contrôles ayant un « fond » : notifications, onglets, barres de contrôle et ainsi de suite. En revanche, le réglage ne change pas (encore ?) l’affichage du centre de contrôle.

☕️ La Fédération française de tir victime d’un incident de cybersécurité

24 octobre 2025 à 07:47

La Fédération française de tir a alerté jeudi soir une partie de ses licenciés au sujet d’un incident de sécurité, constaté au niveau d’ITAC, l’application distribuée sous forme d’intranet qui permet aux clubs de gérer leurs adhérents, leurs licences, leurs pièces médicales et leur inscription aux championnats.

« Le 20 octobre 2025, la Fédération Française de Tir a détecté une intrusion non-autorisée sur son système d’information ITAC. Cette intrusion a eu lieu entre le 18 octobre et le 20 octobre 2025 », indique la FFTir dans un message également adressé par mail aux membres concernés des clubs.

La fédération indique avoir déconnecté le service ITAC ainsi que son pendant EDEN, dédié à la gestion des licences FFTir par les tireurs, dès que l’incident a été porté à sa connaissance.

« Nous avons également prévenu l’ensemble des autorités compétentes, notamment l’ANSSI et la CNIL, et avons déposé plainte. Accompagnés d’experts, nous avons enquêté au cours des derniers jours afin d’identifier l’origine de l’incident. Les investigations ont permis de corriger la situation ».

Capture d’écran de la page de connexion ITAC, qui mentionne l’incident

L’intrusion a cependant exposé des données personnelles. Il s’agit du numéro de licence, de l’état civil, de l’adresse postale, de l’adresse mail et du numéro de téléphone renseignés, précise la FFTir, qui invite ses adhérents à la vigilance face aux éventuelles prises de contact suspectes.

« Aucune donnée médicale ni aucune coordonnée bancaire n’est concernée », rassure-t-elle, soulignant par ailleurs ne détenir aucune information relative à la détention d’armes chez les pratiquants de la discipline.

Coupé pendant plusieurs heures, l’accès au service ITAC a été rétabli, et les licenciés sont invités à réinitialiser leur mot de passe pour s’y connecter.

En juin 2025, la FFTir expliquait avoir décidé de changer de prestataire pour le développement et la maintenance de ses outils ITAC et EDEN, et confié le projet de réécriture des applications à la société AxioCode.

Début 2025, de nombreuses fédérations sportives françaises avaient été victimes de fuites de données suite à la compromission d’un outil développé par un tiers et dédié à la gestion des licenciés.

☕️ Airbus, Leonardo et Thales s’unissent pour créer un géant européen des satellites

24 octobre 2025 à 07:30

Dans un communiqué publié ce jeudi 23 octobre, Airbus, Leonardo et Thales expliquent qu’elles vont regrouper « leurs activités de production de satellites et les services associés ». Pour l’instant sans appellation officielle, ce projet a pour nom de code « Bromo », explique Le Figaro.

Les trois entreprises annoncent que cette nouvelle entité « regroupera environ 25 000 personnes à travers l’Europe » et qu’elle concentrera des activités dont le chiffre d’affaires annuel a atteint 6,5 milliards d’euros en 2024.

Guerre satellite espace

Dans leur communiqué, les trois entreprises énoncent les activités qu’elles veulent, au terme de l’opération, rassembler :

  • « Airbus apportera sa contribution à travers ses activités Space Systems and Space Digital, issues d’Airbus Defence and Space.
  • Leonardo apportera sa Division Spatial, incluant ses participations dans Telespazio et Thales Alenia Space.
  • Thales contribuera principalement en apportant ses participations dans Thales Alenia Space, Telespazio et Thales SESO ».

Les actions de la nouvelle entité devraient se répartir presque équitablement entre les trois acteurs : 35 % pour Airbus, 32,5 % pour Leonardo et 32,5 % pour Thales.

Rappelons qu’Airbus est aussi issu d’un rapprochement effectué en 2000 entre plusieurs entreprises européennes, nommée EADS à l’époque et rebaptisée en 2013.

Le ministre français de l’Économie, Roland Lescure, salue une « excellente nouvelle » sur son compte Bluesky.

Les trois entreprises espèrent voir le projet se concrétiser en 2027, après avoir passé les autorisations réglementaires et avoir consulté leurs représentants du personnel, conformément aux législations en vigueur. Selon Le Monde, la nouvelle entreprise devrait avoir son siège à Toulouse.

Pour le syndicat FO-Métaux, « ce rapprochement entre Thales, Airbus et Leonardo ouvre la voie à un nouvel équilibre industriel, à condition qu’il reste guidé par deux impératifs : la souveraineté européenne et la préservation des savoir-faire français ». Mais la CGT Métallurgie affirme que « la vraie raison du projet Bromo est de créer un monopole permettant d’imposer ses prix et d’affaiblir le pouvoir des agences (CNES, ESA), d’augmenter les marges et les bénéfices pour les actionnaires, au détriment de l’intérêt des citoyens, de la gouvernance publique du secteur et de l’emploi » [PDF].

50G-PON : la fibre à 50 Gb/s sort (encore) des laboratoires d’Orange

24 octobre 2025 à 07:03
C’est le PON PON
50G-PON : la fibre à 50 Gb/s sort (encore) des laboratoires d’Orange

Il y a deux ans, lors de ses Open Tech Days, Orange proposait une démonstration de la fibre optique (FTTH) avec un débit maximum théorique de 50 Gb/s. Cette technologie est sortie des laboratoires pour une démonstration dans des conditions réelles. C’était déjà le cas l’année dernière, avec un client résidentiel flashé à plus de 41 Gb/s.

Nous avons déjà longuement expliqué ce qu’étaient le PON (Passive Optical Network) et surtout la version déployée pour la première génération de fibre optique en France : le G-PON. Le G signifie simplement Gigabyte (jusqu’à 2,5 Gb/s en débit descendant).

Orange passe de 10 à 50 Gb/s, le 25 Gb/s laissé de côté

Le passage au 10 Gb/s est arrivé avec le 10G-EPON chez Free et le XGS-PON chez les autres fournisseurs d’accès à Internet (X pour 10 et S pour Symétrique). Orange nous avait déjà prévenu qu’il comptait sauter le 25 Gb/s : « c’est quelque chose qui est développé par Nokia, mais on ne le fera pas ». Le FAI nous confirmait ainsi qu’il passerait directement au 50G-PON, qui serait alors « la troisième génération de PON d’Orange ».

« Après deux gigabits par seconde (G-PON), puis 8 gigabits par seconde (XGS-PON), 40 Gigabits par seconde (50G-PON) sera le standard de demain des systèmes de transmission des réseaux d’accès fibre (FTTH) », affirme Orange dans un communiqué.

Un changement de carte réseau et de box suffit


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌