Vue lecture

☕️ Meta va supprimer les boutons J’aime et Partager externes à ses plateformes

Fin d’une ère, pour Facebook. Le 10 février 2026, deux de ses plugins externes, le bouton J’aime et le bouton Partager seront jetés aux oubliettes.

Lancés en 2010, ces deux outils avaient largement participé à alimenter les échanges sur Facebook, en simplifiant la promotion et le partage commenté d’articles et de liens divers.

D’après l’entreprise, cela dit, ces outils « représentent une époque antérieure du développement du web, et leur usage a décru naturellement à mesure que le paysage numérique évoluait ».

Pour pallier à cet usage déclinant, Meta annonce donc qu’à compter du 10 février 2026, ces dispositifs seront transformés en un pixel 0x0, ce qui rendra les boutons invisibles sur les sites les utilisant, « sans créer de message d’erreur ni abîmer de fonctionnalité ».

S’il n’a pas été inventé par Facebook, le bouton J’aime a largement modifié notre rapport au web. Initialement ajouté sur des sites comme Yelp ou, donc, Facebook, pour motiver les internautes à produire du contenu et le partager, il a ensuite été détourné de cet usage initial pour se transformer en métrique des pratiques numériques à collecter, pour mieux vendre de la publicité.

La question du traitement des données personnelles était remontée jusqu’à la Cour de Justice de l’Union Européenne. En 2019, elle avait conclue l’éditeur d’un site pouvait être responsable avec Facebook d’une partie des traitements de données personnelles orchestrés par le bouton « J’aime ». Celui-ci permettait à Facebook de récupérer des données même si l’internaute ne cliquait pas dessus ou n’était pas abonné.

Si l’outil extérieur aux plateformes de Meta disparaît, les emojis « j’aime », « j’adore » , « soutien » , « colère » (lancés en 2016) et autres restent bien présents à l’intérieur des réseaux sociaux de l’entreprise.

  •  

☕️ Meta va supprimer les boutons J’aime et Partager externes à ses plateformes

Fin d’une ère, pour Facebook. Le 10 février 2026, deux de ses plugins externes, le bouton J’aime et le bouton Partager seront jetés aux oubliettes.

Lancés en 2010, ces deux outils avaient largement participé à alimenter les échanges sur Facebook, en simplifiant la promotion et le partage commenté d’articles et de liens divers.

D’après l’entreprise, cela dit, ces outils « représentent une époque antérieure du développement du web, et leur usage a décru naturellement à mesure que le paysage numérique évoluait ».

Pour pallier à cet usage déclinant, Meta annonce donc qu’à compter du 10 février 2026, ces dispositifs seront transformés en un pixel 0x0, ce qui rendra les boutons invisibles sur les sites les utilisant, « sans créer de message d’erreur ni abîmer de fonctionnalité ».

S’il n’a pas été inventé par Facebook, le bouton J’aime a largement modifié notre rapport au web. Initialement ajouté sur des sites comme Yelp ou, donc, Facebook, pour motiver les internautes à produire du contenu et le partager, il a ensuite été détourné de cet usage initial pour se transformer en métrique des pratiques numériques à collecter, pour mieux vendre de la publicité.

La question du traitement des données personnelles était remontée jusqu’à la Cour de Justice de l’Union Européenne. En 2019, elle avait conclue l’éditeur d’un site pouvait être responsable avec Facebook d’une partie des traitements de données personnelles orchestrés par le bouton « J’aime ». Celui-ci permettait à Facebook de récupérer des données même si l’internaute ne cliquait pas dessus ou n’était pas abonné.

Si l’outil extérieur aux plateformes de Meta disparaît, les emojis « j’aime », « j’adore » , « soutien » , « colère » (lancés en 2016) et autres restent bien présents à l’intérieur des réseaux sociaux de l’entreprise.

  •  

14 algorithmes de compression passés au crible : 4 000 résultats dans un tableau interactif

rm -fr >> all pour ce qui est de la taille finale !
14 algorithmes de compression passés au crible : 4 000 résultats dans un tableau interactif

Le meilleur algorithme de compression n’est pas forcément le plus rapide et vice-versa. Le meilleur choix dépend généralement des usages, mais comment faire ce choix ? Next vous aide avec 14 algorithmes, 10 catégories de données et 3 niveaux de compression. Près de 4 000 résultats vous attendent, avec un classement interactif dont vous êtes le héros !

Il y a quelques jours, nous avons testé le nouvel algorithme de compression OpenZL de Meta. Un autre est sorti récemment, Turbosqueeze. Son créneau est la vitesse de traitement : « Turbosqueeze propose des compressions et décompressions très rapides, ce qui le rend idéal pour les charges de travail exigeantes, les fichiers volumineux et les systèmes en temps réel ».

Spoiler sur Turbosqueeze : il est en effet rapide, mais n’est pas systématiquement premier, loin de là. Niveau compression des données, par contre, il est toujours loin de la tête de course. Ses meilleurs résultats sont dans la catégorie CSV avec la vitesse la plus élevée et un niveau de compression semblable à lz4 et lzop.

Nous l’avons intégré à un comparatif plus large, aux côtés d’autres algorithmes, avec de la décompression cette fois-ci (comme certains le demandaient). Pour améliorer notre protocole et dépendre le moins possible du stockage, nous effectuons désormais l’ensemble des tests de compression et décompression dans un ramdisk. Il s’agit pour rappel d’un espace de stockage créé en mémoire vive, bien plus rapide que les HDD et les SSD.

Les algorithmes : OpenZL, Turbosqueeze, zstd, rar, rip, brotli, zopfli…

Nous avons tout d’abord effectué un fichier d’archive avec la commande TAR. Aucune compression ici, mais un mètre étalon. Du côté des algorithmes, OpenZL avec le profil serial qui s’adapte à tous les types de fichiers. Un coup de Turbosqueeze ensuite.

Viennent ensuite des algorithmes plus classiques : zstd, xz (attention, une porte dérobée a été détectée en 2024), gzip, bzip2, 7zip, zip, lz4, rar, brotli, pixz, lzop et zopfli. Lorsque plusieurs niveaux de compression sont disponibles, nous lançons plusieurs tests avec les niveaux 1, 5 et 9.

La quantité de données qui en résulte est relativement importante puisque, pour chaque type de données, nous avons une quarantaine de tests (plus d’une dizaine d’algorithmes avec pour la plupart trois niveaux de compression).

Ci-dessous les tableaux de seulement trois des dix catégories de fichiers testés. Comme toujours, nous vous proposons également l’intégralité des résultats dans une feuille de calcul avec toutes les données exploitables.

Un score final personnalisable selon vos besoins (débit, compression)


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

AMD confirme Zen 6 pour 2026, et parle (rapidement) de Zen 7

AMD a dévoilé sa roadmap pour les années futures en ce qui concerne sa branche CPU. Alors que les Ryzen 7000 étaient lancés en septembre 2022, et que les Ryzen 9000 en août 2024, AMD confirme par sa roadmap l'arrivée des prochains Ryzen pour 2026. On ne les nomme pas parce qu'il y a fort à parier qu...

  •  

Sandisk Extreme Fit : un SSD USB Type-C réellement compact

La solution Sandisk Extreme Fit reprend l’idée d’une micro clé USB mais la déploie vers une solution SSD. La promesse est de pouvoir profiter d’un stockage plus grand sans avoir besoin d’ouvrir son portable ou son MiniPC. La réalité pourrait toutefois êtes assez différente.

Sandisk Extreme Fit

Sandisk Extreme Fit

C’est amusant, car à quelques années de distance, le concept de cette Sandisk Extreme Fit existait déjà chez Sandisk. À l’apogée des netbooks la marque avait bien compris que leurs limitations en stockage pouvaient être compensés par une extension USB. Et comme ces engins devaient rester ultracompacts, il n’était pas envisageable de leur proposer un stockage externe pendouillant au bout d’un câble USB.

La clé USB Sandisk Ultra Fit à 400 Mo/s est idéale pour les portables

La clé USB Sandisk Ultra Fit à 400 Mo/s est idéale pour les portables

La solution a alors été de proposer des micro clé USB qui dépassaient à peine du port USB Type-A et pouvaient ainsi y rester en permanence. Chose amusante, à 43€ ces clés sont moins chères que la nouvelle solution de la marque tout en proposant les mêmes débits de 400 Mo/s théorique.

Le Sandisk Extreme Fit reprend le même scénario mais avec un format SSD et une connexion USB Type-C. Sur le papier l’idée est excellente, une légère protubérance permettra d’ajouter facilement des dizaines de Go à votre portable ou votre PC. Le petit SSD mesure 1.85 cm de large pour 1.37 cm de haut et 1.6 cm d’épaisseur. Il ne pèse que trois petits grammes. Il se connecte via un port USB 3.2 Gen1 Type-C et assurera des transferts allant jusqu’à 400 Mo/s pour une capacité maximale de 1 To.

Sandisk Extreme Fit

Sandisk Extreme Fit

La Sandisk Extreme Fit est un nouveau format mais pas forcément le plus avantageux

L’idée est donc bien de brancher l’appareil au bout de son portable et d’augmenter simplement son stockage. Ce qui est tout à fait envisageable si… Et seulement si. vous êtes très soigneux. Parce que l’objet, aussi compact soit-il, va envisager toutes les solutions à sa portée pour s’accrocher dedans. Vêtements, poignées de sacoche, fermeture Éclair et autres. Pour avoir eu pendant longtemps une clé USB de ce type à mes netbooks, je me souviens de l’énorme ténacité de ces accessoires. Leurs tentatives insensées pour essayer de se décrocher et le nombre de fois où je me suis retrouvé à jurer dans ma tête pour leur presque réussite.

Sandisk Extreme Fit

La clé Sandisk Extreme Fit a pour elle son connecteur USB Type-C et sa capacité de stockage. Mais elle a contre elle son format qui propose une empreinte largement plus impressionnante. Sa connectique Type-C reste bien moins solide que la Type-A et si vous avez le choix, préférez peut-être la solution moins chère et plus compacte. D’autant que la solution Ultra Fit dispose d’un espace ou positionner une petite dragonne que vous pourrez rattacher ailleurs. C’est également l’idéal pour toutes les machines qui ne disposent pas d’autres connectiques qu’un USB Type-C.

Proposée à une soixantaine d’euros les 512 Go, la Sandisk Extreme Fit n’est pas horriblement chère. Ce qui est assez rassurant après l’annonce de la hausse des tarifs de la marque. La clé peut donc avoir un réel intérêt si vous avez un ordinateur limité en stockage et que vous ne pouvez pas l’ouvrir pour changer ses composants. C’est par ailleurs une solution de stockage très rapide qui tient littéralement dans le creux de votre main. Mais il faudra absolument veiller à la protéger en permanence et ne pas « l’oublier » comme c’est le cas pour les solutions USB Type-A.

La Sandisk Extreme Fit 512 Go à 61€ sur Amazon

La Sandisk Ultra Fit 512 Go à 43€ sur Amazon

Sandisk Extreme Fit : un SSD USB Type-C réellement compact © MiniMachines.net. 2025

  •  

☕️ Yann LeCun va quitter Meta en désaccord sur la stratégie de R&D de l’entreprise

Douze ans après son arrivée au sein de ce qui s’appelait à l’époque Facebook, le chercheur français Yann LeCun s’apprête à quitter l’entreprise de Mark Zuckerberg, devenue depuis Meta.

Arrivé en 2013 pour créer et diriger le laboratoire de recherche et développement de l’entreprise Facebook Artificial Intelligence Research (FAIR), le chercheur a amené à Facebook puis Meta ses connaissances sur le deep learning dont il est l’un des pionniers. Ainsi, le FAIR a permis à Facebook d’être l’un des premiers réseaux sociaux à intégrer des systèmes d’intelligence artificielle, notamment pour la reconnaissance faciale.

Mais la récente reprise en main des recrutements sur l’IA par Mark Zuckerberg semble avoir donné une direction que le Français ne veut pas suivre. En effet, depuis cet été le CEO de Meta a redirigé toutes les forces de R&D dans la création d’un laboratoire dédié à la « superintelligence » en s’appuyant sur les modèles génératifs dérivés des LLM. Il a débauché des spécialistes chez Apple, Anthropic, OpenAI ou Scale AI et misé sur Alexandr Wang pour la direction de la R&D. Mark Zuckerberg veut pousser ses chercheurs à creuser cette voie et sortir plus de modèles qui doivent alimenter en IA plus rapidement les produits de Meta.

Ce choix, selon le Financial Times, aurait poussé Yann LeCun à quitter l’entreprise en vue de fonder sa propre startup. En effet, s’il soutient que les LLM sont « utiles », il pense qu’ils ne seront jamais capables ni de raisonner ni de planifier comme les humains. Il pousse donc, au sein du laboratoire de Meta, le travail sur ce que les chercheurs en IA appellent les « world models », des modèles capables de conceptualiser un monde, comme l’ont proposé en 2018 les chercheurs David Ha et Jürgen Schmidhuber. Ceci permettrait d’intégrer de véritables robots dans le monde réel.

Ainsi, Meta a travaillé sur plusieurs séries d’architectures : JEPA, V-JEPA, DINO-WM et PLDM. Mais ceux-ci en sont encore aux débuts de la recherche sur le sujet et subissent des critiques. Par exemple, tout en admettant que V-JEPA 2 « marque une avancée » sur des tâches de manipulation de bras robotiques, des chercheurs doutent de ses capacités sur « des tâches plus diverses (par exemple, préparer le petit-déjeuner) ou adaptées à des environnements plus complexes avec des dépendances à long terme (par exemple, l’alpinisme) ».

Le chercheur français semble vouloir continuer dans cette voie en montant sa propre startup.

  •  

☕️ Yann LeCun va quitter Meta en désaccord sur la stratégie de R&D de l’entreprise

Douze ans après son arrivée au sein de ce qui s’appelait à l’époque Facebook, le chercheur français Yann LeCun s’apprête à quitter l’entreprise de Mark Zuckerberg, devenue depuis Meta.

Arrivé en 2013 pour créer et diriger le laboratoire de recherche et développement de l’entreprise Facebook Artificial Intelligence Research (FAIR), le chercheur a amené à Facebook puis Meta ses connaissances sur le deep learning dont il est l’un des pionniers. Ainsi, le FAIR a permis à Facebook d’être l’un des premiers réseaux sociaux à intégrer des systèmes d’intelligence artificielle, notamment pour la reconnaissance faciale.

Mais la récente reprise en main des recrutements sur l’IA par Mark Zuckerberg semble avoir donné une direction que le Français ne veut pas suivre. En effet, depuis cet été le CEO de Meta a redirigé toutes les forces de R&D dans la création d’un laboratoire dédié à la « superintelligence » en s’appuyant sur les modèles génératifs dérivés des LLM. Il a débauché des spécialistes chez Apple, Anthropic, OpenAI ou Scale AI et misé sur Alexandr Wang pour la direction de la R&D. Mark Zuckerberg veut pousser ses chercheurs à creuser cette voie et sortir plus de modèles qui doivent alimenter en IA plus rapidement les produits de Meta.

Ce choix, selon le Financial Times, aurait poussé Yann LeCun à quitter l’entreprise en vue de fonder sa propre startup. En effet, s’il soutient que les LLM sont « utiles », il pense qu’ils ne seront jamais capables ni de raisonner ni de planifier comme les humains. Il pousse donc, au sein du laboratoire de Meta, le travail sur ce que les chercheurs en IA appellent les « world models », des modèles capables de conceptualiser un monde, comme l’ont proposé en 2018 les chercheurs David Ha et Jürgen Schmidhuber. Ceci permettrait d’intégrer de véritables robots dans le monde réel.

Ainsi, Meta a travaillé sur plusieurs séries d’architectures : JEPA, V-JEPA, DINO-WM et PLDM. Mais ceux-ci en sont encore aux débuts de la recherche sur le sujet et subissent des critiques. Par exemple, tout en admettant que V-JEPA 2 « marque une avancée » sur des tâches de manipulation de bras robotiques, des chercheurs doutent de ses capacités sur « des tâches plus diverses (par exemple, préparer le petit-déjeuner) ou adaptées à des environnements plus complexes avec des dépendances à long terme (par exemple, l’alpinisme) ».

Le chercheur français semble vouloir continuer dans cette voie en montant sa propre startup.

  •  

☕️ Firefox 145 renforce encore ses protections contre le pistage

La nouvelle mouture du navigateur est assez riche en nouveautés. Elle introduit notamment la possibilité d’ajouter, modifier et supprimer des commentaires dans les documents PDF. Elle permet également de prévisualiser les onglets présents dans un groupe en survolant le nom de ce dernier avec la souris, la liste s’affichant alors.

D’autres ajouts pratiques font leur apparition. Par exemple, la barre latérale permet de gérer les mots de passe, qui ne nécessitent donc plus l’ouverture d’un nouvel onglet ou d’une nouvelle fenêtre. À la manière de ce que pratiquent certains moteurs de recherche comme Google, Firefox permet maintenant de « Copier le lien du surlignage » depuis un clic sur un passage surligné. On peut alors coller un lien modifié vers la page qui affichera le passage en question chez les personnes qui le recevront.

On trouve aussi de nouveaux fonds d’écran (en versions claires et sombres), une option pour ouvrir un onglet depuis une app tierce dans un onglet à côté de l’onglet actif plutôt qu’à la fin, des onglets horizontaux légèrement plus arrondis (pour une plus grande cohérence avec le style vertical), l’utilisation de Zstandard pour la compression des modèles linguistiques de traduction afin de réduire le poids et la consommation d’espace disque, ou encore une simplification de l’installation des agents tiers.

Logo de la fondation Mozilla

Firefox 145 introduit en outre un renforcement des protections pour la vie privée, d’abord en activant l’Enhanced Bounce Tracking Protection par défaut quand on navigue en mode strict. Ensuite, toujours dans ce mode ou quand on se trouve en navigation privée, Firefox détecte un plus grand nombre de signaux récupérés pour rendre un(e) internaute unique pour les bloquer.

Comme la fondation l’indique dans un billet dédié, ces nouvelles protections sont déployées par phase et ne sont pas disponibles par défaut chez tout le monde. « Nos recherches montrent que ces améliorations ont réduit de près de moitié le pourcentage d’utilisateurs considérés comme uniques », affirme Mozilla. L’éditeur ajoute que la progression de ces outils est complexe, car de nombreux cas d’utilisation présentent des raisons légitimes de demander l’accès à certaines informations, par exemple le fuseau horaire pour les services d’agendas.

Enfin, Firefox 145 est la dernière version à prendre en charge les systèmes Linux 32 bits, comme prévu. Le navigateur corrige en outre 16 failles de sécurité, dont 9 critiques.

  •  

☕️ Android : Google va signaler les applications qui siphonnent votre batterie en arrière-plan

Les Vitals dans Android sont un ensemble de signaux (taux de plantages, taux d’erreurs…) pour les développeurs, leur permettant d’avoir des retours sur la qualité technique de leurs applications. Ils ont été lancés en 2017 et sont disponibles via une API depuis 2022.

En avril de cette année, de nouvelles mesures sont arrivées en bêta sur la consommation de la batterie causée par des wake locks trop importants, c’est-à-dire des « verrous pour empêcher l’appareil de se mettre en veille » même si l’application est en arrière-plan. Durant la phase bêta, Android Vitals signalait une utilisation excessive si l’ensemble des verrous « s’exécutent pendant plus de 3 heures sur une période de 24 heures ».

Ces derniers mois ont été mis à profit pour affiner « l’algorithme afin qu’il soit encore plus précis et représentatif ». Le seuil du temps cumulé est par exemple passé de 3 à 2 heures. Comme prévu, Google a passé la seconde : cette information n’est plus en bêta et sera même affichée sur la boutique Play Store.

En effet, à compter du 1ᵉʳ mars 2026, si votre application atteint certains seuils (voir l’image ci-dessus), Google pourra « l’exclure de certaines zones telles que les recommandations. Dans certains cas, nous pouvons afficher un avertissement sur votre fiche pour indiquer aux utilisateurs que votre application peut entraîner une consommation excessive de la batterie ».

Ce billet de blog explique aux développeurs comment vérifier ce qu’il en est de leurs applications et prendre des mesures correctives avant le 1ᵉʳ mars pour éviter un affichage sur la place publique.

  •  

Datacenters, IA, directeur technique : vague de départs chez Intel

Deux de perdus, un de retrouvé
Datacenters, IA, directeur technique : vague de départs chez Intel

Intel vient de subir deux départs de responsables techniques autour des datacenters et de l’intelligence artificielle. Saurabh Kulkarni va chez AMD, Sachin Katti chez OpenAI. Intel renforce son conseil d’administration avec un « vieux de la vieille » : Craig H. Barratt.

Saurabh Kulkarni : des datacenters d’Intel à ceux d’AMD

La semaine dernière, CRN annonçait le départ de Saurabh Kulkarni, directeur technique et responsable de l’intelligence artificielle chez Intel. Il passe chez AMD comme vice-président chargé de la gestion des produits GPU pour centres de données, comme il l’a confirmé sur LinkedIn.

Anil Nanduri, vice-président de l’IA dans les datacenters, prendra sa relève, précisent nos confrères. Saurabh Kulkarni est resté un peu plus de deux ans chez Intel, mais c’est une maison qu’il connait bien car il y a passé 13 ans dans le début des années 2000. Il a également passé six ans chez Microsoft.

Sachin Katti : de directeur technique d’Intel aux infras d’OpenAI

Autre départ annoncé, cette semaine cette fois : celui de Sachin Katti. Il était chez Intel depuis quatre ans, avec ces derniers mois le poste de directeur technique et responsable de l’intelligence artificielle. Il part pour rejoindre OpenAI et, sur X, annonce qu’il aidera « au développement de l’infrastructure de calcul pour l’IA générale ».

À CRN, Intel précise que c’est l’actuel patron de l’entreprise, Lip-Bu Tan, qui prendra les responsabilités de Sachin Katti pour l’instant. « L’IA reste l’une des plus grandes priorités stratégiques d’Intel, et nous nous concentrons sur l’exécution de notre feuille de route des produits et de la technologie », ajoute une porte-parole d’Intel.

Craig H. Barratt ex-Google, ex-Qualcomm, ex-Atheros, (re)vient chez Intel

Lundi, Intel a annoncé l’arrivée d’une nouvelle tête à son conseil d’administration : Craig H. Barratt. Son CV sur LinkedIn est impressionnant. Il était déjà chez Intel dans la fin des années 2010, arrivé par le rachat de Barefoot Networks (dont il était CEO). Il avait auparavant passé trois ans comme haut responsable chez Google et une dizaine d’années comme CEO d’Atheros, dont un an après le rachat par Qualcomm.

Âgé de 63 ans, il devient donc administrateur indépendant. « Il s’agit d’un dirigeant chevronné dans le secteur des semi-conducteurs avec une expérience dans plusieurs entreprises de pointe, une expérience inestimable pour continuer à mettre en œuvre notre stratégie et capitaliser sur nos opportunités de croissance à long terme », indique Lip-Bu Tan dans un communiqué.

Des bénéfices pour Intel au troisième trimestre

Il y a quelques jours, Intel publiait son bilan financier du troisième trimestre, avec des revenus en petite hausse sur un an pour atteindre 13,7 milliards de dollars. La société retrouve un peu de couleurs avec un bénéfice de 4,1 milliards de dollars après des pertes de 16,6 milliards l’année précédente.

Au cours des dernières semaines, des changements importants ont été annoncés, notamment l’entrée au capital de NVIDIA qui investit 5 milliards de dollars. L’entreprise a également reçu 5,7 milliards de dollars d’aides. Fin août, c’était l’administration de Donald Trump qui prenait 9,9 % du capital… juste après deux milliards de dollars de Softbank. Les années 2024 et 2025 sont financièrement compliquées pour Intel qui a largement coupé dans ses effectifs et revu ses investissements.

  •  

☕️ Firefox 145 renforce encore ses protections contre le pistage

La nouvelle mouture du navigateur est assez riche en nouveautés. Elle introduit notamment la possibilité d’ajouter, modifier et supprimer des commentaires dans les documents PDF. Elle permet également de prévisualiser les onglets présents dans un groupe en survolant le nom de ce dernier avec la souris, la liste s’affichant alors.

D’autres ajouts pratiques font leur apparition. Par exemple, la barre latérale permet de gérer les mots de passe, qui ne nécessitent donc plus l’ouverture d’un nouvel onglet ou d’une nouvelle fenêtre. À la manière de ce que pratiquent certains moteurs de recherche comme Google, Firefox permet maintenant de « Copier le lien du surlignage » depuis un clic sur un passage surligné. On peut alors coller un lien modifié vers la page qui affichera le passage en question chez les personnes qui le recevront.

On trouve aussi de nouveaux fonds d’écran (en versions claires et sombres), une option pour ouvrir un onglet depuis une app tierce dans un onglet à côté de l’onglet actif plutôt qu’à la fin, des onglets horizontaux légèrement plus arrondis (pour une plus grande cohérence avec le style vertical), l’utilisation de Zstandard pour la compression des modèles linguistiques de traduction afin de réduire le poids et la consommation d’espace disque, ou encore une simplification de l’installation des agents tiers.

Logo de la fondation Mozilla

Firefox 145 introduit en outre un renforcement des protections pour la vie privée, d’abord en activant l’Enhanced Bounce Tracking Protection par défaut quand on navigue en mode strict. Ensuite, toujours dans ce mode ou quand on se trouve en navigation privée, Firefox détecte un plus grand nombre de signaux récupérés pour rendre un(e) internaute unique pour les bloquer.

Comme la fondation l’indique dans un billet dédié, ces nouvelles protections sont déployées par phase et ne sont pas disponibles par défaut chez tout le monde. « Nos recherches montrent que ces améliorations ont réduit de près de moitié le pourcentage d’utilisateurs considérés comme uniques », affirme Mozilla. L’éditeur ajoute que la progression de ces outils est complexe, car de nombreux cas d’utilisation présentent des raisons légitimes de demander l’accès à certaines informations, par exemple le fuseau horaire pour les services d’agendas.

Enfin, Firefox 145 est la dernière version à prendre en charge les systèmes Linux 32 bits, comme prévu. Le navigateur corrige en outre 16 failles de sécurité, dont 9 critiques.

  •  

☕️ Android : Google va signaler les applications qui siphonnent votre batterie en arrière-plan

Les Vitals dans Android sont un ensemble de signaux (taux de plantages, taux d’erreurs…) pour les développeurs, leur permettant d’avoir des retours sur la qualité technique de leurs applications. Ils ont été lancés en 2017 et sont disponibles via une API depuis 2022.

En avril de cette année, de nouvelles mesures sont arrivées en bêta sur la consommation de la batterie causée par des wake locks trop importants, c’est-à-dire des « verrous pour empêcher l’appareil de se mettre en veille » même si l’application est en arrière-plan. Durant la phase bêta, Android Vitals signalait une utilisation excessive si l’ensemble des verrous « s’exécutent pendant plus de 3 heures sur une période de 24 heures ».

Ces derniers mois ont été mis à profit pour affiner « l’algorithme afin qu’il soit encore plus précis et représentatif ». Le seuil du temps cumulé est par exemple passé de 3 à 2 heures. Comme prévu, Google a passé la seconde : cette information n’est plus en bêta et sera même affichée sur la boutique Play Store.

En effet, à compter du 1ᵉʳ mars 2026, si votre application atteint certains seuils (voir l’image ci-dessus), Google pourra « l’exclure de certaines zones telles que les recommandations. Dans certains cas, nous pouvons afficher un avertissement sur votre fiche pour indiquer aux utilisateurs que votre application peut entraîner une consommation excessive de la batterie ».

Ce billet de blog explique aux développeurs comment vérifier ce qu’il en est de leurs applications et prendre des mesures correctives avant le 1ᵉʳ mars pour éviter un affichage sur la place publique.

  •  

Datacenters, IA, directeur technique : vague de départs chez Intel

Deux de perdus, un de retrouvé
Datacenters, IA, directeur technique : vague de départs chez Intel

Intel vient de subir deux départs de responsables techniques autour des datacenters et de l’intelligence artificielle. Saurabh Kulkarni va chez AMD, Sachin Katti chez OpenAI. Intel renforce son conseil d’administration avec un « vieux de la vieille » : Craig H. Barratt.

Saurabh Kulkarni : des datacenters d’Intel à ceux d’AMD

La semaine dernière, CRN annonçait le départ de Saurabh Kulkarni, directeur technique et responsable de l’intelligence artificielle chez Intel. Il passe chez AMD comme vice-président chargé de la gestion des produits GPU pour centres de données, comme il l’a confirmé sur LinkedIn.

Anil Nanduri, vice-président de l’IA dans les datacenters, prendra sa relève, précisent nos confrères. Saurabh Kulkarni est resté un peu plus de deux ans chez Intel, mais c’est une maison qu’il connait bien car il y a passé 13 ans dans le début des années 2000. Il a également passé six ans chez Microsoft.

Sachin Katti : de directeur technique d’Intel aux infras d’OpenAI

Autre départ annoncé, cette semaine cette fois : celui de Sachin Katti. Il était chez Intel depuis quatre ans, avec ces derniers mois le poste de directeur technique et responsable de l’intelligence artificielle. Il part pour rejoindre OpenAI et, sur X, annonce qu’il aidera « au développement de l’infrastructure de calcul pour l’IA générale ».

À CRN, Intel précise que c’est l’actuel patron de l’entreprise, Lip-Bu Tan, qui prendra les responsabilités de Sachin Katti pour l’instant. « L’IA reste l’une des plus grandes priorités stratégiques d’Intel, et nous nous concentrons sur l’exécution de notre feuille de route des produits et de la technologie », ajoute une porte-parole d’Intel.

Craig H. Barratt ex-Google, ex-Qualcomm, ex-Atheros, (re)vient chez Intel

Lundi, Intel a annoncé l’arrivée d’une nouvelle tête à son conseil d’administration : Craig H. Barratt. Son CV sur LinkedIn est impressionnant. Il était déjà chez Intel dans la fin des années 2010, arrivé par le rachat de Barefoot Networks (dont il était CEO). Il avait auparavant passé trois ans comme haut responsable chez Google et une dizaine d’années comme CEO d’Atheros, dont un an après le rachat par Qualcomm.

Âgé de 63 ans, il devient donc administrateur indépendant. « Il s’agit d’un dirigeant chevronné dans le secteur des semi-conducteurs avec une expérience dans plusieurs entreprises de pointe, une expérience inestimable pour continuer à mettre en œuvre notre stratégie et capitaliser sur nos opportunités de croissance à long terme », indique Lip-Bu Tan dans un communiqué.

Des bénéfices pour Intel au troisième trimestre

Il y a quelques jours, Intel publiait son bilan financier du troisième trimestre, avec des revenus en petite hausse sur un an pour atteindre 13,7 milliards de dollars. La société retrouve un peu de couleurs avec un bénéfice de 4,1 milliards de dollars après des pertes de 16,6 milliards l’année précédente.

Au cours des dernières semaines, des changements importants ont été annoncés, notamment l’entrée au capital de NVIDIA qui investit 5 milliards de dollars. L’entreprise a également reçu 5,7 milliards de dollars d’aides. Fin août, c’était l’administration de Donald Trump qui prenait 9,9 % du capital… juste après deux milliards de dollars de Softbank. Les années 2024 et 2025 sont financièrement compliquées pour Intel qui a largement coupé dans ses effectifs et revu ses investissements.

  •  

Google Is Introducing Its Own Version of Apple's Private AI Cloud Compute

Google has unveiled Private AI Compute, a cloud platform designed to deliver advanced AI capabilities while preserving user privacy. As The Verge notes, the feature is "virtually identical to Apple's Private Cloud Compute." From the report: Many Google products run AI features like translation, audio summaries, and chatbot assistants, on-device, meaning data doesn't leave your phone, Chromebook, or whatever it is you're using. This isn't sustainable, Google says, as advancing AI tools need more reasoning and computational power than devices can supply. The compromise is to ship more difficult AI requests to a cloud platform, called Private AI Compute, which it describes as a "secure, fortified space" offering the same degree of security you'd expect from on-device processing. Sensitive data is available "only to you and no one else, not even Google."

Read more of this story at Slashdot.

  •  

YouTube TV Blackout Is Costing Disney an Estimated $4.3 Million Per Day In Lost Revenue

Disney is losing an estimated $4.3 million per day (about $30 million per week) from the ongoing YouTube TV blackout of ESPN, ABC, and other networks amid a contract dispute over carriage fees. Of course, YouTube is also feeling financial pressure from users who have already canceled or intend to cancel their service. Variety reports: Disney is losing an estimated $30 million per week from its networks being pulled off YouTube TV, which works out to nearly $4.3 million per day, according to Morgan Stanley analysts. The figure came in a research note from Morgan Stanley equity analysts Benjamin Swinburne and Thomas Yeh, who said in their financial forecast for Disney's year-end 2025 quarter, they are "layering in 14 days of impact from the ongoing YouTube TV blackout, which we estimate is a $60mm revenue headwind." Nov. 11 marks the 12th day of the Disney blackout on YouTube TV. The Morgan Stanley analysts wrote that they expect the Disney-YouTube TV dispute to be resolved later this week, but estimated that each week its networks are dark on YouTube TV will lower Disney's adjusted earnings per share by 2 cents.

Read more of this story at Slashdot.

  •  

ClickFix May Be the Biggest Security Threat Your Family Has Never Heard Of

An anonymous reader quotes a report from Ars Technica: ClickFix often starts with an email sent from a hotel that the target has a pending registration with and references the correct registration information. In other cases, ClickFix attacks begin with a WhatsApp message. In still other cases, the user receives the URL at the top of Google results for a search query. Once the mark accesses the malicious site referenced, it presents a CAPTCHA challenge or other pretext requiring user confirmation. The user receives an instruction to copy a string of text, open a terminal window, paste it in, and press Enter. Once entered, the string of text causes the PC or Mac to surreptitiously visit a scammer-controlled server and download malware. Then, the machine automatically installs it -- all with no indication to the target. With that, users are infected, usually with credential-stealing malware. Security firms say ClickFix campaigns have run rampant. The lack of awareness of the technique, combined with the links also coming from known addresses or in search results, and the ability to bypass some endpoint protections are all factors driving the growth. The commands, which are often base-64 encoded to make them unreadable to humans, are often copied inside the browser sandbox, a part of most browsers that accesses the Internet in an isolated environment designed to protect devices from malware or harmful scripts. Many security tools are unable to observe and flag these actions as potentially malicious. The attacks can also be effective given the lack of awareness. Many people have learned over the years to be suspicious of links in emails or messengers. In many users' minds, the precaution doesn't extend to sites that instruct them to copy a piece of text and paste it into an unfamiliar window. When the instructions come in emails from a known hotel or at the top of Google results, targets can be further caught off guard. With many families gathering in the coming weeks for various holiday dinners, ClickFix scams are worth mentioning to those family members who ask for security advice. Microsoft Defender and other endpoint protection programs offer some defenses against these attacks, but they can, in some cases, be bypassed. That means that, for now, awareness is the best countermeasure. Researchers from CrowdStrike described in a report a campaign designed to infect Macs with a Mach-O executive. "Promoting false malicious websites encourages more site traffic, which will lead to more potential victims," wrote the researchers. "The one-line installation command enables eCrime actors to directly install the Mach-O executable onto the victim's machine while bypassing Gatekeeper checks." Push Security, meanwhile, reported a ClickFix campaign that uses a device-adaptive page that serves different malicious payloads depending on whether the visitor is on Windows or macOS.

Read more of this story at Slashdot.

  •  

Visual Studio 2026 Released

Dave Knott writes: Microsoft has released Visual Studio 2026, the first major version of their flagship compiler in almost four years. Release notes are available here. The compiler has also been updated, including improved (but not yet 100%) C++23 core language and standard library implementations.

Read more of this story at Slashdot.

  •  

sudo-rs Affected By Multiple Security Vulnerabilities - Impacting Ubuntu 25.10

The Ubuntu 25.10 transition to using some Rust system utilities continues proving quite rocky. Beyond some early performance issues with Rust Coreutils, breakage for some executables, and broken unattended upgrades due to a Rust Coreutils bug, it's also sudo-rs now causing Ubuntu developers some headaches. There are two moderate security issues affecting sudo-rs, the Rust version of sudo being used by Ubuntu 25.10...
  •  

PS5 Has Now Officially Outsold Every Xbox Console Ever Released

Sony reported that PlayStation 5 sales have reached 84.2 million units, officially surpassing every Xbox console ever released. IGN reports: The PlayStation 5 is now up to 84.2 million copies sold after shifting an additional 3.9 million units during the three-month period ending September 30, Sony has announced. That's a slight increase on the 3.8 million PS5 units Sony sold during the same quarter last year, but it's an impressive result given the price of the console has actually gone up over the course of this generation, rather than come down. [...] As an aside, unlike Sony, Microsoft does not make Xbox Series X and S sales figures public, but analysts have suggested the combined Xbox Series effort is being outsold by the PS5 by at least a factor of 2:1. The more appropriate comparison for the PS5 then, is with its predecessor, the PlayStation 4. Five years into the current console generation, the PS5 is slightly behind the PS4 (the PS4 sold-in to retailers more than 86.1 million units after five years on sale). But Sony has said this console generation is its most financially successful ever, with sales surpassing those made during the reign of all previous Sony consoles.

Read more of this story at Slashdot.

  •