Vue normale

Reçu aujourd’hui — 12 novembre 2025Actualités numériques

Ayaneo Next II : la console PC de tous les superlatifs

12 novembre 2025 à 12:17

La Ayaneo Next II se dévoile petit à petit dans un teasing dont la marque a le secret mais qui commence totalement à me perdre. De plus en plus puissantes, de plus en plus imposantes mais également de plus en plus élitistes, les Consoles PC prennent un drôle de chemin. 

Ayaneo Next II

La « nouvelle » Ayaneo Next II a eu droit à de nouvelles annonces et des développements depuis juillet. Le but non avoué de cette diffusion d’informations est toujours le même. Tenir un public en haleine et surtout empêcher de se jeter dans les précommandes d’une autre marque qui joue le même jeu. GPD a en effet annoncé lui aussi une console PC Strix Halo avec la GPD Win 5. Points communs entre ces deux modèles ? Outre le matériel embarqué, des engins de moins en moins portables et des prix qui devraient s’envoler encore plus haut.

La Ayaneo Next II a eu droit à un énième redesign technique. Il faut dire que c’est un serpent de mer dans le monde de la console. Elle a été annoncée il y a plus de trois ans sous AMD Ryzen 6000 avant d’être basculée sous processeur Intel Alder Lake. La marque l’a ensuite reconduite dans l’écurie d’AMD avec une proposition sous Ryzen 7000 associée à un circuit graphique secondaire. Puis, à l’annonce des puces Strix Halo, la marque a fait savoir que sa console haut de gamme embarquera ces solutions.  Vous comprenez rapidement le problème de cette Console PC. Étant positionnée comme le porte-étendard de la marque, elle se doit d’être la plus puissante possible. Si une nouvelle puce plus puissante sort avant qu’elle ne soit finalisée, elle ne peut pas passer outre.

Les conséquences de cette recherche de la meilleure solution technique d’un point de vue performance sont énormes. La première est que toutes les considérations ergonomiques et d’usages autour de cette puissance brute passent au second plan. Ce qui est assez grave pour une console portable. Ainsi l’encombrement, le poids, l’autonomie, la chauffe, le bruit généré et le prix ne rentrent plus en ligne de compte. Les ornières de la performance guident les constructeurs sur un seul sillon, celui du nombre d’images par seconde sur tel ou tel jeu à la mode.

C’est à mon avis la pire façon de construire une machine puisque cela pose de nombreux problèmes pour l’utilisateur. Mais c’est surtout la meilleure manière de ringardiser ultra rapidement sa propre production. Que se passe-t-il lorsque la machine que l’on a assemblée pour être la plus rapide possible n’est plus la meilleure sur son segment ? Parce qu’une nouvelle puce est disponible six mois plus tard par exemple ? Tous ses défauts annexes sautent immédiatement aux yeux et l’engin n’a plus aucune valeur technique.

La Ayaneo Next II est un monstre

La Ayaneo Next II est un monstre

Avec son nouveau design, la Ayaneo Next II propose donc une nouvelle voie pour sa console. Les contrôles ont migré, les joysticks sont désormais de types TMR plus précis et réactifs. Les gâchettes sont analogiques et la croix directionnelle analyse 8 positions. On retrouve deux petits pavés tactiles de part et d’autre d’un affichage massif. L’écran devrait atteindre les 8.4 pouces de diagonale et la console mesurer plus de 32 cm de large et 14 cm de haut. Le tout pour un poids qui devrait friser le kilo. 

Ayaneo Next II

Ayaneo Next II

A l’intérieur de l’engin on devrait retrouver deux types de puces Strix Halo. D’abord un Ryzen AI Max 385 pour le modèle « entrée de gamme » et ensuite un Ryzen AI Max+ 395. Des puces qui seraient accompagnées de 32 à 128 Go de LPDDR5 et d’un montant indéfini de stockage mais probablement jusqu’à 4 To de SSD NVMe PCIE Gen4 x4. Des composants qui vont chauffer et demander une ventilation active importante. 

Si j’oublie les performances brutes de ma Ayaneo Next II, j’ai ici un engin lourd, vraiment lourd à bout de bras. Encombrant puisque 32 cm, c’est plus grand qu’une feuille de papier A4, il sera difficile de la balader et de la sortir facilement. Mais également une solution à la fois chaude et bruyante. Assez pour être désagréable pour les autres si n jour dans la même pièce qu’eux…

Aucune idée du prix de cette console, pas plus que d’une date de disponibilité réelle. Aux dernières nouvelles – et depuis 2023 – elle est censée sortir très prochainement. Aucun doute que cet ensemble de composants conduira à des tarifs hors normes. La version  « 395 » devrait largement dépasser les 2000$ HT en prix d’appel et grimper bien plus haut pour les modèles les plus haut de gamme.

Quel marché vise cette Ayaneo Next II ?

Je me demande bien qui va investir là-dedans. J’imagine que les influenceurs seront ravis de recevoir ce joujou sans concession mais je ne comprends pas vraiment le marché de ce type de console. Chères, très chères, avec une garantie limitée et compliquée à l’autre bout de la planète, une possibilité de casse importante du simple fait de leur côté mobile. Cela ne me parait pas être un investissement très réfléchi. Mais si on considère juste l’objet en tant que tel avec souvent une autonomie ridicule, parfois une batterie externe que l’on garde dans la poche au bout d’un câble… Et un poids fort désagréable, cela ne me parait pas être une excellente idée.

Enfin, pour un medium si spécifique que le jeu vidéo, que les studios imaginent dans une ambiance précise, le format me parait totalement bancal. Avoir une console comme la Ayaneo Next II, qui peut lancer des jeux Triple A dans de bonnes conditions, mais sur une diagonale ultracompacte avec de maigres enceintes stéréo n’est pas l’idéal. Outre le fait que le jeu en ligne sera compliqué face à des joueurs disposant d’un clavier et d’une souris, la qualité globale du jeu sera limitée par cette interface amoindrie. Je préfère vraiment découvrir un jeu de ce type sur un écran de portable ou de PC de bureau que sur un écran de console.

Steam Deck

J’ai parfois l’impression que les créateurs de ces consoles sont partis sur un chemin complètement à l’opposé des besoins du marché. Avec 2500€ de budget, je préfère réellement investir 2000€ dans un excellent portable garanti localement qui me permettra de jouer dans de meilleures conditions que ce que proposera ce type de console. Et si je considère le prix des versions les plus hauts de gamme, il me restera probablement de quoi acheter un Steam Deck bien moins puissant, mais capable de piloter des jeux vraiment adaptés au format console. Des jeux pas trop gourmands, jouables et fun. Que l’on peut lancer vite et abandonner ou mettre en pause tout aussi vite

Je comprends la problématique de ces marques, elles ne peuvent pas produire des tonnes de consoles comme le fait Valve avec ses Steam Deck. Là où Valve vise très large et se rattrape en plus avec son magasin de jeux, Ayaneo et GPD se doivent de dégager le maximum de rentabilité sur les ventes directes. Autant vendre peu de consoles au prix le plus élevé possible. Mais est-ce que ces machines correspondent réellement aux attentes du public ? Le steam Deck n’a pas promis la lune et n’a pas pris une ride. Les acheteurs de la première génération continuent de jouer avec confortablement. Je ne suis pas certain qu’une console super haut de gamme comme la Ayaneo Next II en 2026 sera capable d’être toujours aussi haut de gamme un an plus tard. Des jeux toujours plus gourmands ayant la fâcheuse habitude de sortir chaque année.

Steam Deck : l’avenir rafraichissant proposé par Valve

Ayaneo Next II : la console PC de tous les superlatifs © MiniMachines.net. 2025

L'après RDNA 4 chez AMD reste un mystère ! Pourquoi ?

Alors que a firme, une société quand même spécialisée dans le CPU qui constitue son cœur de métier, a dévoilé succinctement sa roadmap processeur, elle reste plus évasive sur ses projets GPU, et surtout ses GPU Gaming. Car en matière de GPU dédié IA, AMD a ses plans, avec les Radeon Instinct MIxxx,...

☕️ Meta va supprimer les boutons J’aime et Partager externes à ses plateformes

12 novembre 2025 à 10:47

Fin d’une ère, pour Facebook. Le 10 février 2026, deux de ses plugins externes, le bouton J’aime et le bouton Partager seront jetés aux oubliettes.

Lancés en 2010, ces deux outils avaient largement participé à alimenter les échanges sur Facebook, en simplifiant la promotion et le partage commenté d’articles et de liens divers.

D’après l’entreprise, cela dit, ces outils « représentent une époque antérieure du développement du web, et leur usage a décru naturellement à mesure que le paysage numérique évoluait ».

Pour pallier à cet usage déclinant, Meta annonce donc qu’à compter du 10 février 2026, ces dispositifs seront transformés en un pixel 0x0, ce qui rendra les boutons invisibles sur les sites les utilisant, « sans créer de message d’erreur ni abîmer de fonctionnalité ».

S’il n’a pas été inventé par Facebook, le bouton J’aime a largement modifié notre rapport au web. Initialement ajouté sur des sites comme Yelp ou, donc, Facebook, pour motiver les internautes à produire du contenu et le partager, il a ensuite été détourné de cet usage initial pour se transformer en métrique des pratiques numériques à collecter, pour mieux vendre de la publicité.

La question du traitement des données personnelles était remontée jusqu’à la Cour de Justice de l’Union Européenne. En 2019, elle avait conclue l’éditeur d’un site pouvait être responsable avec Facebook d’une partie des traitements de données personnelles orchestrés par le bouton « J’aime ». Celui-ci permettait à Facebook de récupérer des données même si l’internaute ne cliquait pas dessus ou n’était pas abonné.

Si l’outil extérieur aux plateformes de Meta disparaît, les emojis « j’aime », « j’adore » , « soutien » , « colère » (lancés en 2016) et autres restent bien présents à l’intérieur des réseaux sociaux de l’entreprise.

☕️ Meta va supprimer les boutons J’aime et Partager externes à ses plateformes

12 novembre 2025 à 10:47

Fin d’une ère, pour Facebook. Le 10 février 2026, deux de ses plugins externes, le bouton J’aime et le bouton Partager seront jetés aux oubliettes.

Lancés en 2010, ces deux outils avaient largement participé à alimenter les échanges sur Facebook, en simplifiant la promotion et le partage commenté d’articles et de liens divers.

D’après l’entreprise, cela dit, ces outils « représentent une époque antérieure du développement du web, et leur usage a décru naturellement à mesure que le paysage numérique évoluait ».

Pour pallier à cet usage déclinant, Meta annonce donc qu’à compter du 10 février 2026, ces dispositifs seront transformés en un pixel 0x0, ce qui rendra les boutons invisibles sur les sites les utilisant, « sans créer de message d’erreur ni abîmer de fonctionnalité ».

S’il n’a pas été inventé par Facebook, le bouton J’aime a largement modifié notre rapport au web. Initialement ajouté sur des sites comme Yelp ou, donc, Facebook, pour motiver les internautes à produire du contenu et le partager, il a ensuite été détourné de cet usage initial pour se transformer en métrique des pratiques numériques à collecter, pour mieux vendre de la publicité.

La question du traitement des données personnelles était remontée jusqu’à la Cour de Justice de l’Union Européenne. En 2019, elle avait conclue l’éditeur d’un site pouvait être responsable avec Facebook d’une partie des traitements de données personnelles orchestrés par le bouton « J’aime ». Celui-ci permettait à Facebook de récupérer des données même si l’internaute ne cliquait pas dessus ou n’était pas abonné.

Si l’outil extérieur aux plateformes de Meta disparaît, les emojis « j’aime », « j’adore » , « soutien » , « colère » (lancés en 2016) et autres restent bien présents à l’intérieur des réseaux sociaux de l’entreprise.

14 algorithmes de compression passés au crible : 4 000 résultats dans un tableau interactif

12 novembre 2025 à 10:17
rm -fr >> all pour ce qui est de la taille finale !
14 algorithmes de compression passés au crible : 4 000 résultats dans un tableau interactif

Le meilleur algorithme de compression n’est pas forcément le plus rapide et vice-versa. Le meilleur choix dépend généralement des usages, mais comment faire ce choix ? Next vous aide avec 14 algorithmes, 10 catégories de données et 3 niveaux de compression. Près de 4 000 résultats vous attendent, avec un classement interactif dont vous êtes le héros !

Il y a quelques jours, nous avons testé le nouvel algorithme de compression OpenZL de Meta. Un autre est sorti récemment, Turbosqueeze. Son créneau est la vitesse de traitement : « Turbosqueeze propose des compressions et décompressions très rapides, ce qui le rend idéal pour les charges de travail exigeantes, les fichiers volumineux et les systèmes en temps réel ».

Spoiler sur Turbosqueeze : il est en effet rapide, mais n’est pas systématiquement premier, loin de là. Niveau compression des données, par contre, il est toujours loin de la tête de course. Ses meilleurs résultats sont dans la catégorie CSV avec la vitesse la plus élevée et un niveau de compression semblable à lz4 et lzop.

Nous l’avons intégré à un comparatif plus large, aux côtés d’autres algorithmes, avec de la décompression cette fois-ci (comme certains le demandaient). Pour améliorer notre protocole et dépendre le moins possible du stockage, nous effectuons désormais l’ensemble des tests de compression et décompression dans un ramdisk. Il s’agit pour rappel d’un espace de stockage créé en mémoire vive, bien plus rapide que les HDD et les SSD.

Les algorithmes : OpenZL, Turbosqueeze, zstd, rar, rip, brotli, zopfli…

Nous avons tout d’abord effectué un fichier d’archive avec la commande TAR. Aucune compression ici, mais un mètre étalon. Du côté des algorithmes, OpenZL avec le profil serial qui s’adapte à tous les types de fichiers. Un coup de Turbosqueeze ensuite.

Viennent ensuite des algorithmes plus classiques : zstd, xz (attention, une porte dérobée a été détectée en 2024), gzip, bzip2, 7zip, zip, lz4, rar, brotli, pixz, lzop et zopfli. Lorsque plusieurs niveaux de compression sont disponibles, nous lançons plusieurs tests avec les niveaux 1, 5 et 9.

La quantité de données qui en résulte est relativement importante puisque, pour chaque type de données, nous avons une quarantaine de tests (plus d’une dizaine d’algorithmes avec pour la plupart trois niveaux de compression).

Ci-dessous les tableaux de seulement trois des dix catégories de fichiers testés. Comme toujours, nous vous proposons également l’intégralité des résultats dans une feuille de calcul avec toutes les données exploitables.

Un score final personnalisable selon vos besoins (débit, compression)


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

AMD confirme Zen 6 pour 2026, et parle (rapidement) de Zen 7

AMD a dévoilé sa roadmap pour les années futures en ce qui concerne sa branche CPU. Alors que les Ryzen 7000 étaient lancés en septembre 2022, et que les Ryzen 9000 en août 2024, AMD confirme par sa roadmap l'arrivée des prochains Ryzen pour 2026. On ne les nomme pas parce qu'il y a fort à parier qu...

Sandisk Extreme Fit : un SSD USB Type-C réellement compact

12 novembre 2025 à 10:59

La solution Sandisk Extreme Fit reprend l’idée d’une micro clé USB mais la déploie vers une solution SSD. La promesse est de pouvoir profiter d’un stockage plus grand sans avoir besoin d’ouvrir son portable ou son MiniPC. La réalité pourrait toutefois êtes assez différente.

Sandisk Extreme Fit

Sandisk Extreme Fit

C’est amusant, car à quelques années de distance, le concept de cette Sandisk Extreme Fit existait déjà chez Sandisk. À l’apogée des netbooks, la marque avait bien compris que leurs limitations en stockage pouvaient être compensés par une extension USB. Et comme ces engins devaient rester ultracompacts, il n’était pas envisageable de leur proposer un stockage externe pendouillant au bout d’un câble USB.

La clé USB Sandisk Ultra Fit à 400 Mo/s est idéale pour les portables

La clé USB Sandisk Ultra Fit à 400 Mo/s est idéale pour les portables

La solution a alors été de proposer des micro-clés USB qui dépassaient à peine du port USB Type-A et pouvaient ainsi y rester en permanence. Chose amusante, à 43€ ces clés sont moins chères que la nouvelle solution de la marque tout en proposant les mêmes débits de 400 Mo/s théorique.

Le Sandisk Extreme Fit reprend le même scénario mais avec un format SSD et une connexion USB Type-C. Sur le papier l’idée est excellente, une légère protubérance permettra d’ajouter facilement des dizaines de Go à votre portable ou votre PC. Le petit SSD mesure 1.85 cm de large pour 1.37 cm de haut et 1.6 cm d’épaisseur. Il ne pèse que trois petits grammes. Il se connecte via un port USB 3.2 Gen1 Type-C et assurera des transferts allant jusqu’à 400 Mo/s pour une capacité maximale de 1 To.

Sandisk Extreme Fit

Sandisk Extreme Fit

La Sandisk Extreme Fit est un nouveau format mais pas forcément le plus avantageux

L’idée est donc bien de brancher l’appareil au bout de son portable et d’augmenter simplement son stockage. Ce qui est tout à fait envisageable si… Et seulement si. vous êtes très soigneux. Parce que l’objet, aussi compact soit-il, va envisager toutes les solutions à sa portée pour s’accrocher dedans. Vêtements, poignées de sacoche, fermeture Éclair et autres. Pour avoir eu pendant longtemps une clé USB de ce type à mes netbooks, je me souviens de l’énorme ténacité de ces accessoires. Leurs tentatives insensées pour essayer de se décrocher et le nombre de fois où je me suis retrouvé à jurer dans ma tête pour leur presque réussite.

Sandisk Extreme Fit

La clé Sandisk Extreme Fit a pour elle son connecteur USB Type-C et sa capacité de stockage. Mais elle a contre elle son format qui propose une empreinte largement plus impressionnante. Sa connectique Type-C reste bien moins solide que la Type-A et si vous avez le choix, préférez peut-être la solution moins chère et plus compacte. D’autant que la solution Ultra Fit dispose d’un espace où positionner une petite dragonne que vous pourrez rattacher ailleurs. C’est également l’idéal pour toutes les machines qui ne disposent pas d’autres connectiques qu’un USB Type-C.

Proposée à une soixantaine d’euros les 512 Go, la Sandisk Extreme Fit n’est pas horriblement chère. Ce qui est assez rassurant après l’annonce de la hausse des tarifs de la marque. La clé peut donc avoir un réel intérêt si vous avez un ordinateur limité en stockage et que vous ne pouvez pas l’ouvrir pour changer ses composants. C’est par ailleurs une solution de stockage très rapide qui tient littéralement dans le creux de votre main. Mais il faudra absolument veiller à la protéger en permanence et ne pas « l’oublier » comme c’est le cas pour les solutions USB Type-A.

La Sandisk Extreme Fit 512 Go à 61€ sur Amazon

La Sandisk Ultra Fit 512 Go à 43€ sur Amazon

Sandisk Extreme Fit : un SSD USB Type-C réellement compact © MiniMachines.net. 2025

☕️ Yann LeCun va quitter Meta en désaccord sur la stratégie de R&D de l’entreprise

12 novembre 2025 à 08:40

Douze ans après son arrivée au sein de ce qui s’appelait à l’époque Facebook, le chercheur français Yann LeCun s’apprête à quitter l’entreprise de Mark Zuckerberg, devenue depuis Meta.

Arrivé en 2013 pour créer et diriger le laboratoire de recherche et développement de l’entreprise Facebook Artificial Intelligence Research (FAIR), le chercheur a amené à Facebook puis Meta ses connaissances sur le deep learning dont il est l’un des pionniers. Ainsi, le FAIR a permis à Facebook d’être l’un des premiers réseaux sociaux à intégrer des systèmes d’intelligence artificielle, notamment pour la reconnaissance faciale.

Mais la récente reprise en main des recrutements sur l’IA par Mark Zuckerberg semble avoir donné une direction que le Français ne veut pas suivre. En effet, depuis cet été le CEO de Meta a redirigé toutes les forces de R&D dans la création d’un laboratoire dédié à la « superintelligence » en s’appuyant sur les modèles génératifs dérivés des LLM. Il a débauché des spécialistes chez Apple, Anthropic, OpenAI ou Scale AI et misé sur Alexandr Wang pour la direction de la R&D. Mark Zuckerberg veut pousser ses chercheurs à creuser cette voie et sortir plus de modèles qui doivent alimenter en IA plus rapidement les produits de Meta.

Ce choix, selon le Financial Times, aurait poussé Yann LeCun à quitter l’entreprise en vue de fonder sa propre startup. En effet, s’il soutient que les LLM sont « utiles », il pense qu’ils ne seront jamais capables ni de raisonner ni de planifier comme les humains. Il pousse donc, au sein du laboratoire de Meta, le travail sur ce que les chercheurs en IA appellent les « world models », des modèles capables de conceptualiser un monde, comme l’ont proposé en 2018 les chercheurs David Ha et Jürgen Schmidhuber. Ceci permettrait d’intégrer de véritables robots dans le monde réel.

Ainsi, Meta a travaillé sur plusieurs séries d’architectures : JEPA, V-JEPA, DINO-WM et PLDM. Mais ceux-ci en sont encore aux débuts de la recherche sur le sujet et subissent des critiques. Par exemple, tout en admettant que V-JEPA 2 « marque une avancée » sur des tâches de manipulation de bras robotiques, des chercheurs doutent de ses capacités sur « des tâches plus diverses (par exemple, préparer le petit-déjeuner) ou adaptées à des environnements plus complexes avec des dépendances à long terme (par exemple, l’alpinisme) ».

Le chercheur français semble vouloir continuer dans cette voie en montant sa propre startup.

☕️ Yann LeCun va quitter Meta en désaccord sur la stratégie de R&D de l’entreprise

12 novembre 2025 à 08:40

Douze ans après son arrivée au sein de ce qui s’appelait à l’époque Facebook, le chercheur français Yann LeCun s’apprête à quitter l’entreprise de Mark Zuckerberg, devenue depuis Meta.

Arrivé en 2013 pour créer et diriger le laboratoire de recherche et développement de l’entreprise Facebook Artificial Intelligence Research (FAIR), le chercheur a amené à Facebook puis Meta ses connaissances sur le deep learning dont il est l’un des pionniers. Ainsi, le FAIR a permis à Facebook d’être l’un des premiers réseaux sociaux à intégrer des systèmes d’intelligence artificielle, notamment pour la reconnaissance faciale.

Mais la récente reprise en main des recrutements sur l’IA par Mark Zuckerberg semble avoir donné une direction que le Français ne veut pas suivre. En effet, depuis cet été le CEO de Meta a redirigé toutes les forces de R&D dans la création d’un laboratoire dédié à la « superintelligence » en s’appuyant sur les modèles génératifs dérivés des LLM. Il a débauché des spécialistes chez Apple, Anthropic, OpenAI ou Scale AI et misé sur Alexandr Wang pour la direction de la R&D. Mark Zuckerberg veut pousser ses chercheurs à creuser cette voie et sortir plus de modèles qui doivent alimenter en IA plus rapidement les produits de Meta.

Ce choix, selon le Financial Times, aurait poussé Yann LeCun à quitter l’entreprise en vue de fonder sa propre startup. En effet, s’il soutient que les LLM sont « utiles », il pense qu’ils ne seront jamais capables ni de raisonner ni de planifier comme les humains. Il pousse donc, au sein du laboratoire de Meta, le travail sur ce que les chercheurs en IA appellent les « world models », des modèles capables de conceptualiser un monde, comme l’ont proposé en 2018 les chercheurs David Ha et Jürgen Schmidhuber. Ceci permettrait d’intégrer de véritables robots dans le monde réel.

Ainsi, Meta a travaillé sur plusieurs séries d’architectures : JEPA, V-JEPA, DINO-WM et PLDM. Mais ceux-ci en sont encore aux débuts de la recherche sur le sujet et subissent des critiques. Par exemple, tout en admettant que V-JEPA 2 « marque une avancée » sur des tâches de manipulation de bras robotiques, des chercheurs doutent de ses capacités sur « des tâches plus diverses (par exemple, préparer le petit-déjeuner) ou adaptées à des environnements plus complexes avec des dépendances à long terme (par exemple, l’alpinisme) ».

Le chercheur français semble vouloir continuer dans cette voie en montant sa propre startup.

☕️ Firefox 145 renforce encore ses protections contre le pistage

12 novembre 2025 à 08:05

La nouvelle mouture du navigateur est assez riche en nouveautés. Elle introduit notamment la possibilité d’ajouter, modifier et supprimer des commentaires dans les documents PDF. Elle permet également de prévisualiser les onglets présents dans un groupe en survolant le nom de ce dernier avec la souris, la liste s’affichant alors.

D’autres ajouts pratiques font leur apparition. Par exemple, la barre latérale permet de gérer les mots de passe, qui ne nécessitent donc plus l’ouverture d’un nouvel onglet ou d’une nouvelle fenêtre. À la manière de ce que pratiquent certains moteurs de recherche comme Google, Firefox permet maintenant de « Copier le lien du surlignage » depuis un clic sur un passage surligné. On peut alors coller un lien modifié vers la page qui affichera le passage en question chez les personnes qui le recevront.

On trouve aussi de nouveaux fonds d’écran (en versions claires et sombres), une option pour ouvrir un onglet depuis une app tierce dans un onglet à côté de l’onglet actif plutôt qu’à la fin, des onglets horizontaux légèrement plus arrondis (pour une plus grande cohérence avec le style vertical), l’utilisation de Zstandard pour la compression des modèles linguistiques de traduction afin de réduire le poids et la consommation d’espace disque, ou encore une simplification de l’installation des agents tiers.

Logo de la fondation Mozilla

Firefox 145 introduit en outre un renforcement des protections pour la vie privée, d’abord en activant l’Enhanced Bounce Tracking Protection par défaut quand on navigue en mode strict. Ensuite, toujours dans ce mode ou quand on se trouve en navigation privée, Firefox détecte un plus grand nombre de signaux récupérés pour rendre un(e) internaute unique pour les bloquer.

Comme la fondation l’indique dans un billet dédié, ces nouvelles protections sont déployées par phase et ne sont pas disponibles par défaut chez tout le monde. « Nos recherches montrent que ces améliorations ont réduit de près de moitié le pourcentage d’utilisateurs considérés comme uniques », affirme Mozilla. L’éditeur ajoute que la progression de ces outils est complexe, car de nombreux cas d’utilisation présentent des raisons légitimes de demander l’accès à certaines informations, par exemple le fuseau horaire pour les services d’agendas.

Enfin, Firefox 145 est la dernière version à prendre en charge les systèmes Linux 32 bits, comme prévu. Le navigateur corrige en outre 16 failles de sécurité, dont 9 critiques.

☕️ Android : Google va signaler les applications qui siphonnent votre batterie en arrière-plan

12 novembre 2025 à 07:35

Les Vitals dans Android sont un ensemble de signaux (taux de plantages, taux d’erreurs…) pour les développeurs, leur permettant d’avoir des retours sur la qualité technique de leurs applications. Ils ont été lancés en 2017 et sont disponibles via une API depuis 2022.

En avril de cette année, de nouvelles mesures sont arrivées en bêta sur la consommation de la batterie causée par des wake locks trop importants, c’est-à-dire des « verrous pour empêcher l’appareil de se mettre en veille » même si l’application est en arrière-plan. Durant la phase bêta, Android Vitals signalait une utilisation excessive si l’ensemble des verrous « s’exécutent pendant plus de 3 heures sur une période de 24 heures ».

Ces derniers mois ont été mis à profit pour affiner « l’algorithme afin qu’il soit encore plus précis et représentatif ». Le seuil du temps cumulé est par exemple passé de 3 à 2 heures. Comme prévu, Google a passé la seconde : cette information n’est plus en bêta et sera même affichée sur la boutique Play Store.

En effet, à compter du 1ᵉʳ mars 2026, si votre application atteint certains seuils (voir l’image ci-dessus), Google pourra « l’exclure de certaines zones telles que les recommandations. Dans certains cas, nous pouvons afficher un avertissement sur votre fiche pour indiquer aux utilisateurs que votre application peut entraîner une consommation excessive de la batterie ».

Ce billet de blog explique aux développeurs comment vérifier ce qu’il en est de leurs applications et prendre des mesures correctives avant le 1ᵉʳ mars pour éviter un affichage sur la place publique.

Datacenters, IA, directeur technique : vague de départs chez Intel

12 novembre 2025 à 07:13
Deux de perdus, un de retrouvé
Datacenters, IA, directeur technique : vague de départs chez Intel

Intel vient de subir deux départs de responsables techniques autour des datacenters et de l’intelligence artificielle. Saurabh Kulkarni va chez AMD, Sachin Katti chez OpenAI. Intel renforce son conseil d’administration avec un « vieux de la vieille » : Craig H. Barratt.

Saurabh Kulkarni : des datacenters d’Intel à ceux d’AMD

La semaine dernière, CRN annonçait le départ de Saurabh Kulkarni, directeur technique et responsable de l’intelligence artificielle chez Intel. Il passe chez AMD comme vice-président chargé de la gestion des produits GPU pour centres de données, comme il l’a confirmé sur LinkedIn.

Anil Nanduri, vice-président de l’IA dans les datacenters, prendra sa relève, précisent nos confrères. Saurabh Kulkarni est resté un peu plus de deux ans chez Intel, mais c’est une maison qu’il connait bien car il y a passé 13 ans dans le début des années 2000. Il a également passé six ans chez Microsoft.

Sachin Katti : de directeur technique d’Intel aux infras d’OpenAI

Autre départ annoncé, cette semaine cette fois : celui de Sachin Katti. Il était chez Intel depuis quatre ans, avec ces derniers mois le poste de directeur technique et responsable de l’intelligence artificielle. Il part pour rejoindre OpenAI et, sur X, annonce qu’il aidera « au développement de l’infrastructure de calcul pour l’IA générale ».

À CRN, Intel précise que c’est l’actuel patron de l’entreprise, Lip-Bu Tan, qui prendra les responsabilités de Sachin Katti pour l’instant. « L’IA reste l’une des plus grandes priorités stratégiques d’Intel, et nous nous concentrons sur l’exécution de notre feuille de route des produits et de la technologie », ajoute une porte-parole d’Intel.

Craig H. Barratt ex-Google, ex-Qualcomm, ex-Atheros, (re)vient chez Intel

Lundi, Intel a annoncé l’arrivée d’une nouvelle tête à son conseil d’administration : Craig H. Barratt. Son CV sur LinkedIn est impressionnant. Il était déjà chez Intel dans la fin des années 2010, arrivé par le rachat de Barefoot Networks (dont il était CEO). Il avait auparavant passé trois ans comme haut responsable chez Google et une dizaine d’années comme CEO d’Atheros, dont un an après le rachat par Qualcomm.

Âgé de 63 ans, il devient donc administrateur indépendant. « Il s’agit d’un dirigeant chevronné dans le secteur des semi-conducteurs avec une expérience dans plusieurs entreprises de pointe, une expérience inestimable pour continuer à mettre en œuvre notre stratégie et capitaliser sur nos opportunités de croissance à long terme », indique Lip-Bu Tan dans un communiqué.

Des bénéfices pour Intel au troisième trimestre

Il y a quelques jours, Intel publiait son bilan financier du troisième trimestre, avec des revenus en petite hausse sur un an pour atteindre 13,7 milliards de dollars. La société retrouve un peu de couleurs avec un bénéfice de 4,1 milliards de dollars après des pertes de 16,6 milliards l’année précédente.

Au cours des dernières semaines, des changements importants ont été annoncés, notamment l’entrée au capital de NVIDIA qui investit 5 milliards de dollars. L’entreprise a également reçu 5,7 milliards de dollars d’aides. Fin août, c’était l’administration de Donald Trump qui prenait 9,9 % du capital… juste après deux milliards de dollars de Softbank. Les années 2024 et 2025 sont financièrement compliquées pour Intel qui a largement coupé dans ses effectifs et revu ses investissements.

☕️ Firefox 145 renforce encore ses protections contre le pistage

12 novembre 2025 à 08:05

La nouvelle mouture du navigateur est assez riche en nouveautés. Elle introduit notamment la possibilité d’ajouter, modifier et supprimer des commentaires dans les documents PDF. Elle permet également de prévisualiser les onglets présents dans un groupe en survolant le nom de ce dernier avec la souris, la liste s’affichant alors.

D’autres ajouts pratiques font leur apparition. Par exemple, la barre latérale permet de gérer les mots de passe, qui ne nécessitent donc plus l’ouverture d’un nouvel onglet ou d’une nouvelle fenêtre. À la manière de ce que pratiquent certains moteurs de recherche comme Google, Firefox permet maintenant de « Copier le lien du surlignage » depuis un clic sur un passage surligné. On peut alors coller un lien modifié vers la page qui affichera le passage en question chez les personnes qui le recevront.

On trouve aussi de nouveaux fonds d’écran (en versions claires et sombres), une option pour ouvrir un onglet depuis une app tierce dans un onglet à côté de l’onglet actif plutôt qu’à la fin, des onglets horizontaux légèrement plus arrondis (pour une plus grande cohérence avec le style vertical), l’utilisation de Zstandard pour la compression des modèles linguistiques de traduction afin de réduire le poids et la consommation d’espace disque, ou encore une simplification de l’installation des agents tiers.

Logo de la fondation Mozilla

Firefox 145 introduit en outre un renforcement des protections pour la vie privée, d’abord en activant l’Enhanced Bounce Tracking Protection par défaut quand on navigue en mode strict. Ensuite, toujours dans ce mode ou quand on se trouve en navigation privée, Firefox détecte un plus grand nombre de signaux récupérés pour rendre un(e) internaute unique pour les bloquer.

Comme la fondation l’indique dans un billet dédié, ces nouvelles protections sont déployées par phase et ne sont pas disponibles par défaut chez tout le monde. « Nos recherches montrent que ces améliorations ont réduit de près de moitié le pourcentage d’utilisateurs considérés comme uniques », affirme Mozilla. L’éditeur ajoute que la progression de ces outils est complexe, car de nombreux cas d’utilisation présentent des raisons légitimes de demander l’accès à certaines informations, par exemple le fuseau horaire pour les services d’agendas.

Enfin, Firefox 145 est la dernière version à prendre en charge les systèmes Linux 32 bits, comme prévu. Le navigateur corrige en outre 16 failles de sécurité, dont 9 critiques.

☕️ Android : Google va signaler les applications qui siphonnent votre batterie en arrière-plan

12 novembre 2025 à 07:35

Les Vitals dans Android sont un ensemble de signaux (taux de plantages, taux d’erreurs…) pour les développeurs, leur permettant d’avoir des retours sur la qualité technique de leurs applications. Ils ont été lancés en 2017 et sont disponibles via une API depuis 2022.

En avril de cette année, de nouvelles mesures sont arrivées en bêta sur la consommation de la batterie causée par des wake locks trop importants, c’est-à-dire des « verrous pour empêcher l’appareil de se mettre en veille » même si l’application est en arrière-plan. Durant la phase bêta, Android Vitals signalait une utilisation excessive si l’ensemble des verrous « s’exécutent pendant plus de 3 heures sur une période de 24 heures ».

Ces derniers mois ont été mis à profit pour affiner « l’algorithme afin qu’il soit encore plus précis et représentatif ». Le seuil du temps cumulé est par exemple passé de 3 à 2 heures. Comme prévu, Google a passé la seconde : cette information n’est plus en bêta et sera même affichée sur la boutique Play Store.

En effet, à compter du 1ᵉʳ mars 2026, si votre application atteint certains seuils (voir l’image ci-dessus), Google pourra « l’exclure de certaines zones telles que les recommandations. Dans certains cas, nous pouvons afficher un avertissement sur votre fiche pour indiquer aux utilisateurs que votre application peut entraîner une consommation excessive de la batterie ».

Ce billet de blog explique aux développeurs comment vérifier ce qu’il en est de leurs applications et prendre des mesures correctives avant le 1ᵉʳ mars pour éviter un affichage sur la place publique.

Datacenters, IA, directeur technique : vague de départs chez Intel

12 novembre 2025 à 07:13
Deux de perdus, un de retrouvé
Datacenters, IA, directeur technique : vague de départs chez Intel

Intel vient de subir deux départs de responsables techniques autour des datacenters et de l’intelligence artificielle. Saurabh Kulkarni va chez AMD, Sachin Katti chez OpenAI. Intel renforce son conseil d’administration avec un « vieux de la vieille » : Craig H. Barratt.

Saurabh Kulkarni : des datacenters d’Intel à ceux d’AMD

La semaine dernière, CRN annonçait le départ de Saurabh Kulkarni, directeur technique et responsable de l’intelligence artificielle chez Intel. Il passe chez AMD comme vice-président chargé de la gestion des produits GPU pour centres de données, comme il l’a confirmé sur LinkedIn.

Anil Nanduri, vice-président de l’IA dans les datacenters, prendra sa relève, précisent nos confrères. Saurabh Kulkarni est resté un peu plus de deux ans chez Intel, mais c’est une maison qu’il connait bien car il y a passé 13 ans dans le début des années 2000. Il a également passé six ans chez Microsoft.

Sachin Katti : de directeur technique d’Intel aux infras d’OpenAI

Autre départ annoncé, cette semaine cette fois : celui de Sachin Katti. Il était chez Intel depuis quatre ans, avec ces derniers mois le poste de directeur technique et responsable de l’intelligence artificielle. Il part pour rejoindre OpenAI et, sur X, annonce qu’il aidera « au développement de l’infrastructure de calcul pour l’IA générale ».

À CRN, Intel précise que c’est l’actuel patron de l’entreprise, Lip-Bu Tan, qui prendra les responsabilités de Sachin Katti pour l’instant. « L’IA reste l’une des plus grandes priorités stratégiques d’Intel, et nous nous concentrons sur l’exécution de notre feuille de route des produits et de la technologie », ajoute une porte-parole d’Intel.

Craig H. Barratt ex-Google, ex-Qualcomm, ex-Atheros, (re)vient chez Intel

Lundi, Intel a annoncé l’arrivée d’une nouvelle tête à son conseil d’administration : Craig H. Barratt. Son CV sur LinkedIn est impressionnant. Il était déjà chez Intel dans la fin des années 2010, arrivé par le rachat de Barefoot Networks (dont il était CEO). Il avait auparavant passé trois ans comme haut responsable chez Google et une dizaine d’années comme CEO d’Atheros, dont un an après le rachat par Qualcomm.

Âgé de 63 ans, il devient donc administrateur indépendant. « Il s’agit d’un dirigeant chevronné dans le secteur des semi-conducteurs avec une expérience dans plusieurs entreprises de pointe, une expérience inestimable pour continuer à mettre en œuvre notre stratégie et capitaliser sur nos opportunités de croissance à long terme », indique Lip-Bu Tan dans un communiqué.

Des bénéfices pour Intel au troisième trimestre

Il y a quelques jours, Intel publiait son bilan financier du troisième trimestre, avec des revenus en petite hausse sur un an pour atteindre 13,7 milliards de dollars. La société retrouve un peu de couleurs avec un bénéfice de 4,1 milliards de dollars après des pertes de 16,6 milliards l’année précédente.

Au cours des dernières semaines, des changements importants ont été annoncés, notamment l’entrée au capital de NVIDIA qui investit 5 milliards de dollars. L’entreprise a également reçu 5,7 milliards de dollars d’aides. Fin août, c’était l’administration de Donald Trump qui prenait 9,9 % du capital… juste après deux milliards de dollars de Softbank. Les années 2024 et 2025 sont financièrement compliquées pour Intel qui a largement coupé dans ses effectifs et revu ses investissements.

❌