Le projet « Albert » de la DINUM (direction interministérielle du numérique) avait été sélectionné par la CNIL en 2023 comme un des projets d’IA « visant à améliorer les services publics ». Il s’adresse aux agents de la fonction publique et devait les assister. L’IA avait été présenté en avril 2024 par le Premier ministre (de l’époque) Gabriel Attal à la maison France Services de Sceaux (Hauts-de-Seine).
Comme le rapporte l’AFP, Albert était déjà testé dans 48 maisons France Services, mais il ne sera pas généralisé « dans sa forme actuelle », indique la Direction interministérielle du numérique (Dinum). Cette dernière affirme que ce n’est pas la fin d’Albert : « La majorité des projets expérimentaux regroupés sous la marque Albert sont désormais pérennisés et pleinement opérationnels ».
Albert est aussi une API sur laquelle viennent se brancher des modèles d’IA, notamment ceux de Mistral. Des changements sont d’ailleurs en cours sur l’API. Il y a notamment de « nouveaux alias openweight-* », une mise à jour de plusieurs modèles et la suppression de « la fonctionnalité de recherche web ».
« Nous abandonnons les alias albert-, qui manquent de clarté, au profit d’alias du type openweight- », explique la Dinum. Elle précise que, « jusqu’au 15 février 2026, les anciens modèles/alias cohabitent avec les nouveaux ».
Un an après la version 10, Wine – qui n’est pas un émulateur au sens strict, son nom est d’ailleurs l’acronyme récursif de « Wine is not an emulator » – vient de passer en version 11.
Ce logiciel permet pour rappel de lancer des applications conçues pour Windows sur d’autres systèmes, comme Linux et macOS. De la documentation est disponible ici pour découvrir l’application si besoin.
Les notes de version annoncent pas moins de 6 300 changements (contre 6 000 pour Wine 10). Il y a notamment la finalisation de WoW64 permettant d’exécuter des applications 32 bits et même 16 bits dans un environnement 64 bits et l’ajout du module NTSync pour le noyau Linux (pour améliorer les performances des émulateurs Windows NT). Ce sont les « principaux points forts », affirme l’équipe en charge du projet.
Il y a également diverses améliorations sur la partie graphique, la prise en charge de l’API Vulkan 1.4.335, le support de X11 Window Manager, la prise en charge de nouvelles manettes, etc.
Reste le morse en éclipse solaire, mais c’est lent…
L’Iran s’est encore fermé du monde extérieur en coupant Internet, aussi bien sur les réseaux fixes et mobiles (comme cela a déjà été fait), mais aussi en brouillant les communications Starlink à grande échelle.
Nous en parlions jeudi : l’Iran s’est brutalement coupé d’Internet. Ce n’est pas la première fois que les autorités mettent en place ce genre de black-out, la précédente n’a que quelques mois, en juin 2025. Comme à l’époque, Elon Musk en profite pour mettre en avant Starlink et propose des connexions aux utilisateurs en Iran, mais le système de connexion par satellite subit des brouillages.
Sur X, l’ONG Netblocks faisait les comptes ce matin : « Alors que l’Iran se réveille pour commencer une nouvelle journée, les mesures indiquent que la coupure nationale d’internet a dépassé les 84 heures ». Même constat chez Cloudflare dont le Radar ne détecte aucune reprise.
Elle ajoute que « des années de recherche sur la censure numérique mettent en évidence ces solutions de contournement ». Elle en liste quatre : les radios ondes courtes/amateurs, les antennes-relais placées aux frontières, les communications direct to cell avec les satellites et enfin les terminaux Starlink.
Cette fois, la censure semble encore plus forte : « L’Iran semble avoir renforcé sa capacité à maîtriser ces techniques de restriction de l’accès à internet », explique Valère Ndior (spécialiste du numérique) à RFI. Selon nos confrères, « même le Réseau national d’information (NIN) est hors service […] Le régime accepte donc de paralyser ses propres infrastructures, pour couper tous les canaux de communication ».
L’Internet par satellite d’Elon Musk est aussi coupé, plus ou moins suivant les zones. Il est pour rappel interdit depuis longtemps d’utiliser ou ne serait-ce que de posséder un système Starlink en Iran. La sanction du régime peut être « une exécution et prétendre que [la personne] travaille pour Israël ou les États-Unis », rappelait à Associated Press Azam Jangravi, expert en cybersécurité à Toronto qui s’oppose au gouvernement iranien.
Starlink a joué un « rôle clé » par le passé pour diffuser des images et des informations au-delà des frontières iraniennes (dans un sens, comme dans l’autre), expliquait également à Associated Press le militant pour la liberté d’Internet Mehdi Yahyanejad. Cette fois encore c’est le cas : « Elon Musk, l’improbable allié des journalistes pour collecter les images des violences en Iran », titre RTL qui se fait l’écho de témoignages locaux.
Starlink : l’Iran « va au-delà du brouillage GPS »
Déjà en juin dernier, l’Iran perturbait les signaux GPS, certainement dans le but de limiter l’efficacité des drones qui ont besoin du GPS pour se positionner. Mais c’est aussi le cas des récepteurs Starlink qui ont besoin d’un signal GPS pour se connecter à un des satellites de la constellation en orbite basse.
De nouveau, selon Associated Press qui se base sur des déclarations d’Amir Rashidi (expert sur l’Iran pour l’ONG Miaan de défense des droits humains et des droits numériques), les connexions via Starlink feraient face à une perte de 30 % des paquets. « Dans certaines régions d’Iran, Rashidi a indiqué qu’on avait constaté une perte de paquets de 80 % », ajoutent nos confrères. Selon IranWire (toujours sur des déclarations d’Amir Rashidi), le passage de 30 à 80 % dans certaines zones s’est fait dans la même journée.
Selon des estimations récentes, on pourrait compter entre 20 000 et 50 000 utilisateurs de Starlink en Iran, contre une centaine de terminaux actifs fin 2022 (selon Elon Musk à l’époque). Début 2025, un institut annonçait 30 000 Iraniens connectés via Starlink. L’ordre de grandeur reste à peu près le même.
« Je crois que le gouvernement iranien fait quelque chose qui va au-delà du brouillage GPS, comme en Ukraine où la Russie a tenté de brouiller Starlink », ajoute Amir Rashidi. Selon lui, l’Iran pourrait utiliser un brouilleur mobile. Une solution serait de surcharger la zone d’ondes dans les mêmes fréquences que celles utilisées par Starlink pour brouiller les signaux, que ce soit en émission ou en réception.
La Russie ou la Chine en embuscade ?
Selon IranWire et les déclarations de l’expert sur l’Iran, ce type d’interférence « n’avait jamais été observé en 20 ans de recherche […] la technologie impliquée est très sophistiquée et de qualité militaire, et a probablement été fournie au gouvernement par la Russie ou la Chine, si elle n’a pas été développée au niveau national ».
Deux systèmes russes étaient notamment mis en avant : Tobol et Kalinka. Selon le rapport, Kalinka pourrait « même détecter les terminaux connectés à Starshield, la version militaire de Starlink censée offrir une sécurité renforcée ».
Donald Trump en appelle à Elon Musk pour rétablir Internet en Iran
Donald Trump a récemment déclaré aux journalistes qu’il comptait s’entretenir avec Elon Musk « au sujet du rétablissement de l’internet en Iran », sans plus de précision. « Il est très doué pour ce genre de choses, il a une très bonne entreprise », ajoutait le président américain.
L’annonce a été faite ce matin : « Nous sommes ravis d’annoncer que le Conseil d’Administration de Mageia a officiellement validé la publication de la première image ISO Alpha pour Mageia 10 ». Attention, nous sommes encore loin d’une version stable, il s’agit ici de commencer « des tests à grande échelle par la communauté » pour collecter des retours.
Les images ISO de cette mouture sont disponibles pour des « installations traditionnelles sur les systèmes 32 bits (i686) et 64 bits », ce qui est de plus en plus rare en mode 32 bits (le CPU doit supporter le jeu d’instructions SSE2 pour Mageia 10). Ubuntu par exemple a arrêté il y a plusieurs années.
Mageia 10 est livrée avec le noyau Linux 6.6, X.Org 21.1.13 et XWayland 24.1.0. Il y a également des « images Live Desktop présentant des bureaux populaires tels que Plasma, GNOME et Xfce ». Les notes de version détaillées se trouvent par ici. Pour signaler des bugs, c’est par là que ça se passe.
La suite du calendrier a été annoncée en décembre : « une première version bêta prévue pour la première moitié de janvier 2026, suivie d’une deuxième version bêta un mois plus tard. La version release candidate est prévue deux semaines après la deuxième version bêta, tandis que la version finale est attendue en avril 2026 ». Cette date d’avril 2026 est confirmée dans le billet de blog du jour.
Au 1ᵉʳ décembre 2025 (relevé sur le mois de novembre), Free disposait encore de 21 137 sites en service dans les 900 MHz, ainsi que 181 sites dans les 2100 MHz. Au 1ᵉʳ janvier 2026, la situation a bien changé : 6 303 sites 3G en service dans les 900 MHz, 0 dans les 2 100 MHz.
Free a donc perdu près de 15 000 sites en service dans les 900 MHz en 3G… mais en gagne dans le même temps plus de 11 000 en 4G, toujours dans les 900 MHz. La 3G dans les 900 MHz chez les trois autres opérateurs ne change que peu avec ± une centaine de sites maximum.
C’est le seul opérateur sur le mois de décembre à annoncer des changements sur cette bande de fréquence pour la 4G. Les trois autres ne laisseront pour rappel la 3G de côté qu’à partir de 2028, ils continuent donc d’assurer un service à leurs clients d’ici là.
En janvier, Free est d’ailleurs toujours le seul opérateur avec des sites 4G en service dans les 900 MHz, avec désormais près de 24 000 sites (pour un peu plus de 26 000 autorisations). Orange a quatre autorisations, mais aucune mise en service.
Ce midi, Clément Domingo (alias SaxX sur les réseaux sociaux) explique, capture d’écran à l’appui, que « le site internet de l’euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! ».
Élections Municipales – Le site internet de l'euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris !
Attention aux sites internet "vibecodé"… qui exposent/exposeront les données personnelles des… pic.twitter.com/S6pojT781V
1h30 plus tard, CheckNews confirme. En quelques clics, nos confrères ont « pu constater que ces données privées étaient effectivement accessibles ce vendredi midi. Parmi les 607 contributions enregistrées, nous avons pu distinguer 458 mails uniques, 437 adresses IP, et 187 numéros de téléphone renseignés ».
Lorsque SaxX a publié son message sur X, la faille était donc toujours présente, permettant ainsi à n’importe qui de récupérer les données. D’ailleurs, sur Breachforum, on retrouve déjà des publications à ce sujet. Un des membres « s’amuse » d’ailleurs de la situation : « Ce n’est pas une divulgation responsable, tu es un pirate informatique, SaxX ! Bienvenue du côté obscur ».
La coupe est pleine ? Peut être pas… selon Seblatombe, toujours sur X : « Pire encore, les cartes et photos d’identités apparaissent en clairs dans le code. Les photos ne sont pas demandées par le site. Elles sont publiées de manière volontaire par certaines personnes ayant rédigé un commentaire. Certains commentaires n’en contiennent aucune, tandis que d’autres en affichent », explique-t-il.
D’après nos constatations, il y a une petite vingtaine de photos, dont une seule avec une pièce d’identité tronquée. Pour le reste, ce sont des photos de la ville de Paris, de personnes… Il y a aussi un chien et des poubelles.
CheckNews a aussi repéré un même email « utilisé jusqu’à 20 fois, avec des pseudonymes différents ». Des propositions étaient aussi associées à un email de Sarah Knafo, mais cette dernière affirme à nos confrères qu’elle n’est pas à l’origine des messages. Dans ce genre de formulaire, il est possible d’indiquer n’importe quel email pour rappel.
La principale intéressée, qui s’est déclarée le 7 janvier dernier candidate à la mairie de Paris, affirme à nos confrères avoir « corrigé » l’erreur. Le site participatif Paris à cœur ouvert de la candidate du parti d’extrême droite Reconquête fondé par son compagnon Eric Zemmour affiche désormais une « information importante » : « L’ultra gauche n’aime pas la démocratie et tente de pirater le site ». Rappelons qu’il n’y a a priori pas de piratage ici puisque les données étaient lisibles directement depuis la console des navigateurs.
La première ligne de la politique de confidentialité du site affirme que « Sarah Knafo pour Paris (ci-après, « Nous »), s’engage, en tant que responsable du traitement de vos Données Personnelles, à protéger votre vie privée ».
Dans la même journée, ce site de Sarah Knafo faisait l’objet d’un signalement à la procureure de la République par le sénateur Ian Brossat : « À peine en ligne, le site participatif de Mme Knafo est déjà un déferlement de propos racistes, y compris d’appels au meurtre. Le racisme n’est pas une opinion. C’est un délit », indique-t-il sur X, avec une copie de son signalement.
Check News parlait de 607 contributions à 13h30, il y en a 634 à l’heure actuelle. Mais, pour le moment, la page des contributions n’affiche plus que l’« information importante ».
Cette année, l’Autorité de la concurrence va rendre un avis sur les agents conversationnels, et notamment les conséquences pour l’e-commerce via des IA. Une révolution à venir qui nécessite des adaptations aussi bien côté revendeurs que fournisseurs de services et des solutions de paiement.
Après le cloud et l’IA générative, l’Autorité de la concurrence s’autosaisit d’un nouveau dossier, dans le prolongement des précédents : les agents conversationnels. Pour le dire plus simplement, on parle des « chatbots » tels que ChatGPT d’OpenAI, Claude d’Anthropic ou encore Le Chat de Mistral, pour ne citer que ces trois-là.
Ne pas confondre chatbot et agents conversationnels
Attention, précise l’Autorité, à ne pas amalgamer tous les chatbots. Son avis du jour ne concerne que les « agents conversationnels de type ChatGPT », pas l’ensemble des chatbots. En effet, ceux « qui gèrent les interactions avec des clients à l’aide d’un arbre de décision ne faisant pas nécessairement appel à l’intelligence artificielle » sont laissés de côté. De même que les « assistants virtuels fondés sur l’IA générative, comme Siri d’Apple, Alexa d’Amazon ».
L’Autorité de la concurrence dresse le portrait du secteur, qui s’organise autour de quelques grands acteurs : « ChatGPT d’OpenAI, serait le premier outil conversationnel avec 21,6 millions de visiteurs uniques au mois de septembre 2025. Derrière lui se trouverait Google Gemini (2,8 millions), Le « Chat » de Mistral AI (1,5 million), Perplexity (1,3 million), Microsoft Copilot (1 million) ».
On parle ici d’agents conversationnels « capables de comprendre le langage naturel, de répondre à des questions, de générer du texte, d’expliquer du code ou encore de créer des contenus visuels ». C’est un secteur « en pleine effervescence », selon l’Autorité.
Les acteurs cherchent à diversifier les possibilités et à monétiser
Dans le précédent dossier sur l’IA générative, l’Autorité s’est déjà penchée sur la base des agents conversationnels – les fameux modèles de fondation ; ce n’est donc pas l’objet de l’autosaisie du jour. Les entreprises derrière ces agents conversationnels « cherchent à diversifier les possibilités d’utilisation »… et s’intéressent surtout aux possibilités de monétisation « afin que ces services deviennent rentables ». Actuellement, les entreprises d’IA dépensent des milliards de dollars comme des petits pains.
Dans son enquête, l’Autorité va donc s’intéresser à plusieurs thématiques : l’intégration de la publicité (modalités d’affichage et conséquence sur le modèle économique), l’intégration des agents dans les services existants (effets de levier et autoréférence), car ces agents sont « mis en œuvre par des acteurs dominants », les partenariats et enfin la transformation des agents conversationnels en plateformes.
Les agents ne sont pas simplement des interfaces de questions et réponses, ils « tendent à devenir de véritables plateformes, permettant aux utilisateurs d’accéder directement à des services tiers sans quitter la fenêtre de conversation ». Une fonction qui tend à se développer avec les agents d’IA, c’est-à-dire des IA capables « d’agir en votre nom », pour reprendre une citation de Sundar Pichai (patron de Google) et d’interagir entre elles.
Des agents toujours plus présents et avec davantage « d’autonomie »
L’Autorité consacre d’ailleurs une partie de son communiqué à la question du (e-)commerce agentique. Non seulement les « éditeurs déploient des efforts importants pour développer des agents accompagnant les utilisateurs dans leur parcours d’achat », mais de manière plus générale « c’est tout l’écosystème de la vente en ligne qui pourrait devoir s’adapter à l’irruption et au développement du commerce agentique ».
Contrairement au sujet du cloud où l’Autorité avait bien pris son temps avant de s’autosaisir, elle est cette fois-ci bien plus réactive. Des agents d’IA et notamment pour de l’e-commerce, sont certes déjà une réalité, mais nous sommes encore au début de cette technologie.
L’Autorité va par contre laisser de côté tout un pan du sujet : « la relation entre les agents conversationnels et les moteurs de recherche ne fait pas partie du champ de l’avis ». Pourtant, ces agents sont de plus en plus utilisés comme moteur de recherche, avec des enjeux importants sur la diversité des sources. En plus du bien connu SEO (Search Engine Optimization), le GEO (Generative Engine Optimization) a largement le vent en poupe. Dommage, le sujet mériterait pourtant de s’y attarder.
Comme toujours en pareille situation, l’Autorité de la concurrence lancera prochainement une consultation publique, avant de rendre son avis dans le courant de l’année. « Les observations des parties prenantes viendront nourrir les travaux de l’Autorité ».
Dans un rapport pour Infostealers, la société spécialisée en cybersécurité Hudson Rock explique qu’un pirate est « en train de mettre aux enchères des données exfiltrées des portails de partage de fichiers d’environ 50 grandes entreprises mondiales ». Le pirate est entré dans des applications comme ShareFile, OwnCloud et Nextcloud qui permettent de stocker et partager des fichiers. Il n’avait plus qu’à se servir.
Le rapport explique que « ces défaillances catastrophiques de sécurité n’étaient pas le résultat d’exploitation de faille zero-day dans l’architecture de la plateforme, mais plutôt des suites d’infections malveillantes sur les appareils des employés, combiné à manque cruel de mise en place de l’authentification multi-facteurs (MFA) ».
Une des plateformes concernées, ownCloud, s’est fendue d’un billet de blog pour alerter ses utilisateurs. Elle rappelle qu’il ne s’agit pas d’une faille ni d’un piratage. Elle enjoint ses utilisateurs à activer la double authentification (ou authentification multi-facteurs) au plus vite si ce n’est pas déjà fait : « Des acteurs malveillants ont obtenu des identifiants utilisateurs via des logiciels malveillants de type infostealer installés sur les appareils des employés ». Sans double authentification, le pirate peut accéder au compte.
Ce rapport n’est qu’une goutte d’eau dans l’océan des manquements liés à la cybersécurité, mais il illustre bien les risques causés par un problème sur un compte. Si la double authentification n’est pas une protection absolue contre le piratage, c’est déjà une barrière de sécurité robuste et facile à mettre en œuvre, du moins si le service la propose.
La CNIL recommande évidemment d’utiliser l’authentification multifacteurs et va même plus loin. « En raison du grand nombre de violations intervenues l’an dernier [il était question de 2024, mais 2025 n’était pas mieux, ndlr] sur des bases de clients/prospects et usagers, la CNIL estime qu’un effort spécifique de sécurisation est nécessaire », expliquait-elle en avril dernier.
Ainsi, elle « renforcera dès 2026 sa politique de contrôle pour s’assurer de la mise en place de l’authentification multifacteur pour ces grandes bases de données. L’absence de cette mesure pourra justifier que soit initiée une procédure de sanction ».
Enfin, la Commission rappelle « que la mise en place d’une authentification multifacteur était déjà jugée en principe nécessaire au titre du RGPD pour des bases de données comprenant des données sensibles ou des données dont la violation exposerait les personnes à des risques importants (données bancaires et numéro de sécurité sociale notamment) ».
Google n’en finit pas de revoir sa gestion d’Android Open Source Project (alias AOSP). C’est la version open source (sous licence Apache 2.0) du système d’exploitation mobile utilisée par des fabricants et développeurs de ROM alternatives, comme LineageOS.
Google indique à Android Authority que la publication du code source se fera désormais deux fois par an, « au deuxième et au quatrième trimestre de chaque année ». Cela correspond au rythme de déploiement d’Android, avec une version majeure au deuxième trimestre et une mineure au quatrième.
Jusqu’à présent, la version AOSP était publiée « dans les jours suivant le déploiement de la mise à jour correspondante sur ses propres appareils mobiles Pixel », rappellent nos confrères. Désormais, Google va se garder une longueur d’avance.
Flock
L’annonce est confirmée sur cette page, avec un message pour les développeurs : « À partir de 2026, pour nous aligner sur notre modèle de développement stable et garantir la stabilité de la plate-forme pour l’écosystème, nous publierons le code source sur AOSP au deuxième et au quatrième trimestre. Pour créer et contribuer à AOSP, nous vous recommandons d’utiliser android-latest-release au lieu de aosp-main. La branche de fichier manifeste android-latest-release fera toujours référence à la version la plus récente envoyée à AOSP ».
Google précise à nos confrères que cela ne devrait rien changer pour les correctifs liés à la sécurité : « l’entreprise continuerait à publier chaque mois des correctifs de sécurité sur une branche dédiée uniquement à la sécurité pour les versions pertinentes du système d’exploitation, tout comme elle le fait aujourd’hui », affirme Android Authority. Pourtant, ce fonctionnement aussi a changé il y a quelques mois, au grand dam de LineageOS.
Il y a un peu moins d’un an, Google annonçait que le développement d’Android passait uniquement en interne, avec une conséquence visible : la version publique d’Android est toujours en retard sur la version interne. Google bascule de plus en plus dans un modèle où ses smartphones seront en avance sur les autres niveau logiciel.
Le CES est l’occasion pour Asus de dégainer son premier routeur Wi-Fi 8… enfin un « concept » plus exactement, pas encore un produit commercial. Broadcom continue de décliner sa gamme de puces pour le Wi-Fi, tandis que MediaTek occupe le terrain médiatique avec une annonce (vide). 2026 devrait être l’année des premières annonces de produits.
Depuis des années, les fabricants sont en avance sur la norme. Le Wi-Fi 8 n’est pas encore officiel que déjà les annonces pleuvent durant le CES de Las Vegas. Asus par exemple présente un « concept » de routeur en Wi-Fi 8 : le ROG NeoCore.
Asus partage une image, mais ne donne aucune caractéristique technique. Le fabricant se contente de déclarations du genre : « le Wi-Fi 8 ne consiste pas seulement à augmenter les débits – il s’agit de rendre chaque connexion plus intelligente et plus fiable », explique Tenlong Deng, vice-président chez Asus.
Alors que les routeurs de nouvelles générations sont souvent bardés d’antennes bien visibles, le ROG NeoCore n’en a aucune extérieure. Le fabricant affirme que « ses premiers routeurs domestiques WiFi 8 arriveront en 2026 ». L’entreprise propose plus de détails sur la technologie du Wi-Fi 8 sur cette page.
Des puces Wi-Fi 8 chez Broadcomm et MediaTek
Broadcomm de son côté annonce un APU BCM4918 ainsi que deux puces BCM6714 et BCM6719 ; tous avec le Wi-Fi 8 en ligne de mire. Le fabricant avait déjà présenté sa puce BCM6718 en octobre dernier, elle aussi en Wi-Fi 8. Des échantillons sont déjà disponibles pour certains clients triés sur le volet.
La BCM6714 propose 3 flux en 2,4 GHz (3×3) et 4 flux en 5 GHz (4×4), tandis que la BCM6719 est en 4×4 sur les deux bandes de fréquences. Les deux disposent d’un amplificateur de puissance sur les 2,4 GHz pour « réduire les composants externes et améliorer l’efficacité des ondes ». La BCM6718 prend pour sa part en charge trois bandes de fréquences (2,4, 5 et 6 GHz) en 4×4, mais sans amplificateur intégré.
MediaTek aussi répond présent à l’appel du Wi-Fi 8 avec sa famille Filogic 8000… et c’est à peu près tout. Le reste du communiqué parle des avantages et espoirs du Wi-Fi 8, pas des caractéristiques des futures puces de MediaTek, dont les premiers exemplaires « devraient être livrés aux clients plus tard cette année ».
Le Wi-Fi 8 fonctionne déjà (en labo), les nouveautés attendues
En octobre, TP-Link affirmait réaliser pour la première fois des échanges de données en Wi-Fi 8, via un prototype développé dans le cadre d’un partenariat industriel (sans précision supplémentaire).
Le Wi-Fi 8 ne devrait pas révolutionner les débits – même si certains parlent de 100 Gb/s, bien au-delà de ceux théoriques du Wi-Fi 7 (46 Gb/s) – mais augmenter grandement la fiabilité, notamment dans des conditions difficiles. Le Wi-Fi 8 est aussi connu sous la norme IEEE 802.11bn Ultra High Reliability (UHR).
« Le Wi-Fi 8 pourrait atteindre des débits théoriques proches de 100 Gb/s, mais sa priorité serait une expérience plus fluide et stable », affirmait TP-Link. « L’objectif de cette norme de nouvelle génération est d’améliorer l’expérience utilisateur en augmentant, non seulement la vitesse, mais aussi la fiabilité ». La latence devrait aussi être améliorée », expliquait HPE.
Qualcomm en parle comme « un tournant fondamental : il va au-delà des débits pour privilégier des performances fiables dans des conditions réelles et difficiles ». Le Wi-Fi proposera une « connectivité cohérente, à faible latence et presque sans perte, même dans des environnements (mobiles) très encombrés, sujets aux interférences ».
Rendez-vous en 2028 pour la finalisation, cette année pour les produits
L’été dernier, nous avions publié un tour d’horizon des attentes du Wi-Fi 8, avec par exemple la coordination multi-AP (points d’accès multiples) souvent mise en avant. Citons également des améliorations sur la gestion du spectre, avec « le fonctionnement dynamique du sous-canal DSO/l’accès au canal non principal NPCA ». La finalisation de la norme est attendue pour 2028.
Comme c’était déjà le cas pour les précédentes versions, des produits seront commercialisés bien avant, dès cette année selon les déclarations du jour d’Asus par exemple. Le programme de certification du Wi-Fi 7 est par exemple arrivé en janvier 2024… bien après les premiers produits sur le marché, basés sur des brouillons de la norme.
Lors du CES, AMD a présenté ses nouveautés qui n’ont pas grand chose de nouveau. Les Ryzen AI 400 sont des copies des 300, le Ryzen 7 9850X3D est une version plus rapide du 7 9800X3D et les Ryzen AI Max+ ont droit à un GPU plus rapide.
Après Intel qui a lancé ses Core Ultra Series 3 (Panther Lake), passons chez AMD avec les Ryzen AI 400 (Pro) alias Gorgon Point. Les processeurs sont construits autour de l’architecture Zen 5 (et sa déclinaison allégée 5c), déjà présente dans les Ryzen AI 300 (Strix Point)lancé en juin 2024. On retrouve aussi un NPU XDNA de 2ᵉ génération, là encore comme dans la série 300. La partie graphique ne change pas non plus avec du RDNA 3.5 (Radeon 8x0M).
Ryzen AI 400 : vous voyez les 300 ? Ben c’est pareil…
À référence identique, le nombre de cœurs est le même. Le Ryzen AI 9 465 par exemple a 10 cœurs, exactement comme le Ryzen 9 365. La répartition est identique avec 4x Zen 5 et 6x Zen 5c pour les deux CPU. Les fréquences aussi sont les mêmes : jusqu’à 5 GHz en mode Boost pour Zen 5, 3,3 GHz maximum pour les cœurs Zen 5c et 2 GHz en fréquence de base, aussi bien pour le Ryzen AI 9 365 que le 465.
Pour d’autres, seule la fréquence Boost change avec jusqu’à 5,2 GHz pour les Ryzen 9 AI HX 475 et 470 au lieu de 5,1 GHz pour les AI HX 375 et 370. Parfois, c’est la partie graphique qui est légèrement améliorée, comme le Ryzen AI 5 430 qui a une Radon 840M au lieu d’une 820M pour le AI 330, ou alors la fréquence du GPU est augmentée (3,1 GHz sur le AI 9 HX 475 au lieu de 2,9 GHz sur le 375 par exemple).
Il y a également un peu de changement sur le NPU dont la puissance de calcul peut désormais atteindre 60 TOPS.
Bref, rien de révolutionnaire, une simple petite mise à jour avec principalement un « 4 » à la place du « 3 ». Les premières machines avec un Ryzen AI de la série 400 sont attendues à partir de ce trimestre chez Acer, ASUS, Dell, HP, Gigabyte et Lenovo.
Deux nouveaux Ryzen AI Max+ avec un GPU plus performant
Deux nouvelles références Ryzen AI Max+ sont aussi annoncées : les 392 et 388. Cette gamme de processeurs ne dispose pour rappel que de cœurs Zen 5 (aucun cœur n’est en Zen 5c, moins performants mais plus économes). Le Ryzen AI Max+ 392 en a 12 comme le AI Max+ 390, tandis que le Ryzen AI Max+ 388 en a 8 comme le AI Max+ 385.
Contrairement à leur grand frère, ces deux nouveaux CPU ont une partie graphique Radeon 8060S avec 40 cœurs graphiques au lieu d’une 8050S avec seulement 32 cœurs, tandis que la fréquence gagne 100 MHz pour arriver à 2,9 GHz. AMD renforce donc la partie graphique de ses processeurs, déjà un point fort de cette gamme.
Le NPU est toujours à 50 TOPS. Là encore la disponibilité est prévue pour ce trimestre.
Sur le jeu, AMD enfonce le clou avec le Ryzen 7 9850X3D
Enfin, AMD annonce un Ryzen 7 9850X3D avec 8 cœurs Zen 5 et un 3D V-Cache de 2ᵉ génération de 96 Mo, pour un total de 104 Mo de mémoire cache sur le processeur. Il vient donc redonner un coup de jeune au Ryzen 7 9800X3D (qui a lui aussi 104 Mo de cache) avec une fréquence plus élevée de 5,6 GHz en boost (au lieu de 5,2 GHz), mais toujours à 4,7 GHz de base.
AMD annonce des performances « jusqu’à 27 % supérieures à celles de l’Intel Core Ultra 9 285K ». Le processeur est toujours sur socket AM5 et AMD promet aussi quelques pourcents de gain par rapport au Ryzen 7 9800X3D, comme on peut le voir dans le graphique ci-dessous comparant le Core Ultra 9 285K, le Ryzen 9800X3D et le 9850X3D.
Six AMD Ryzen AI Embedded P100
AMD pense aussi au monde de l’embarqué avec des AMD Ryzen AI Embedded P100 Series doté de 4 ou 6 cœurs Zen 5. Le NPU affiche 30 ou 50 TOPS, la connectivité est en 10 Gb/s, la DDR5 à 5 600 MT/s, etc. Le TDP varie entre 15 et 54 watts suivant les références.
Voici le détail des puces :
Lisa Su expose des dies : GPU MI455X et CPU Venice (Zen 6)
Enfin, AMD profite du CES pour parler un peu de ses prochains GPU pour serveurs et pour l’intelligence artificielle : les AMD Instinct. Il était notamment question de la série MI500 « prévue pour 2027 », qui devrait proposer « jusqu’à 1 000 fois plus de performances en AI que les GPU AMD Instinct MI300X introduits en 2023 ».
AMD présentait aussi son rack Helios, déjà annoncé en octobre dernier. Il comprend des processeurs AMD Epyc Venice avec la future architecture Zen 6 ainsi que des GPU Instincts MI455X. Lisa Lu présentait durant la conférence un (imposant) die du GPU de l’Instinct MI455X (le rectangle dans les photos ci-dessous) et un tout aussi imposant die du CPU Venice (le carré).
AMD annonce jusqu’à 2,9 ExaFLOPS de puissance de calcul (sans indiquer la précision) pour son rack Helios, avec 31 To de mémoire HBM4 et 4 600 cœurs CPU Zen 6. Pour la connectivité, AMD affiche le logo de l’Ultra Ethernet sur ses documents, sans plus de détails.
La version 1.0 de cette norme, qui se pose comme un concurrent de l’Infiniband de NVIDIA, a été mise en ligne au début de l’été 2025. Dans le comité directeur, on retrouve AMD, mais aussi Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta, Microsoft et Oracle. Google Cloud, NVIDIA, Qualcomm, Synopsys et Marvell (pour ne citer qu’eux) sont des membres du consortium.
Lorsque la CNIL parle des caméras « touristiques », il s’agit de celles utilisées par des communes pour « valoriser un territoire ». La Commission rappelle qu’elles « ne devraient pas permettre la collecte de données personnelles ».
Problème : « lors de contrôles, la CNIL a constaté qu’il était parfois possible de distinguer, sur les vidéos et photographies diffusées par les communes sur leurs sites web à des fins de promotion touristique, des personnes dans leur quotidien ainsi que des plaques d’immatriculation des véhicules dans le champ des caméras ».
La Commission explique que cela constitue un traitement de données personnelles et qu’il doit donc respecter le RGPD. Certaines communes ont fait valoir « que l’utilisation de ces caméras […] reposait sur la base légale de l’intérêt légitime ».
La CNIL n’est pas du même avis et parle d’un « traitement de données personnelles disproportionné au regard de sa finalité ». De plus, « ce type de dispositif ne permet pas aux personnes de s’opposer à cet enregistrement avant le recueil des images ». Les communes ciblées et les griefs précis ne sont pas indiqués.
Les caméras permettaient d’observer « des moments de vie personnels » comme ceux aux terrasses de bars, ou lors de manifestations sur la voie publique, mais aussi des moments « intimes » avec des caméras sur les entrées et fenêtres d’habitations par exemple. La Commission rappelle aussi qu’il existe des risques de « cambriolages, harcèlement, chantage, violences conjugales ».
La CNIL n’interdit pas les caméras touristiques, mais à condition qu’elles respectent la vie privée des personnes. Un exemple de bonnes et mauvaises pratiques est donné avec Notre-Dame à Paris :
Au CES, Qualcomm fait des annonces autour des ordinateurs portables avec ses deux nouvelles puces Snapdragon X2 Plus, des voitures (connectées) avec Snapdragon Digital Chassis et des robots avec Dragonwing IQ10.
Comme toujours avec le CES de Las Vegas, les annonces sont nombreuses du côté des fabricants de puces. On ouvre le bal avec Qualcomm et sa gamme de SoC Snapdragon X2 Plus, avec des cœurs Oryon de 3ᵉ génération.
Snapdragon X2 Plus : 6 ou 10 cœurs au choix, avec ou sans « Performance »
Le processeur vient donc se positionner en dessous des Snapdragon X2 Extreme et Elite annoncés en septembre dernier. Ils ont pour rappel eux aussi des cœurs Oryon de troisième génération : 18 jusqu’à 4,4 GHz pour la version Extreme, 18 ou 12 jusqu’à 4 GHz pour la version Elite.
La version Plus du Snapdragon X2 ne propose que six ou dix cœurs maximum, là encore jusqu’à 4 GHz. Qualcomm dispose de deux types de cœurs : les Prime (les plus rapides) et les Performance (moins énergivores).
La version du X2 Plus avec dix cœurs dispose de deux six cœurs Prime et de quatre cœurs Performances, tandis que la version à six cœurs laisse tomber les cœurs Performance pour n’avoir que des Prime. À voir les conséquences que cela aura, surtout sur l’autonomie des machines.
Voici notre tableau récapitulatif des SoC Qualcomm avec des cœurs Oryon de 3ᵉ génération :
Des ordinateurs Copilot+ arrivent, avec jusqu’à 80 TOPS pour l’IA
Pas de changement pour le NPU qui revendique une puissance de calcul de 80 TOPS sur des entiers en 8 bits. La LPDDR5x grimpe jusqu’à 9 523 MT/s (MegaTransferts par seconde) avec une capacité de 128 Go au maximum ; le bus est sur 128 bits, la bande passante de 152 Go/s.
Attention toutefois à la partie graphique sur laquelle Qualcomm ne donne que très peu d’informations (comme trop souvent) : il s’agit dans les deux cas d’un Adreno X2-45 cadencé à 1,7 GHz sur le Snapdragon X2 Plus avec dix cœurs, contre 0,9 GHz seulement sur la version six cœurs ; soit un rapport quasiment du simple au double…
Du classique pour le reste avec huit lignes PCIe 5.0, quatre lignes PCIe 4.0, de l’USB4 (40 Gb/s), du Wi-Fi 7 et Bluetooth 5.4 via le FastConnect 7800 System, de la 5G jusqu’à 10 Gb/s avec le modem Snapdragon X75, un ISP Spectra pour le traitement des images, etc. Tous les détails sont disponibles dans ce document (pdf).
Les nouveaux Snapdragon X2 Plus seront disponibles dans des PC estampillés Copilot+ durant le premier semestre de l’année. Ce sont pour rappel des portables avec au moins 40 TOPS pour le NPU. Les machines seront moins performantes que celles avec des SoC Snapdragon X2 Elite (et Extreme évidemment) : l’autonomie sera aussi à surveiller, surtout pour la version six cœurs.
Toujours dans le monde de l’automobile, mais plus particulièrement sur les fonctions d’aide à la conduite ADAS (Advanced Driver Assistance System), Qualcomm s’associe à ZF « pour fournir une solution ADAS de pointe et évolutive qui combine des capacités avancées de calcul et de perception de l’IA ».
L’autre gros morceau des annonces de Qualcomm concerne les robots avec la plateforme Qualcomm Dragonwing IQ10. Le constructeur parle du « cerveau du robot » avec un ensemble complet qui « intègre matériel, logiciel et IA ».
Qualcomm indique travailler avec plusieurs entreprises du secteur : Advantech, APLUX, AutoCore, Booster, Figure, Kuka Robotics, Robotec.ai et VinMotion « afin de proposer à grande échelle des robots ». Le robot VinMotion’s Motion 2 (présenté il y a une semaine) est exposé sur le stand de Qualcomm ; il est par contre équipé de la plateforme de la génération précédente, la Qualcomm Dragonwing IQ9.
Sur son site Transition2025.com, le nouveau maire de New-York, Zohran Mamdani, a publié fin décembre des invitations pour sa cérémonie d’investiture. L’événement s’est déroulé à Broadway, entre Liberty St. et Barclay Street (au niveau de l’hôtel de ville de New York, dans le sud de Manhattan).
Rien de bien surprenant, jusqu’à se rendre dans la liste des objets autorisés et interdits dans la foire aux questions. Du classique à première vue, avec en-cas et thermos de boissons autorisés, tandis que les armes, drones, boissons alcoolisées, drogues, bâtons… étaient interdits.
En fin de liste, deux produits ont tapé dans l’œil d’Adafruit (un revendeur bien connu dans le monde de la bidouille) : Raspberry Pi et Flipper Zero.
« Si les inquiétudes tournaient autour des interférences, de la perturbation des ondes ou du piratage, le document ne le précise pas. Il reste vague, citant quelques appareils et espérant que le message passe. La curiosité est désormais interdite », fustige Adafruit.
Alors que le reste de la liste comprend des catégories de produits (parapluies, stylos laser, drones…), ce n’est pas le cas pour le Raspberry Pi et le Flipper Zero. Le premier est un micro-ordinateur vendu quelques dizaines de dollars, le second une boite à outils principalement conçue pour des tests d’intrusion et/ou de cybersécurité.
Les usages des deux machines peuvent être détournés, mais comme n’importe quel autre produit du genre… et il en existe de nombreuses autres références chez d’autres fabricants. Sans compter les smartphones, dont certains peuvent aussi avoir ce genre de capacité.
« Si l’objectif était d’interdire « les appareils électroniques non identifiés », « les dispositifs d’interférence de signal » ou « les outils de piratage », la liste devrait l’indiquer clairement », indique enfin Adafruit. Le revendeur ajoute que « donner des noms de marque risque de créer de la confusion ».
Plusieurs de nos confrères (dont BleepingComputer) ont contacté le service presse de Zohran Mamdami, sans réponse pour le moment.
La Direction générale de la Sécurité intérieure (DGSI) publie depuis janvier 2025 des « Flash ingérence ». Il s’agit de présenter « des actions d’ingérence économique dont des sociétés françaises sont régulièrement victimes ».
Le 9ᵉ numéro date de décembre et porte sur « l’usage de l’intelligence artificielle dans le monde professionnel ». Le flash « évoque le cas de trois entreprises françaises ayant été confrontées à des dérives ou des comportements à risque associés ou permis par l’usage de l’IA ». Trois exemples sont donnés :
Des salariés d’une entreprise française stratégique ont utilisé un outil d’IA générative pour traduire des documents confidentiels
Une société délègue entièrement l’évaluation de ses partenaires commerciaux à un outil d’IA
Une entreprise française a été victime d’une tentative d’escroquerie par hypertrucage (deepfake) associant le visage et la voix de son dirigeant grâce à l’IA
Le numéro précédent portait sur les approches malveillantes sur les réseaux sociaux, avec là encore trois exemples :
Une start-up se voit proposer un investissement par un intermédiaire au profil douteux à la suite d’échanges sur un réseau social professionnel.
Un chercheur est approché sur un réseau social professionnel par un individu prétendant qu’une célébrité internationale souhaite financer ses travaux.
Après avoir créé un faux profil sur un réseau social professionnel, un individu parvient à obtenir des informations sensibles auprès de salariés d’une société.
Les flashs précédents portaient notamment sur l’absence de protection des logiciels à usage industriel, des incidents impliquant des chercheurs étrangers accueillis dans le cadre de programmes académiques officiels, sur le facteur humain (principal vecteur de compromission des systèmes d’information), sur l’utilisation d’outils numériques personnels à des fins professionnelles, sur les visites publiques de sites industriels, de sociétés ou de laboratoires, sur les risques d’atteinte à la réputation d’entreprises ou de laboratoires français évoluant à l’international, etc.
Aujourd’hui, les serveurs de Netatmo ont décidé de fêter la nouvelle année à leur manière, avec une panne. En conséquence, « les applications et le contrôle à distance ne sont pas disponibles ». C’est déjà la quatrième fois en cinq mois…
Les messages sont nombreux sur les réseaux sociaux : les serveurs Netatmo ne répondent plus. C’est également confirmé par les retours sur Downdetector, avec les premiers signalements aux alentours de 10 h et une montée en puissance jusqu’à la fin de la matinée. Cet après-midi aussi les serveurs semblent hors service. Cela tombe mal alors que la France est traversée par une vague de froid.
Sur la page dédiée à la gestion des incidents, Netatmo confirme et précise que ses « équipes travaillent actuellement à la résolution de l’incident afin que tout rentre dans l’ordre dans les meilleurs délais », sans plus de détail. Par contre, aucun message sur X ni réponse aux internautes pour le moment, que ce soit avec le compte officiel ou le compte support.
Le fabricant précise que « les applications et le contrôle à distance ne sont pas disponibles, mais le contrôle manuel et l’enregistrement des données continuent de fonctionner normalement », ces dernières seront donc disponibles quand la situation sera revenue à la normale.
« Toutes les fonctionnalités seront restaurées automatiquement, aucune action de votre part n’est nécessaire », ajoute le fabricant. Il précise aussi qu’une « partie des utilisateurs de Home + Control ne peuvent pas accéder à l’application ».
Comme le rapporte mac4ever, les applications affichent un message un peu plus précis : « vos produits continuent de fonctionner en autonomie même s’ils ne sont plus connectés : les Caméras enregistrent les événements, les Thermostats régulent le chauffage, les interrupteurs contrôlent les lumières… et vous retrouverez le contrôle total très bientôt ! ».
Selon certains, la situation semble revenir doucement à la normale. N’hésitez pas à nous faire part de vos retours si vous êtes concernés. Quoi qu’il en soit, Netatmo enchaine les pannes ces dernières semaines, avec un incident du même genre le 5 novembre, un autre le 29 octobre, le 27 septembre…
Cela relance encore une fois la question de la dépendance des produits connectés aux serveurs du fabricant. Nous en avions fait un édito il y a déjà plus de cinq ans… et la situation n’est pas franchement meilleure aujourd’hui.
30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.
En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.
En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).
667 millions d’adresses IPv6… par mm² !
La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.
4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.
Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».
La France en tête du taux d’utilisation d’IPv6 !
L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.
Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.
En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.
Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »
En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.
Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».
En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.
Cinq grandes étapes, la première d’ici 2 à 3 ans ?
L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :
IPv6 est activé par défaut sur la quasi-totalité des offres grand public
IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
Une part non négligeable des sites web sont hébergés en IPv6 uniquement
Une part non négligeable des FAI ne proposent plus d’IPv4
La majorité des sites abandonnent IPv4
La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.
Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.
Si vous vous demandez comment fonctionne Internet, nous avons pour rappel publié un long dossier sur le sujet :
Mise à jour du 6 janvier à 16h30. Steam a mis à jour ses chiffres, comme nous l’a fait remarquer un lecteur. La part de marché est désormais de 3,58 %, en hausse de 0,38 point sur un mois. Linux ne stagne donc pas en décembre, mais progresse plus qu’en novembre et quasiment autant qu’en octobre.
Les autres chiffres précédemment communiqués étaient également faux, SteamOS remonte à 26,32 % de parts de marché sur les systèmes Linux, suivi par Arch Linux à 9,54 % et Linux Mint à 7,85 %. Windows descend finalement à 94,23 %, en baisse de 0,56 point, tandis que MacOS gagne aussi du terrain à 2,18 % (+ 0,16 point).
Les chiffres actualisés de Steam sont disponibles par ici. Aucune explication sur les changements ne semble avoir été donnée.
Brief original du 2 janvier à 11h15. En octobre, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam (+ 0,37 point en un mois), la plateforme de jeux vidéo de Valve. Rappelons que, dans le même temps, Microsoft arrêtait le support de Windows 10, sauf en Europe avec un an supplémentaire.
En novembre, le système d’exploitation confirmait sa croissance avec 3,2 % de parts de marché. C’était donc une progression de 0,2 point, mais le score restait toujours sans commune mesure avec Windows, présent sur près de 94,79 % des machines des joueurs.
Les chiffres de décembre viennent de tomber et… Linux stagne avec 3,19 % de parts de marché, soit même une petite baisse de 0,01 point en un mois. Windows de son côté grimpe à 94,95 % (73 % pour Windows 11, 27 % pour Windows 10), les 1,86 % restant étant attribués à macOS.
SteamOS reste le système Linux le plus utilisé avec 20,4 % de part de marché, mais chute considérablement par rapport au mois de novembre avec 6 points de moins. Arch Linux est toujours en deuxième place avec 12,24 % et conforte sa position avec 2,27 points de plus en décembre. Il est suivi par CachyOS à 8,45 % au coude à coude avec Linux Mint 22.2 à 8,43 %.
Concernant les seules machines sous Linux, on retrouve un CPU AMD dans 72 % des cas, en hausse de plus de 5 points sur un mois. Par contre, sur l’intégralité des machines utilisant Steam, la part de marché d’AMD n’est que de 47,3 % (+ 4,7 points en un mois,+ 7 points depuis août).
Sur cette page dédiée aux différentes technologies de gravure de puces, TSMC indique désormais que la production en 2 nm « a commencé au quatrième trimestre 2025 comme prévu ». Il y a encore quelques jours, il était simplement précisé que cette technologie était « sur la bonne voie ».
Le fabricant taïwanais explique que sa gravure N2 (ou 2 nm) exploite la technologie des « transistors nanofeuilles de première génération, avec des progrès en termes de performance et de consommation d’énergie ». Selon l’entreprise, sa « technologie N2 est la plus avancée de l’industrie des semi-conducteurs, tant en termes de densité qu’en efficacité énergétique ».
TSMC propose une chronologie de ses différentes technologies. Avant le 2 nm, il y a eu le 3 nm en 2022, le 5 nm en 2020, le 7 nm en 2018, etc. L’entreprise parle aussi de l’avenir avec A16 pour cette année et A14 pour 2028. Comme chez Intel, le « A » signifie angström, une unité de mesure qui vaut 0,1 nanomètre.
« Comparé au procédé N2P de TSMC, la technologie A16 offre un gain de vitesse de 8 à 10 % avec la même tension Vdd, une réduction de la consommation d’énergie de 15 à 20 % à vitesse égale et une densité de puces jusqu’à 1,10 fois supérieure ».
Avec le passage à la technologie A14, TSMC prévoit « jusqu’à 15 % d’amélioration de la vitesse à consommation égale ou jusqu’à 30 % de consommation en moins à vitesse égale, ainsi qu’une hausse de plus de 20 % de la densité ».
Selon Wccftech (qui se base sur le média chinois Economic Daily News), TSMC « serait également en train d’accélérer la construction de son usine de 1,4 nm, ayant apparemment obtenu de meilleurs rendements grâce à sa lithographie de nouvelle génération ». L’entreprise pourrait se lancer plus tôt que prévu, dès 2027.
Rappelons enfin que parler de nm pour la finesse de gravure ne correspond pas à une réalité physique, mais marketing. Nous en parlions dans un #Nextquick récemment. La finesse de gravure est « devenue un argument marketing sans lien avec la taille réelle des éléments ou la densité de transistors ».
Quel est le profil typique d’un lecteur de Next ? Il passe la moitié de son temps sur fixe et l’autre sur mobile, principalement en Île-de-France. Mais, pour le reste, à quoi ressemble son navigateur, son thème, ses heures de visite ?
Sur Next, nous utilisons Matomo pour récupérer quelques statistiques sur vous, nos lecteurs et abonnés. En cette fin d’année, nous les partageons avec vous. L’ensemble des données qui suivent se basent sur l’année 2025. Nous gardons pour nous les données chiffrées précises sur les visiteurs et le nombre de pages vues, ainsi que sur le nombre d’abonnés (inutile donc de les demander).
Commençons par enfoncer des portes ouvertes : vous venez en très grande majorité d’Europe, de France et près d’un lecteur sur deux est de la région parisienne. Par contre, ce sont ceux de Provence-Alpes-Côte-d’Azur et de Normandie qui prennent le plus de temps puisque la durée moyenne des visites durent 50 % plus longtemps que celle des Parisiens.
Les deux cartes ci-dessous représentent la provenance des visiteurs (à gauche) et les durées de visites (à droite) :
Côté matériel, vous êtes autant fixe que mobile
Nous sommes quasiment à une parité parfaite entre ceux qui viennent depuis un ordinateur et ceux depuis un terminal mobile (smartphone ou tablette). Vous êtes quand même quelques milliers à venir depuis une télévision, quelques centaines depuis une console et même une petite dizaine depuis une enceinte/écran connectée (Alexa, Google Home…).
Lorsque la marque de l’appareil est connue (50 % des cas environ), le trio de tête est composé d’Apple (2/3 sur iPhone, 1/3 sur Mac), de Samsung et de Xiaomi. On retrouve ensuite Google et on descend rapidement dans le classement avec Huawei, OnePlus, OPPO, Motorola, Fairphone… Nous avons presque un millier de lecteurs sur des produits Microsoft (certainement des Surface), mais aussi quelques-uns sur Palm et Polaroid.
La résolution d’écran la plus utilisée est sans surprise 1 920 x 1 080 pixels (quasiment un visiteur sur cinq). On descend ensuite rapidement à moins de 10 % avec 2 560 x 1 440 pixels, puis les autres définitions sont toutes à moins de 5 %.
Team Windows, Linux ou MacOS ?
Qu’en est-il de la partie logicielle maintenant ? Sur l’année 2025, vous étiez 22 % sous Windows 10 et 12 % sous Windows 11 (oui, quasiment deux fois plus sous Windows 10). En l’espace d’un an, la part de Windows 10 a perdu plus de cinq points. Linux est un peu en dessous de 10 %, devant MacOS à 7 % environ. Attention, plus de 45 % des visites sont classées dans « autres ».
Sur l’ensemble des visiteurs dont le système est identifié, Windows (toutes versions confondues) représente 34 %, juste derrière Android à 37 %, contre 12 % pour iOS. Les machines sous Linux sont à 10 %, en petite hausse d’un point sur un an.
Nous avons également quelques irréductibles à qui nous souhaitons bon courage (et bonne mise à jour au plus vite pour certains) : ceux sous Android 2.0, Windows 2000, NT, 7, 8 et RT, MacOS 5, iOS 5.1, PlayStation Portable Vita, PlayStation 3.4, Fedora et Debian 6.5, GNU/Linux 3.13… Nous avons aussi des lecteurs sur des OS un peu plus exotiques comme SerenityOS, Haiku OS, Ordissimo OS, NetBSD…
Chrome ou Firefox ?
Passons du côté des navigateurs, avec Chrome qui arrive en tête avec environ 40 % (24 % sur le fixe et 16 % sur le mobile). Firefox est en bonne position avec 33 % (25 % sur le fixe et 8 % sur le mobile) et Safari troisième avec 8 %. On retrouve ensuite Edge, Brave, Opera, DuckDuckGo Privacy Browser, Vivaldi, Ecosia…
Dans le bas du classement, on découvre des navigateurs : Seznam Browser, SberBrowser, QupZilla (Falkon), Obigo, Cyberfox, Midori, kingpinbrowser, Iron Mobile, Wolvic, TenFourFox, Puffin, Basilisk, NetFront, etc.
Le moteur de rendu Blink (Chromium) est présent dans plus d’un navigateur sur deux, tandis que Gecko (Mozilla) est présent dans 32 % des cas. Safari est aux alentours de 13 %.
Vous surfez du côté de la lumière ou de l’obscurité ?
Puisque nous sommes sur des questions de rendu graphique, c’est le bon moment pour faire un point sur les thèmes de Next. Mettons fin à l’insoutenable suspense : qui est le meilleur entre Dracula et Giga Noir ? C’est Giga Noir, mais avec une courte avance. Comparer avec Biafine n’aurait aucun sens puisque c’est le thème par défaut.
Ce qu’on peut toutefois noter, c’est que passer à un thème sombre est un chemin avec assez peu de retour en arrière. Sur l’ensemble des lecteurs qui ont testé Dracula ou Giga Noir, seuls 18 % ont repris le chemin de la lumière.
Quand venez-vous sur Next ?
Les lecteurs de Next ne sont pas très matinaux (ce qui ne les empêche pas de répondre présents dans les commentaires à toutes heures du jour et de la nuit). L’audience est plus importante en semaine que le week-end, avec une journée un peu supérieure aux autres : le mardi.
La courbe des visites suivant l’heure de la journée monte fortement à partir de 7/8 h, redescend légèrement à midi, puis descend progressivement en fin de journée, à partir de 19 h. Pas de doute, une bonne partie d’entre vous nous consulte depuis leur travail.
Comment arrivez-vous sur Next ?
Une statistique fait de Next un ovni dans le paysage médiatique : plus de 50 % des lecteurs arrivent directement sur Next. Les moteurs de recherche comptent pour 40 %, les réseaux sociaux et les sites externes se partagent le reste.
Sur la partie réseaux sociaux, le premier pourvoyeur est Reddit, suivi par LinkedIn, Twitter, Bluesky et Facebook. Attention néanmoins à prendre ces chiffres avec des pincettes car une partie importante de la provenance du trafic (et c’est en croissance) est masquée.
Next ne réalise pas de campagne promotionnelle sur les réseaux (voire c’est pire puisque nos contenus n’étaient même plus partagés automatiquement pendant un temps). À l’opposé, nos principaux liens sortants vont vers Wikipédia, YouTube et GitHub.
Un mot sur les recherches internes : cryptographie arrive en tête, flock en seconde position et linux en troisième. Cela correspond finalement assez bien à Next il faut bien l’avouer
Et le reste ? La publicité ? Le tracking ?
Mais ? Pas de statistiques sur les cookies, le tracking, les publicités ? Non, tout simplement car Next ne suit pas à la culotte ses lecteurs, qu’ils soient abonnés ou non, et n’affiche aucune publicité d’aucune forme (y compris affiliation ou sponsorisation), que vous soyez abonnés ou non.
Depuis peu, l’abonnement Next vous permet aussi de sauvegarder vos données, en France, sur des serveurs gérés en interne par moji. La bêta est pour le moment fermée, mais elle va rouvrir au début de l’année ! On vous propose même un tuto pour sauvegarder vos données (ici ou ailleurs).