Vue lecture

☕️ Noms, emails, adresses IP… le nouveau site de Sarah Knafo était une véritable passoire

Ce midi, Clément Domingo (alias SaxX sur les réseaux sociaux) explique, capture d’écran à l’appui, que « le site internet de l’euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! ».

🚨🔴 Élections Municipales – Le site internet de l'euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! 😬

Attention aux sites internet "vibecodé"… qui exposent/exposeront les données personnelles des… pic.twitter.com/S6pojT781V

— SaxX ¯\_(ツ)_/¯ (@_SaxX_) January 9, 2026

1h30 plus tard, CheckNews confirme. En quelques clics, nos confrères ont « pu constater que ces données privées étaient effectivement accessibles ce vendredi midi. Parmi les 607 contributions enregistrées, nous avons pu distinguer 458 mails uniques, 437 adresses IP, et 187 numéros de téléphone renseignés ».

Lorsque SaxX a publié son message sur X, la faille était toujours donc présente, permettant ainsi à n’importe qui de récupérer les données. D’ailleurs, sur Breachforum, on retrouve déjà des publications à ce sujet. Un des membres « s’amuse » d’ailleurs de la situation : « Ce n’est pas une divulgation responsable, tu es un pirate informatique, SaxX ! Bienvenue du côté obscur ».

La coupe est pleine ? Peut être pas… selon Seblatombe, toujours sur X : « Pire encore, les cartes et photos d’identités apparaissent en clairs dans le code. Les photos ne sont pas demandées par le site. Elles sont publiées de manière volontaire par certaines personnes ayant rédigé un commentaire. Certains commentaires n’en contiennent aucune, tandis que d’autres en affichent », explique-t-il.

D’après nos constatations, il y a une petite vingtaine de photos, dont une seule avec une pièce d’identité tronquée. Pour le reste, ce sont des photos de la ville de Paris, de personnes… Il y a aussi un chien et des poubelles.

Pire encore, les cartes et photos d'identités apparaissent en clairs dans le code.. https://t.co/LQyKbJ8TaG pic.twitter.com/3HdagY1vBM

— Seb (@seblatombe) January 9, 2026

CheckNews a aussi repéré un même email « utilisé jusqu’à 20 fois, avec des pseudonymes différents ». Des propositions étaient aussi associées à un email de Sarah Knafo, mais cette dernière affirme à nos confrères qu’elle n’est pas à l’origine des messages. Dans ce genre de formulaire, il est possible d’indiquer n’importe quel email pour rappel.

La principale intéressée affirme à nos confrères avoir « corrigé » l’erreur. Le site participatif Paris à cœur ouvert de la candidate du parti d’extrême droite Reconquête fondé par son compagnon Eric Zemmour affiche désormais une « information importante » : « L’ultra gauche n’aime pas la démocratie et tente de pirater le site ». Rappelons qu’il n’y a a priori pas de piratage ici puisque les données étaient lisibles directement depuis la console des navigateurs.

La première ligne de la politique de confidentialité du site affirme que « Sarah Knafo pour Paris (ci-après, « Nous »), s’engage, en tant que responsable du traitement de vos Données Personnelles, à protéger votre vie privée ».

Dans la même journée, ce site de Sarah Knafo faisait l’objet d’un signalement à la procureure de la République par le sénateur Ian Brossat : « À peine en ligne, le site participatif de Mme Knafo est déjà un déferlement de propos racistes, y compris d’appels au meurtre. Le racisme n’est pas une opinion. C’est un délit », indique-t-il sur X, avec une copie de son signalement.

Check News parlait de 607 contributions à 13h30, il y en a 634 à l’heure actuelle. Mais, pour le moment, la page des contributions n’affiche plus que l’« information importante ».

  •  

☕️ Noms, emails, adresses IP… le nouveau site de Sarah Knafo était une véritable passoire

Ce midi, Clément Domingo (alias SaxX sur les réseaux sociaux) explique, capture d’écran à l’appui, que « le site internet de l’euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! ».

🚨🔴 Élections Municipales – Le site internet de l'euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! 😬

Attention aux sites internet "vibecodé"… qui exposent/exposeront les données personnelles des… pic.twitter.com/S6pojT781V

— SaxX ¯\_(ツ)_/¯ (@_SaxX_) January 9, 2026

1h30 plus tard, CheckNews confirme. En quelques clics, nos confrères ont « pu constater que ces données privées étaient effectivement accessibles ce vendredi midi. Parmi les 607 contributions enregistrées, nous avons pu distinguer 458 mails uniques, 437 adresses IP, et 187 numéros de téléphone renseignés ».

Lorsque SaxX a publié son message sur X, la faille était toujours donc présente, permettant ainsi à n’importe qui de récupérer les données. D’ailleurs, sur Breachforum, on retrouve déjà des publications à ce sujet. Un des membres « s’amuse » d’ailleurs de la situation : « Ce n’est pas une divulgation responsable, tu es un pirate informatique, SaxX ! Bienvenue du côté obscur ».

La coupe est pleine ? Peut être pas… selon Seblatombe, toujours sur X : « Pire encore, les cartes et photos d’identités apparaissent en clairs dans le code. Les photos ne sont pas demandées par le site. Elles sont publiées de manière volontaire par certaines personnes ayant rédigé un commentaire. Certains commentaires n’en contiennent aucune, tandis que d’autres en affichent », explique-t-il.

D’après nos constatations, il y a une petite vingtaine de photos, dont une seule avec une pièce d’identité tronquée. Pour le reste, ce sont des photos de la ville de Paris, de personnes… Il y a aussi un chien et des poubelles.

Pire encore, les cartes et photos d'identités apparaissent en clairs dans le code.. https://t.co/LQyKbJ8TaG pic.twitter.com/3HdagY1vBM

— Seb (@seblatombe) January 9, 2026

CheckNews a aussi repéré un même email « utilisé jusqu’à 20 fois, avec des pseudonymes différents ». Des propositions étaient aussi associées à un email de Sarah Knafo, mais cette dernière affirme à nos confrères qu’elle n’est pas à l’origine des messages. Dans ce genre de formulaire, il est possible d’indiquer n’importe quel email pour rappel.

La principale intéressée affirme à nos confrères avoir « corrigé » l’erreur. Le site participatif Paris à cœur ouvert de la candidate du parti d’extrême droite Reconquête fondé par son compagnon Eric Zemmour affiche désormais une « information importante » : « L’ultra gauche n’aime pas la démocratie et tente de pirater le site ». Rappelons qu’il n’y a a priori pas de piratage ici puisque les données étaient lisibles directement depuis la console des navigateurs.

La première ligne de la politique de confidentialité du site affirme que « Sarah Knafo pour Paris (ci-après, « Nous »), s’engage, en tant que responsable du traitement de vos Données Personnelles, à protéger votre vie privée ».

Dans la même journée, ce site de Sarah Knafo faisait l’objet d’un signalement à la procureure de la République par le sénateur Ian Brossat : « À peine en ligne, le site participatif de Mme Knafo est déjà un déferlement de propos racistes, y compris d’appels au meurtre. Le racisme n’est pas une opinion. C’est un délit », indique-t-il sur X, avec une copie de son signalement.

Check News parlait de 607 contributions à 13h30, il y en a 634 à l’heure actuelle. Mais, pour le moment, la page des contributions n’affiche plus que l’« information importante ».

  •  

Outil Next : comparez votre conso réelle d’électricité à 70 forfaits du marché

De quoi largement rentabiliser votre abo à Next !
Outil Next : comparez votre conso réelle d’électricité à 70 forfaits du marché

C’est le bon moment pour changer de fournisseur d’électricité. Les prix ont baissé et on trouve des offres avec jusqu’à 25 % de réduction sur le tarif réglementé. Comme ce n’est pas toujours facile de comparer les offres, Next propose un outil taillé sur mesure pour que vous puissiez trouver la meilleure offre en fonction de votre consommation réelle.

L’électricité fait partie des indispensables de la vie quotidienne. La quasi-totalité des foyers dispose d’un abonnement à un fournisseur d’électricité, que ce soit via des offres réglementées d’EDF (les fameux tarifs bleus) ou chez d’autres fournisseurs avec des forfaits… plus ou moins exotiques.

Changer est simple comme bonjour, toutes les offres sont sans engagement !

Un rappel important d’Enedis : « Avec la libéralisation du marché de l’énergie en 2017 et la loi NOME 2010 portant sur la nouvelle organisation du marché de l’électricité, tout particulier peut résilier son contrat d’électricité, à tout moment, peu importe la raison, et cela, sans frais. Tous les contrats d’énergie sont donc sans engagement ».

Vous pouvez donc faire jouer la concurrence sans crainte et partir quand bon vous semble. Lors du changement, vous n’avez pas à résilier votre ancien forfait, c’est le nouveau fournisseur qui s’en occupe pour vous. Si vous voyez des durées d’engagement, c’est que le fournisseur s’engage à maintenir ses prix pendant un certain temps (généralement de 1 à 3 ans).

Ce n’est pas facile de s‘y retrouver entre les forfaits avec un tarif unique du kWh tout au long de la journée, ceux avec une différence entre les heures creuses et pleines, ainsi que la multitude d’offres aux conditions particulières en fonction de la saison, du jour de la semaine, de jours précis, etc.

Next vous propose une liste détaillée de 70 forfaits

Next vous propose une petite application (intégrée dans cette actualité) permettant de comparer environ 70 forfaits provenant d’une douzaine de fournisseurs différents. Vous pouvez non seulement comparer les offres les unes aux autres, mais surtout les mettre en concurrence face à votre consommation réelle.

Voici un exemple :

C’est là tout l’intérêt de ce comparateur, car une offre intéressante pour un foyer ne le sera pas forcément pour un autre. Cet outil permet aussi d’estimer les économies réelles attendues. Tempo est un exemple parfait : six prix différents du kWh, dont des jours rouges où le tarif en journée explose littéralement.

Tempo peut être très intéressant pour celui qui fait attention, mais dans quelle proportion et quelles sont les économies ? Au final, le jeu en vaut-il la chandelle ? Next vous permet d’avoir une réponse précise à cette question, avec un traitement local de vos données !

Nous avons fait le tour de quasiment 70 forfaits d’électricité, en ajoutant à chaque fois le prix du kWh, les règles de calculs, les jours particuliers, etc. Pour Tempo par exemple, les jours blancs et rouges sont précisés.

Notre liste de début janvier est disponible ici ; vous pouvez l’importer dans l’application et l’utiliser comme bon vous semble. Vous pouvez la mettre à jour, modifier ou ajouter des forfaits, etc. Next ne la maintiendra pas à jour sur une base régulière, mais l’application sera toujours utilisable et une fonction d’export est aussi présente pour partager des configurations de forfaits ; si la communauté le souhaite, elle peut donc faire vivre cette liste.

À vous de jouer : modifiez, créez, partagez des listes de forfaits

Pour chaque forfait, il est possible de préciser des informations basiques comme le nom, le fournisseur, des URLs et le montant de l’abonnement. Pour le prix du kWh, la tarification fixe et HC/HP (heure creuse et heure pleine) est disponible, mais notre comparateur propose aussi un mode « avancé » avec des conditions multiples.

Chaque règle peut s’appliquer à une ou plusieurs plages horaires en fonction des jours de la semaine et des mois de l’année, en fonction de jours précis, etc. Vous pouvez ajouter une multitude de règles à un même forfait, certaines plus alambiquées que d’autres…

Par contre, cela peut rapidement devenir une usine à gaz, nous avons donc ajouté une option pour « vérifier la couverture ». Elle regarde pour chaque heure et jour de l’année s’il n’y a pas de chevauchement ou de manque. Elle affiche une alerte le cas échéant.

Si vous définissez des jours précis (par exemple les jours Blancs et Rouges de Tempo), ce sont des exceptions qui prennent le dessus sur les tarifs applicables le reste de l’année. Si vous créez ou modifiez des forfaits, pensez à lancer une vérification, on ne sait jamais…

Récupérez votre consommation et trouvez l’offre la plus adaptée

Pour commencer, il faut récupérer votre relevé de consommation horaire. Le site Enedis ne propose qu’une semaine de téléchargement, mais il est possible d’automatiser les téléchargements pour contourner le problème. Nous avons mis à jour notre script avec le passage en API v2 côté Enedis.

Toujours dans l’idée de vous simplifier la vie, nous avons aussi développé avec Claude Code une extension pour Chrome et Firefox afin de simplifier le processus. Une fois l’extension installée, rendez-vous sur le site Enedis, connectez-vous et allez sur la « home ». L’extension devrait récupérer toute seule les identifiants nécessaires au téléchargement. Ils sont ensuite gardés dans le local storage du navigateur.


Il reste 58% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

[Test] Chargeurs USB Amazon Basics de 20 et 63 watts : des alternatives à moins de 20 € ?

Simple, Basics…
[Test] Chargeurs USB Amazon Basics de 20 et 63 watts : des alternatives à moins de 20 € ?

Amazon vend sous sa propre marque Basics des chargeurs à moins de 20 euros. Nous en avons acheté deux : 20 watts pour le premier, jusqu’à 63 watts pour le second (avec deux ports USB). Promesses tenues ? Dans de bonnes conditions ?

Amazon Basics est une gamme de produits lancée il y a déjà plus de 15 ans par le géant américain de la vente en ligne. Une « marque de distributeur », comme il en existe plein dans la grande distribution. Aujourd’hui, on y retrouve de tout, des ustensiles de cuisine aux jouets pour enfants et bébés, en passant par du linge de maison, des piles et donc des chargeurs USB.

Il s’agit généralement de produits d’entrée de gamme, qui sont vendus moins chers que des équivalents siglés de « marques » ayant pignon sur rue. Chez Amazon, l’emballage des Basics se réduit souvent à sa plus simple expression ; les produits sont régulièrement mis en avant dans la boutique en ligne.

Nous avons acheté deux produits que nous passons à la moulinette de notre protocole de test. Ils viennent donc rejoindre les chargeurs d’autres marques déjà passés entre nos mains : Ugreen, Anker et Belkin, sans compter les « no-name » vendus quelques euros sur des marketplaces.

Amazon Basics 20 W USB-C Wall Charger : 12 euros, 20 watts et 65 °C


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

IA : l’Autorité de la concurrence s’autosaisit sur les chatbots et l’e-commerce agentique

Toujours pas d’agent Smith ?
IA : l’Autorité de la concurrence s’autosaisit sur les chatbots et l’e-commerce agentique

Cette année, l’Autorité de la concurrence va rendre un avis sur les agents conversationnels, et notamment les conséquences pour l’e-commerce via des IA. Une révolution à venir qui nécessite des adaptations aussi bien côté revendeurs que fournisseurs de services et des solutions de paiement.

Après le cloud et l’IA générative, l’Autorité de la concurrence s’autosaisit d’un nouveau dossier, dans le prolongement des précédents : les agents conversationnels. Pour le dire plus simplement, on parle des « chatbots » tels que ChatGPT d’OpenAI, Claude d’Anthropic ou encore Le Chat de Mistral, pour ne citer que ces trois-là.

Ne pas confondre chatbot et agents conversationnels

Attention, précise l’Autorité, à ne pas amalgamer tous les chatbots. Son avis du jour ne concerne que les « agents conversationnels de type ChatGPT », pas l’ensemble des chatbots. En effet, ceux « qui gèrent les interactions avec des clients à l’aide d’un arbre de décision ne faisant pas nécessairement appel à l’intelligence artificielle » sont laissés de côté. De même que les « assistants virtuels fondés sur l’IA générative, comme Siri d’Apple, Alexa d’Amazon ».

L’Autorité de la concurrence dresse le portrait du secteur, qui s’organise autour de quelques grands acteurs : « ChatGPT d’OpenAI, serait le premier outil conversationnel avec 21,6 millions de visiteurs uniques au mois de septembre 2025. Derrière lui se trouverait Google Gemini (2,8 millions), Le « Chat » de Mistral AI (1,5 million), Perplexity (1,3 million), Microsoft Copilot (1 million) ».

On parle ici d’agents conversationnels « capables de comprendre le langage naturel, de répondre à des questions, de générer du texte, d’expliquer du code ou encore de créer des contenus visuels ». C’est un secteur « en pleine effervescence », selon l’Autorité.

Les acteurs cherchent à diversifier les possibilités et à monétiser

Dans le précédent dossier sur l’IA générative, l’Autorité s’est déjà penchée sur la base des agents conversationnels – les fameux modèles de fondation ; ce n’est donc pas l’objet de l’autosaisie du jour. Les entreprises derrière ces agents conversationnels « cherchent à diversifier les possibilités d’utilisation »… et s’intéressent surtout aux possibilités de monétisation « afin que ces services deviennent rentables ». Actuellement, les entreprises d’IA dépensent des milliards de dollars comme des petits pains.

Dans son enquête, l’Autorité va donc s’intéresser à plusieurs thématiques : l’intégration de la publicité (modalités d’affichage et conséquence sur le modèle économique), l’intégration des agents dans les services existants (effets de levier et autoréférence), car ces agents sont « mis en œuvre par des acteurs dominants », les partenariats et enfin la transformation des agents conversationnels en plateformes.

Les agents ne sont pas simplement des interfaces de questions et réponses, ils « tendent à devenir de véritables plateformes, permettant aux utilisateurs d’accéder directement à des services tiers sans quitter la fenêtre de conversation ». Une fonction qui tend à se développer avec les agents d’IA, c’est-à-dire des IA capables « d’agir en votre nom », pour reprendre une citation de Sundar Pichai (patron de Google) et d’interagir entre elles.

Des agents toujours plus présents et avec davantage « d’autonomie »

Une norme ouverte est en train de se développer à ce sujet : MCP pour Model Context Protocol. OpenAI saute les deux pieds dedans et propose même aux développeurs d’intégrer leurs applications directement dans ChatGPT. Pour prendre le contrôle sur le web, les sociétés développent leurs propres navigateurs (OpenAI et Perplexity) ou bien proposent des extensions qui peuvent prendre le contrôle du navigateur (c‘est le cas d’Anthropic).

L’Autorité consacre d’ailleurs une partie de son communiqué à la question du (e-)commerce agentique. Non seulement les « éditeurs déploient des efforts importants pour développer des agents accompagnant les utilisateurs dans leur parcours d’achat », mais de manière plus générale « c’est tout l’écosystème de la vente en ligne qui pourrait devoir s’adapter à l’irruption et au développement du commerce agentique ».

Contrairement au sujet du cloud où l’Autorité avait bien pris son temps avant de s’autosaisir, elle est cette fois-ci bien plus réactive. Des agents d’IA et notamment pour de l’e-commerce, sont certes déjà une réalité, mais nous sommes encore au début de cette technologie.

L’Autorité va par contre laisser de côté tout un pan du sujet : « la relation entre les agents conversationnels et les moteurs de recherche ne fait pas partie du champ de l’avis ». Pourtant, ces agents sont de plus en plus utilisés comme moteur de recherche, avec des enjeux importants sur la diversité des sources. En plus du bien connu SEO (Search Engine Optimization), le GEO (Generative Engine Optimization) a largement le vent en poupe. Dommage, le sujet mériterait pourtant de s’y attarder.

Comme toujours en pareille situation, l’Autorité de la concurrence lancera prochainement une consultation publique, avant de rendre son avis dans le courant de l’année. « Les observations des parties prenantes viendront nourrir les travaux de l’Autorité ».

  •  

IA : l’Autorité de la concurrence s’autosaisit sur les chatbots et l’e-commerce agentique

Toujours pas d’agent Smith ?
IA : l’Autorité de la concurrence s’autosaisit sur les chatbots et l’e-commerce agentique

Cette année, l’Autorité de la concurrence va rendre un avis sur les agents conversationnels, et notamment les conséquences pour l’e-commerce via des IA. Une révolution à venir qui nécessite des adaptations aussi bien côté revendeurs que fournisseurs de services et des solutions de paiement.

Après le cloud et l’IA générative, l’Autorité de la concurrence s’autosaisit d’un nouveau dossier, dans le prolongement des précédents : les agents conversationnels. Pour le dire plus simplement, on parle des « chatbots » tels que ChatGPT d’OpenAI, Claude d’Anthropic ou encore Le Chat de Mistral, pour ne citer que ces trois-là.

Ne pas confondre chatbot et agents conversationnels

Attention, précise l’Autorité, à ne pas amalgamer tous les chatbots. Son avis du jour ne concerne que les « agents conversationnels de type ChatGPT », pas l’ensemble des chatbots. En effet, ceux « qui gèrent les interactions avec des clients à l’aide d’un arbre de décision ne faisant pas nécessairement appel à l’intelligence artificielle » sont laissés de côté. De même que les « assistants virtuels fondés sur l’IA générative, comme Siri d’Apple, Alexa d’Amazon ».

L’Autorité de la concurrence dresse le portrait du secteur, qui s’organise autour de quelques grands acteurs : « ChatGPT d’OpenAI, serait le premier outil conversationnel avec 21,6 millions de visiteurs uniques au mois de septembre 2025. Derrière lui se trouverait Google Gemini (2,8 millions), Le « Chat » de Mistral AI (1,5 million), Perplexity (1,3 million), Microsoft Copilot (1 million) ».

On parle ici d’agents conversationnels « capables de comprendre le langage naturel, de répondre à des questions, de générer du texte, d’expliquer du code ou encore de créer des contenus visuels ». C’est un secteur « en pleine effervescence », selon l’Autorité.

Les acteurs cherchent à diversifier les possibilités et à monétiser

Dans le précédent dossier sur l’IA générative, l’Autorité s’est déjà penchée sur la base des agents conversationnels – les fameux modèles de fondation ; ce n’est donc pas l’objet de l’autosaisie du jour. Les entreprises derrière ces agents conversationnels « cherchent à diversifier les possibilités d’utilisation »… et s’intéressent surtout aux possibilités de monétisation « afin que ces services deviennent rentables ». Actuellement, les entreprises d’IA dépensent des milliards de dollars comme des petits pains.

Dans son enquête, l’Autorité va donc s’intéresser à plusieurs thématiques : l’intégration de la publicité (modalités d’affichage et conséquence sur le modèle économique), l’intégration des agents dans les services existants (effets de levier et autoréférence), car ces agents sont « mis en œuvre par des acteurs dominants », les partenariats et enfin la transformation des agents conversationnels en plateformes.

Les agents ne sont pas simplement des interfaces de questions et réponses, ils « tendent à devenir de véritables plateformes, permettant aux utilisateurs d’accéder directement à des services tiers sans quitter la fenêtre de conversation ». Une fonction qui tend à se développer avec les agents d’IA, c’est-à-dire des IA capables « d’agir en votre nom », pour reprendre une citation de Sundar Pichai (patron de Google) et d’interagir entre elles.

Des agents toujours plus présents et avec davantage « d’autonomie »

Une norme ouverte est en train de se développer à ce sujet : MCP pour Model Context Protocol. OpenAI saute les deux pieds dedans et propose même aux développeurs d’intégrer leurs applications directement dans ChatGPT. Pour prendre le contrôle sur le web, les sociétés développent leurs propres navigateurs (OpenAI et Perplexity) ou bien proposent des extensions qui peuvent prendre le contrôle du navigateur (c‘est le cas d’Anthropic).

L’Autorité consacre d’ailleurs une partie de son communiqué à la question du (e-)commerce agentique. Non seulement les « éditeurs déploient des efforts importants pour développer des agents accompagnant les utilisateurs dans leur parcours d’achat », mais de manière plus générale « c’est tout l’écosystème de la vente en ligne qui pourrait devoir s’adapter à l’irruption et au développement du commerce agentique ».

Contrairement au sujet du cloud où l’Autorité avait bien pris son temps avant de s’autosaisir, elle est cette fois-ci bien plus réactive. Des agents d’IA et notamment pour de l’e-commerce, sont certes déjà une réalité, mais nous sommes encore au début de cette technologie.

L’Autorité va par contre laisser de côté tout un pan du sujet : « la relation entre les agents conversationnels et les moteurs de recherche ne fait pas partie du champ de l’avis ». Pourtant, ces agents sont de plus en plus utilisés comme moteur de recherche, avec des enjeux importants sur la diversité des sources. En plus du bien connu SEO (Search Engine Optimization), le GEO (Generative Engine Optimization) a largement le vent en poupe. Dommage, le sujet mériterait pourtant de s’y attarder.

Comme toujours en pareille situation, l’Autorité de la concurrence lancera prochainement une consultation publique, avant de rendre son avis dans le courant de l’année. « Les observations des parties prenantes viendront nourrir les travaux de l’Autorité ».

  •  

Rubin : NVIDIA veut refroidir ses baies avec de « l’eau chaude »… et jette un froid

 Ça (tu)Rubin(e) ?
Rubin : NVIDIA veut refroidir ses baies avec de « l’eau chaude »… et jette un froid

Pour sa nouvelle baie avec des GPU Rubin, NVIDIA affirme qu’il est possible de refroidir « ce supercalculateur avec de l’eau chaude. C’est incroyablement efficace ». Une annonce qui a fait trembler le cours de bourse de certains fabricants de systèmes de refroidissement. Pourtant, NVIDIA avait déjà laissé entendre la même chose avec la génération actuelle de GPU, Blackwell. Explications.

Lors du CES de Las Vegas, NVIDIA a multiplié les annonces avec des dizaines de communiqués, aussi bien sur les modèles d’IA, que sur les voitures autonomes, les jeux et les GPU. La plateforme (Vera) Rubin était au cœur des annonces, avec un GPU de nouvelle génération.

Les caractéristiques techniques sont impressionnantes avec pas moins de 336 milliards de transistors par puce et des performances jusqu’à 5x supérieures par rapport à Blackwell, qui était déjà largement au-dessus de la précédente génération. La question est maintenant de savoir comment va se passer le refroidissement d’un tel « monstre ».

« Nous refroidissons ce supercalculateur avec de l’eau chaude »

Lors de sa keynote, Jensen Huang (CEO de NVIDIA) a évidemment présenté sa baie équipée des nouveaux GPU. Il a aussi parlé du refroidissement et notamment du watercooling avec de l’eau à 45 °C. À cette température, « un water chiller n’est pas nécessaire dans le datacenter. En gros, nous refroidissons ce supercalculateur avec de l’eau chaude. C’est incroyablement efficace ».


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ ownCloud, Nextcloud… : les vols de données se multiplient, activez la double authentification

Dans un rapport pour Infostealers, la société spécialisée en cybersécurité Hudson Rock explique qu’un pirate est « en train de mettre aux enchères des données exfiltrées des portails de partage de fichiers d’environ 50 grandes entreprises mondiales ». Le pirate est entré dans des applications comme ShareFile, OwnCloud et Nextcloud qui permettent de stocker et partager des fichiers. Il n’avait plus qu’à se servir.

Le rapport explique que « ces défaillances catastrophiques de sécurité n’étaient pas le résultat d’exploitation de faille zero-day dans l’architecture de la plateforme, mais plutôt des suites d’infections malveillantes sur les appareils des employés, combiné à manque cruel de mise en place de l’authentification multi-facteurs (MFA) ».

Une des plateformes concernées, ownCloud, s’est fendue d’un billet de blog pour alerter ses utilisateurs. Elle rappelle qu’il ne s’agit pas d’une faille ni d’un piratage. Elle enjoint ses utilisateurs à activer la double authentification (ou authentification multi-facteurs) au plus vite si ce n’est pas déjà fait : « Des acteurs malveillants ont obtenu des identifiants utilisateurs via des logiciels malveillants de type infostealer installés sur les appareils des employés ». Sans double authentification, le pirate peut accéder au compte.

Ce rapport n’est qu’une goutte d’eau dans l’océan des manquements liés à la cybersécurité, mais il illustre bien les risques causés par un problème sur un compte. Si la double authentification n’est pas une protection absolue contre le piratage, c’est déjà une barrière de sécurité robuste et facile à mettre en œuvre, du moins si le service la propose.

La CNIL recommande évidemment d’utiliser l’authentification multifacteurs et va même plus loin. « En raison du grand nombre de violations intervenues l’an dernier [il était question de 2024, mais 2025 n’était pas mieux, ndlr] sur des bases de clients/prospects et usagers, la CNIL estime qu’un effort spécifique de sécurisation est nécessaire », expliquait-elle en avril dernier.

Ainsi, elle « renforcera dès 2026 sa politique de contrôle pour s’assurer de la mise en place de l’authentification multifacteur pour ces grandes bases de données. L’absence de cette mesure pourra justifier que soit initiée une procédure de sanction ».

Enfin, la Commission rappelle « que la mise en place d’une authentification multifacteur était déjà jugée en principe nécessaire au titre du RGPD pour des bases de données comprenant des données sensibles ou des données dont la violation exposerait les personnes à des risques importants (données bancaires et numéro de sécurité sociale notamment) ».

  •  

☕️ ownCloud, Nextcloud… : les vols de données se multiplient, activez la double authentification

Dans un rapport pour Infostealers, la société spécialisée en cybersécurité Hudson Rock explique qu’un pirate est « en train de mettre aux enchères des données exfiltrées des portails de partage de fichiers d’environ 50 grandes entreprises mondiales ». Le pirate est entré dans des applications comme ShareFile, OwnCloud et Nextcloud qui permettent de stocker et partager des fichiers. Il n’avait plus qu’à se servir.

Le rapport explique que « ces défaillances catastrophiques de sécurité n’étaient pas le résultat d’exploitation de faille zero-day dans l’architecture de la plateforme, mais plutôt des suites d’infections malveillantes sur les appareils des employés, combiné à manque cruel de mise en place de l’authentification multi-facteurs (MFA) ».

Une des plateformes concernées, ownCloud, s’est fendue d’un billet de blog pour alerter ses utilisateurs. Elle rappelle qu’il ne s’agit pas d’une faille ni d’un piratage. Elle enjoint ses utilisateurs à activer la double authentification (ou authentification multi-facteurs) au plus vite si ce n’est pas déjà fait : « Des acteurs malveillants ont obtenu des identifiants utilisateurs via des logiciels malveillants de type infostealer installés sur les appareils des employés ». Sans double authentification, le pirate peut accéder au compte.

Ce rapport n’est qu’une goutte d’eau dans l’océan des manquements liés à la cybersécurité, mais il illustre bien les risques causés par un problème sur un compte. Si la double authentification n’est pas une protection absolue contre le piratage, c’est déjà une barrière de sécurité robuste et facile à mettre en œuvre, du moins si le service la propose.

La CNIL recommande évidemment d’utiliser l’authentification multifacteurs et va même plus loin. « En raison du grand nombre de violations intervenues l’an dernier [il était question de 2024, mais 2025 n’était pas mieux, ndlr] sur des bases de clients/prospects et usagers, la CNIL estime qu’un effort spécifique de sécurisation est nécessaire », expliquait-elle en avril dernier.

Ainsi, elle « renforcera dès 2026 sa politique de contrôle pour s’assurer de la mise en place de l’authentification multifacteur pour ces grandes bases de données. L’absence de cette mesure pourra justifier que soit initiée une procédure de sanction ».

Enfin, la Commission rappelle « que la mise en place d’une authentification multifacteur était déjà jugée en principe nécessaire au titre du RGPD pour des bases de données comprenant des données sensibles ou des données dont la violation exposerait les personnes à des risques importants (données bancaires et numéro de sécurité sociale notamment) ».

  •  

Dès le 31 janvier, c’est le début de la fin du cuivre pour 26 000 communes (20 millions de locaux)

20 millions maintenant, 23 millions dans un an
Dès le 31 janvier, c’est le début de la fin du cuivre pour 26 000 communes (20 millions de locaux)

2026 devait être l’année de changement de braquet pour la fermeture du cuivre pour laisser place à la fibre optique. 2026 formera finalement une charnière avec 2027. Si 26 000 communes (20 millions de locaux) ne pourront plus souscrire au xDSL dès la fin du mois, ce sera finalement le 31 janvier 2027 pour les 8 000 communes (23 millions de locaux) restantes.

La fermeture du cuivre est un chantier de longue haleine, lancé par Orange en 2019, avec comme objectif 2030 et l’Arcep qui veille au grain. Le plan s’est peaufiné avec le temps, mais il comporte deux grandes phases. Une dite de transition entre 2020 et 2025 avec des expérimentations, et une seconde phase de fermeture, entre 2026 et 2030.

Orange veut « zéro client sur le cuivre » d’ici fin 2030

Concrètement, cela signifie de commencer par arrêter la commercialisation de nouveaux abonnements sur le cuivre, c’est-à-dire les fameux (mais appartenant désormais au passé) forfaits xDSL (dégroupés ou non) et autres abonnements voix seulement.

Vient ensuite la fermeture technique, plus franche et surtout avec des conséquences pour les anciens clients : « la ligne téléphonique, l’accès internet via ADSL, SDSL, VDSL et les services associés (télésurveillance, téléassistance…) ne seront plus accessibles », explique Orange. Objectif affiché : « zéro client sur le cuivre » en novembre 2030.

Maintenant que nous sommes en 2026, nous entrons dans la seconde phase, celle de la fermeture. Le 31 janvier de cette année, Orange prévoyait rien de moins que la fermeture commerciale pour « 90 % des locaux en France ». Le compte n’y est pas, et de loin.


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

[Test] Chargeurs USB Belkin autour de 20 € : un compact 25 watts, un autre 2x 30 watts

Rappel : 2x 30 n’est pas toujours égale à 60 !
[Test] Chargeurs USB Belkin autour de 20 € : un compact 25 watts, un autre 2x 30 watts

Belkin propose une panoplie de chargeurs USB, nous en avons testé deux. Le premier promet de recharger deux appareils simultanément avec une puissance de 30 watts chacun. Le deuxième est très compact et promet jusqu’à 25 watts. Les comptes sont bons ? Les chargeurs ne chauffent pas trop ? Réponse dans notre test du jour.

Après Ugreen et Anker, changeons de continent pour arriver aux États-Unis avec Belkin. C’est un vieux de la vieille puisque l’entreprise a été fondée il y a plus de 40 ans. En 2018, changement de programme puisque la marque et sa filiale Linksys sont rachetées pour 866 millions de dollars par le Taïwanais Foxconn.

Historiquement, la marque est liée à Apple et, aujourd’hui encore, elle continue de proposer de nombreux accessoires et chargeurs pour les produits de la Pomme. Des produits Belkin sont d’ailleurs référencés dans l’Apple Store, comme Anker.

Après avoir passé en revue des chargeurs pas chers (et mauvais), ainsi que des modèles de chez Ugreen et Anker, nous testons aujourd’hui deux chargeurs Belkin : le premier de 60 watts, le second de 25 watts. Nous les avons achetés via la boutique officielle de Belkin sur Amazon.

Belkin BoostCharge Pro de 60 watts : 2x 30 watts, pour de vrai ?

Le chargeur Belkin BoostCharge Pro avec deux ports USB Type-C de 60 watts est vendu 17,98 euros sur Amazon (en direct). Les deux ports sont identiques et permettent, selon le fabricant, de monter à 30 indépendamment l’un de l’autre.


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Android : Google ne publiera le code source d’AOSP que deux fois par an

Google n’en finit pas de revoir sa gestion d’Android Open Source Project (alias AOSP). C’est la version open source (sous licence Apache 2.0) du système d’exploitation mobile utilisée par des fabricants et développeurs de ROM alternatives, comme LineageOS.

Google indique à Android Authority que la publication du code source se fera désormais deux fois par an, « au deuxième et au quatrième trimestre de chaque année ». Cela correspond au rythme de déploiement d’Android, avec une version majeure au deuxième trimestre et une mineure au quatrième.

Jusqu’à présent, la version AOSP était publiée « dans les jours suivant le déploiement de la mise à jour correspondante sur ses propres appareils mobiles Pixel », rappellent nos confrères. Désormais, Google va se garder une longueur d’avance.

Flock

L’annonce est confirmée sur cette page, avec un message pour les développeurs : « À partir de 2026, pour nous aligner sur notre modèle de développement stable et garantir la stabilité de la plate-forme pour l’écosystème, nous publierons le code source sur AOSP au deuxième et au quatrième trimestre. Pour créer et contribuer à AOSP, nous vous recommandons d’utiliser android-latest-release au lieu de aosp-main. La branche de fichier manifeste android-latest-release fera toujours référence à la version la plus récente envoyée à AOSP ».

Google précise à nos confrères que cela ne devrait rien changer pour les correctifs liés à la sécurité : « l’entreprise continuerait à publier chaque mois des correctifs de sécurité sur une branche dédiée uniquement à la sécurité pour les versions pertinentes du système d’exploitation, tout comme elle le fait aujourd’hui », affirme Android Authority. Pourtant, ce fonctionnement aussi a changé il y a quelques mois, au grand dam de LineageOS.

Il y a un peu moins d’un an, Google annonçait que le développement d’Android passait uniquement en interne, avec une conséquence visible : la version publique d’Android est toujours en retard sur la version interne. Google bascule de plus en plus dans un modèle où ses smartphones seront en avance sur les autres niveau logiciel.

  •  

☕️ Android : Google ne publiera le code source d’AOSP que deux fois par an

Google n’en finit pas de revoir sa gestion d’Android Open Source Project (alias AOSP). C’est la version open source (sous licence Apache 2.0) du système d’exploitation mobile utilisée par des fabricants et développeurs de ROM alternatives, comme LineageOS.

Google indique à Android Authority que la publication du code source se fera désormais deux fois par an, « au deuxième et au quatrième trimestre de chaque année ». Cela correspond au rythme de déploiement d’Android, avec une version majeure au deuxième trimestre et une mineure au quatrième.

Jusqu’à présent, la version AOSP était publiée « dans les jours suivant le déploiement de la mise à jour correspondante sur ses propres appareils mobiles Pixel », rappellent nos confrères. Désormais, Google va se garder une longueur d’avance.

Flock

L’annonce est confirmée sur cette page, avec un message pour les développeurs : « À partir de 2026, pour nous aligner sur notre modèle de développement stable et garantir la stabilité de la plate-forme pour l’écosystème, nous publierons le code source sur AOSP au deuxième et au quatrième trimestre. Pour créer et contribuer à AOSP, nous vous recommandons d’utiliser android-latest-release au lieu de aosp-main. La branche de fichier manifeste android-latest-release fera toujours référence à la version la plus récente envoyée à AOSP ».

Google précise à nos confrères que cela ne devrait rien changer pour les correctifs liés à la sécurité : « l’entreprise continuerait à publier chaque mois des correctifs de sécurité sur une branche dédiée uniquement à la sécurité pour les versions pertinentes du système d’exploitation, tout comme elle le fait aujourd’hui », affirme Android Authority. Pourtant, ce fonctionnement aussi a changé il y a quelques mois, au grand dam de LineageOS.

Il y a un peu moins d’un an, Google annonçait que le développement d’Android passait uniquement en interne, avec une conséquence visible : la version publique d’Android est toujours en retard sur la version interne. Google bascule de plus en plus dans un modèle où ses smartphones seront en avance sur les autres niveau logiciel.

  •  

Les Freebox intègrent désormais un serveur TFTP : quelle utilité et comment ça marche ?

Trivial Freebox TP
Les Freebox intègrent désormais un serveur TFTP : quelle utilité et comment ça marche ?

Free ajoute du TFTP à sa Freebox… Super, mais c’est quoi exactement et à quoi ça sert ? Next vous explique, avec un exemple : démarrer une machine virtuelle depuis le réseau.

Hier, Free a mis en ligne une mise à jour 4.9.15 pour ses Freebox Révolution, Pop, Delta et Ultra. Elle corrige quelques bugs, mais apporte surtout une nouveauté logicielle : un serveur TFTP ou Trivial FTP (File Transfer Protocol). On parle aussi d’un protocole simplifié de transfert de fichiers. Simplifié dans le sens « sans authentification ni chiffrement ».

TFTP dans le Partage de fichiers : ça marche comment ?


Il reste 94% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Le Wi-Fi 8 est déjà une réalité au CES

Alors qu’on est toujours à la 5G… pfff !
Le Wi-Fi 8 est déjà une réalité au CES

Le CES est l’occasion pour Asus de dégainer son premier routeur Wi-Fi 8… enfin un « concept » plus exactement, pas encore un produit commercial. Broadcom continue de décliner sa gamme de puces pour le Wi-Fi, tandis que MediaTek occupe le terrain médiatique avec une annonce (vide). 2026 devrait être l’année des premières annonces de produits.

Depuis des années, les fabricants sont en avance sur la norme. Le Wi-Fi 8 n’est pas encore officiel que déjà les annonces pleuvent durant le CES de Las Vegas. Asus par exemple présente un « concept » de routeur en Wi-Fi 8 : le ROG NeoCore.

Asus partage une image, mais ne donne aucune caractéristique technique. Le fabricant se contente de déclarations du genre : « le Wi-Fi 8 ne consiste pas seulement à augmenter les débits – il s’agit de rendre chaque connexion plus intelligente et plus fiable », explique Tenlong Deng, vice-président chez Asus.

Alors que les routeurs de nouvelles générations sont souvent bardés d’antennes bien visibles, le ROG NeoCore n’en a aucune extérieure. Le fabricant affirme que « ses premiers routeurs domestiques WiFi 8 arriveront en 2026 ». L’entreprise propose plus de détails sur la technologie du Wi-Fi 8 sur cette page.

Des puces Wi-Fi 8 chez Broadcomm et MediaTek

Broadcomm de son côté annonce un APU BCM4918 ainsi que deux puces BCM6714 et BCM6719 ; tous avec le Wi-Fi 8 en ligne de mire. Le fabricant avait déjà présenté sa puce BCM6718 en octobre dernier, elle aussi en Wi-Fi 8. Des échantillons sont déjà disponibles pour certains clients triés sur le volet.

La BCM6714 propose 3 flux en 2,4 GHz (3×3) et 4 flux en 5 GHz (4×4), tandis que la BCM6719 est en 4×4 sur les deux bandes de fréquences. Les deux disposent d’un amplificateur de puissance sur les 2,4 GHz pour « réduire les composants externes et améliorer l’efficacité des ondes ». La BCM6718 prend pour sa part en charge trois bandes de fréquences (2,4, 5 et 6 GHz) en 4×4, mais sans amplificateur intégré.

MediaTek aussi répond présent à l’appel du Wi-Fi 8 avec sa famille Filogic 8000… et c’est à peu près tout. Le reste du communiqué parle des avantages et espoirs du Wi-Fi 8, pas des caractéristiques des futures puces de MediaTek, dont les premiers exemplaires « devraient être livrés aux clients plus tard cette année ».

Le Wi-Fi 8 fonctionne déjà (en labo), les nouveautés attendues

En octobre, TP-Link affirmait réaliser pour la première fois des échanges de données en Wi-Fi 8, via un prototype développé dans le cadre d’un partenariat industriel (sans précision supplémentaire).

Le Wi-Fi 8 ne devrait pas révolutionner les débits – même si certains parlent de 100 Gb/s, bien au-delà de ceux théoriques du Wi-Fi 7 (46 Gb/s) – mais augmenter grandement la fiabilité, notamment dans des conditions difficiles. Le Wi-Fi 8 est aussi connu sous la norme IEEE 802.11bn Ultra High Reliability (UHR).

« Le Wi-Fi  8 pourrait atteindre des débits théoriques proches de 100 Gb/s, mais sa priorité serait une expérience plus fluide et stable », affirmait TP-Link. « L’objectif de cette norme de nouvelle génération est d’améliorer l’expérience utilisateur en augmentant, non seulement la vitesse, mais aussi la fiabilité ». La latence devrait aussi être améliorée », expliquait HPE.

Qualcomm en parle comme « un tournant fondamental : il va au-delà des débits pour privilégier des performances fiables dans des conditions réelles et difficiles ». Le Wi-Fi proposera une « connectivité cohérente, à faible latence et presque sans perte, même dans des environnements (mobiles) très encombrés, sujets aux interférences ».

Rendez-vous en 2028 pour la finalisation, cette année pour les produits

L’été dernier, nous avions publié un tour d’horizon des attentes du Wi-Fi 8, avec par exemple la coordination multi-AP (points d’accès multiples) souvent mise en avant. Citons également des améliorations sur la gestion du spectre, avec « le fonctionnement dynamique du sous-canal DSO/l’accès au canal non principal NPCA ». La finalisation de la norme est attendue pour 2028.

Comme c’était déjà le cas pour les précédentes versions, des produits seront commercialisés bien avant, dès cette année selon les déclarations du jour d’Asus par exemple. Le programme de certification du Wi-Fi 7 est par exemple arrivé en janvier 2024… bien après les premiers produits sur le marché, basés sur des brouillons de la norme.

  •  

Le Wi-Fi 8 est déjà une réalité au CES

Alors qu’on est toujours à la 5G… pfff !
Le Wi-Fi 8 est déjà une réalité au CES

Le CES est l’occasion pour Asus de dégainer son premier routeur Wi-Fi 8… enfin un « concept » plus exactement, pas encore un produit commercial. Broadcom continue de décliner sa gamme de puces pour le Wi-Fi, tandis que MediaTek occupe le terrain médiatique avec une annonce (vide). 2026 devrait être l’année des premières annonces de produits.

Depuis des années, les fabricants sont en avance sur la norme. Le Wi-Fi 8 n’est pas encore officiel que déjà les annonces pleuvent durant le CES de Las Vegas. Asus par exemple présente un « concept » de routeur en Wi-Fi 8 : le ROG NeoCore.

Asus partage une image, mais ne donne aucune caractéristique technique. Le fabricant se contente de déclarations du genre : « le Wi-Fi 8 ne consiste pas seulement à augmenter les débits – il s’agit de rendre chaque connexion plus intelligente et plus fiable », explique Tenlong Deng, vice-président chez Asus.

Alors que les routeurs de nouvelles générations sont souvent bardés d’antennes bien visibles, le ROG NeoCore n’en a aucune extérieure. Le fabricant affirme que « ses premiers routeurs domestiques WiFi 8 arriveront en 2026 ». L’entreprise propose plus de détails sur la technologie du Wi-Fi 8 sur cette page.

Des puces Wi-Fi 8 chez Broadcomm et MediaTek

Broadcomm de son côté annonce un APU BCM4918 ainsi que deux puces BCM6714 et BCM6719 ; tous avec le Wi-Fi 8 en ligne de mire. Le fabricant avait déjà présenté sa puce BCM6718 en octobre dernier, elle aussi en Wi-Fi 8. Des échantillons sont déjà disponibles pour certains clients triés sur le volet.

La BCM6714 propose 3 flux en 2,4 GHz (3×3) et 4 flux en 5 GHz (4×4), tandis que la BCM6719 est en 4×4 sur les deux bandes de fréquences. Les deux disposent d’un amplificateur de puissance sur les 2,4 GHz pour « réduire les composants externes et améliorer l’efficacité des ondes ». La BCM6718 prend pour sa part en charge trois bandes de fréquences (2,4, 5 et 6 GHz) en 4×4, mais sans amplificateur intégré.

MediaTek aussi répond présent à l’appel du Wi-Fi 8 avec sa famille Filogic 8000… et c’est à peu près tout. Le reste du communiqué parle des avantages et espoirs du Wi-Fi 8, pas des caractéristiques des futures puces de MediaTek, dont les premiers exemplaires « devraient être livrés aux clients plus tard cette année ».

Le Wi-Fi 8 fonctionne déjà (en labo), les nouveautés attendues

En octobre, TP-Link affirmait réaliser pour la première fois des échanges de données en Wi-Fi 8, via un prototype développé dans le cadre d’un partenariat industriel (sans précision supplémentaire).

Le Wi-Fi 8 ne devrait pas révolutionner les débits – même si certains parlent de 100 Gb/s, bien au-delà de ceux théoriques du Wi-Fi 7 (46 Gb/s) – mais augmenter grandement la fiabilité, notamment dans des conditions difficiles. Le Wi-Fi 8 est aussi connu sous la norme IEEE 802.11bn Ultra High Reliability (UHR).

« Le Wi-Fi  8 pourrait atteindre des débits théoriques proches de 100 Gb/s, mais sa priorité serait une expérience plus fluide et stable », affirmait TP-Link. « L’objectif de cette norme de nouvelle génération est d’améliorer l’expérience utilisateur en augmentant, non seulement la vitesse, mais aussi la fiabilité ». La latence devrait aussi être améliorée », expliquait HPE.

Qualcomm en parle comme « un tournant fondamental : il va au-delà des débits pour privilégier des performances fiables dans des conditions réelles et difficiles ». Le Wi-Fi proposera une « connectivité cohérente, à faible latence et presque sans perte, même dans des environnements (mobiles) très encombrés, sujets aux interférences ».

Rendez-vous en 2028 pour la finalisation, cette année pour les produits

L’été dernier, nous avions publié un tour d’horizon des attentes du Wi-Fi 8, avec par exemple la coordination multi-AP (points d’accès multiples) souvent mise en avant. Citons également des améliorations sur la gestion du spectre, avec « le fonctionnement dynamique du sous-canal DSO/l’accès au canal non principal NPCA ». La finalisation de la norme est attendue pour 2028.

Comme c’était déjà le cas pour les précédentes versions, des produits seront commercialisés bien avant, dès cette année selon les déclarations du jour d’Asus par exemple. Le programme de certification du Wi-Fi 7 est par exemple arrivé en janvier 2024… bien après les premiers produits sur le marché, basés sur des brouillons de la norme.

  •  

[Test] Chargeurs USB Anker de 65 et 100 watts : promesses (presque) tenues

Stop ou Anker ?
[Test] Chargeurs USB Anker de 65 et 100 watts : promesses (presque) tenues

Deux chargeurs Anker de 65 et 100 watts sont passés dans notre laboratoire de test. Pas de soucis sur les performances de charge en USB Type-C, conformes aux annonces du fabricant. Attention par contre au câble USB livré dans le bundle du Anker 317 et à la charge en USB Type-A du PowerPort III.

Après les chargeurs USB « no-name » vendus moins de 10 euros ainsi que ceux entre 10 et 20 euros, nous testons des chargeurs de marque. Ugreen était la première à ouvrir le bal, c’est désormais au tour d’une autre entreprise chinoise : Anker.

La société est basée à Shenzhen. Elle a été créée il y a maintenant près de 15 ans (2011) par un ancien de chez Google. L’entreprise affirme être la première « marque à adopter les chargeurs au nitrure de gallium (GaN) », dès 2018. Ils sont « connus pour leur haute efficacité, leur taille réduite et leur puissance de sortie accrue par rapport aux chargeurs traditionnels à base de silicium », clame le constructeur. Cette technologie est aujourd’hui largement répandue chez plusieurs constructeurs de chargeurs USB.

Anker est cotée en bourse depuis 2020. Après des années relativement tranquilles, son cours a doublé en juin 2025. Ce même mois de juin 2025 était décidément animé pour le fabricant qui a lancé des campagnes de rappel sur pas moins de six batteries externes. Une série pouvait prendre feu ; pour les autres, Anker parle d’un « excès de prudence ».

Qu’en est-il de la qualité des chargeurs USB ? Nous passons deux modèles à la moulinette : le Anker 317 avec un seul port USB Type-C de 100 watts et le PowerPort III (A2667) de 65 watts avec trois ports USB.

Si dans l’ensemble tout se passe bien, il y a tout de même quelques couacs à y regarder de plus près, notamment sur le câble USB livré dans le bundle d’un des chargeurs.


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Ryzen AI 400, Max+ et 9850X3D… au CES, AMD assure (à peine) le service minimum

Le non changement dans la continuité
Ryzen AI 400, Max+ et 9850X3D… au CES, AMD assure (à peine) le service minimum

Lors du CES, AMD a présenté ses nouveautés qui n’ont pas grand chose de nouveau. Les Ryzen AI 400 sont des copies des 300, le Ryzen 7 9850X3D est une version plus rapide du 7 9800X3D et les Ryzen AI Max+ ont droit à un GPU plus rapide.

Après Intel qui a lancé ses Core Ultra Series 3 (Panther Lake), passons chez AMD avec les Ryzen AI 400 (Pro) alias Gorgon Point. Les processeurs sont construits autour de l’architecture Zen 5 (et sa déclinaison allégée 5c), déjà présente dans les Ryzen AI 300 (Strix Point) lancé en juin 2024. On retrouve aussi un NPU XDNA de 2ᵉ génération, là encore comme dans la série 300. La partie graphique ne change pas non plus avec du RDNA 3.5 (Radeon 8x0M).

Ryzen AI 400 : vous voyez les 300 ? Ben c’est pareil…

À référence identique, le nombre de cœurs est le même. Le Ryzen AI 9 465 par exemple a 10 cœurs, exactement comme le Ryzen 9 365. La répartition est identique avec 4x Zen 5 et 6x Zen 5c pour les deux CPU. Les fréquences aussi sont les mêmes : jusqu’à 5 GHz en mode Boost pour Zen 5, 3,3 GHz maximum pour les cœurs Zen 5c et 2 GHz en fréquence de base, aussi bien pour le Ryzen AI 9 365 que le 465.

Pour d’autres, seule la fréquence Boost change avec jusqu’à 5,2 GHz pour les Ryzen 9 AI HX 475 et 470 au lieu de 5,1 GHz pour les AI HX 375 et 370. Parfois, c’est la partie graphique qui est légèrement améliorée, comme le Ryzen AI 5 430 qui a une Radon 840M au lieu d’une 820M pour le AI 330, ou alors la fréquence du GPU est augmentée (3,1 GHz sur le AI 9 HX 475 au lieu de 2,9 GHz sur le 375 par exemple).

Il y a également un peu de changement sur le NPU dont la puissance de calcul peut désormais atteindre 60 TOPS.

Bref, rien de révolutionnaire, une simple petite mise à jour avec principalement un « 4 » à la place du « 3 ». Les premières machines avec un Ryzen AI de la série 400 sont attendues à partir de ce trimestre chez Acer, ASUS, Dell, HP, Gigabyte et Lenovo.

Deux nouveaux Ryzen AI Max+ avec un GPU plus performant

Deux nouvelles références Ryzen AI Max+ sont aussi annoncées : les 392 et 388. Cette gamme de processeurs ne dispose pour rappel que de cœurs Zen 5 (aucun cœur n’est en Zen 5c, moins performants mais plus économes). Le Ryzen AI Max+ 392 en a 12 comme le AI Max+ 390, tandis que le Ryzen AI Max+ 388 en a 8 comme le AI Max+ 385.

Contrairement à leur grand frère, ces deux nouveaux CPU ont une partie graphique Radeon 8060S avec 40 cœurs graphiques au lieu d’une 8050S avec seulement 32 cœurs, tandis que la fréquence gagne 100 MHz pour arriver à 2,9 GHz. AMD renforce donc la partie graphique de ses processeurs, déjà un point fort de cette gamme.

Le NPU est toujours à 50 TOPS. Là encore la disponibilité est prévue pour ce trimestre.

Sur le jeu, AMD enfonce le clou avec le Ryzen 7 9850X3D

Enfin, AMD annonce un Ryzen 7 9850X3D avec 8 cœurs Zen 5 et un 3D V-Cache de 2ᵉ génération de 96 Mo, pour un total de 104 Mo de mémoire cache sur le processeur. Il vient donc redonner un coup de jeune au Ryzen 7 9800X3D (qui a lui aussi 104 Mo de cache) avec une fréquence plus élevée de 5,6 GHz en boost (au lieu de 5,2 GHz), mais toujours à 4,7 GHz de base.

AMD annonce des performances « jusqu’à 27 % supérieures à celles de l’Intel Core Ultra 9 285K ». Le processeur est toujours sur socket AM5 et AMD promet aussi quelques pourcents de gain par rapport au Ryzen 7 9800X3D, comme on peut le voir dans le graphique ci-dessous comparant le Core Ultra 9 285K, le Ryzen 9800X3D et le 9850X3D.

Six AMD Ryzen AI Embedded P100

AMD pense aussi au monde de l’embarqué avec des AMD Ryzen AI Embedded P100 Series doté de 4 ou 6 cœurs Zen 5. Le NPU affiche 30 ou 50 TOPS, la connectivité est en 10 Gb/s, la DDR5 à 5 600 MT/s, etc. Le TDP varie entre 15 et 54 watts suivant les références.

Voici le détail des puces :

Lisa Su expose des dies : GPU MI455X et CPU Venice (Zen 6)

Enfin, AMD profite du CES pour parler un peu de ses prochains GPU pour serveurs et pour l’intelligence artificielle : les AMD Instinct. Il était notamment question de la série MI500 « prévue pour 2027 », qui devrait proposer « jusqu’à 1 000 fois plus de performances en AI que les GPU AMD Instinct MI300X introduits en 2023 ».

AMD présentait aussi son rack Helios, déjà annoncé en octobre dernier. Il comprend des processeurs AMD Epyc Venice avec la future architecture Zen 6 ainsi que des GPU Instincts MI455X. Lisa Lu présentait durant la conférence un (imposant) die du GPU de l’Instinct MI455X (le rectangle dans les photos ci-dessous) et un tout aussi imposant die du CPU Venice (le carré).

AMD annonce jusqu’à 2,9 ExaFLOPS de puissance de calcul (sans indiquer la précision) pour son rack Helios, avec 31 To de mémoire HBM4 et 4 600 cœurs CPU Zen 6. Pour la connectivité, AMD affiche le logo de l’Ultra Ethernet sur ses documents, sans plus de détails.

La version 1.0 de cette norme, qui se pose comme un concurrent de l’Infiniband de NVIDIA, a été mise en ligne au début de l’été 2025. Dans le comité directeur, on retrouve AMD, mais aussi Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta, Microsoft et Oracle. Google Cloud, NVIDIA, Qualcomm, Synopsys et Marvell (pour ne citer qu’eux) sont des membres du consortium.

  •  

Ryzen AI 400, Max+ et 9850X3D… au CES, AMD assure (à peine) le service minimum

Le non changement dans la continuité
Ryzen AI 400, Max+ et 9850X3D… au CES, AMD assure (à peine) le service minimum

Lors du CES, AMD a présenté ses nouveautés qui n’ont pas grand chose de nouveau. Les Ryzen AI 400 sont des copies des 300, le Ryzen 7 9850X3D est une version plus rapide du 7 9800X3D et les Ryzen AI Max+ ont droit à un GPU plus rapide.

Après Intel qui a lancé ses Core Ultra Series 3 (Panther Lake), passons chez AMD avec les Ryzen AI 400 (Pro) alias Gorgon Point. Les processeurs sont construits autour de l’architecture Zen 5 (et sa déclinaison allégée 5c), déjà présente dans les Ryzen AI 300 (Strix Point) lancé en juin 2024. On retrouve aussi un NPU XDNA de 2ᵉ génération, là encore comme dans la série 300. La partie graphique ne change pas non plus avec du RDNA 3.5 (Radeon 8x0M).

Ryzen AI 400 : vous voyez les 300 ? Ben c’est pareil…

À référence identique, le nombre de cœurs est le même. Le Ryzen AI 9 465 par exemple a 10 cœurs, exactement comme le Ryzen 9 365. La répartition est identique avec 4x Zen 5 et 6x Zen 5c pour les deux CPU. Les fréquences aussi sont les mêmes : jusqu’à 5 GHz en mode Boost pour Zen 5, 3,3 GHz maximum pour les cœurs Zen 5c et 2 GHz en fréquence de base, aussi bien pour le Ryzen AI 9 365 que le 465.

Pour d’autres, seule la fréquence Boost change avec jusqu’à 5,2 GHz pour les Ryzen 9 AI HX 475 et 470 au lieu de 5,1 GHz pour les AI HX 375 et 370. Parfois, c’est la partie graphique qui est légèrement améliorée, comme le Ryzen AI 5 430 qui a une Radon 840M au lieu d’une 820M pour le AI 330, ou alors la fréquence du GPU est augmentée (3,1 GHz sur le AI 9 HX 475 au lieu de 2,9 GHz sur le 375 par exemple).

Il y a également un peu de changement sur le NPU dont la puissance de calcul peut désormais atteindre 60 TOPS.

Bref, rien de révolutionnaire, une simple petite mise à jour avec principalement un « 4 » à la place du « 3 ». Les premières machines avec un Ryzen AI de la série 400 sont attendues à partir de ce trimestre chez Acer, ASUS, Dell, HP, Gigabyte et Lenovo.

Deux nouveaux Ryzen AI Max+ avec un GPU plus performant

Deux nouvelles références Ryzen AI Max+ sont aussi annoncées : les 392 et 388. Cette gamme de processeurs ne dispose pour rappel que de cœurs Zen 5 (aucun cœur n’est en Zen 5c, moins performants mais plus économes). Le Ryzen AI Max+ 392 en a 12 comme le AI Max+ 390, tandis que le Ryzen AI Max+ 388 en a 8 comme le AI Max+ 385.

Contrairement à leur grand frère, ces deux nouveaux CPU ont une partie graphique Radeon 8060S avec 40 cœurs graphiques au lieu d’une 8050S avec seulement 32 cœurs, tandis que la fréquence gagne 100 MHz pour arriver à 2,9 GHz. AMD renforce donc la partie graphique de ses processeurs, déjà un point fort de cette gamme.

Le NPU est toujours à 50 TOPS. Là encore la disponibilité est prévue pour ce trimestre.

Sur le jeu, AMD enfonce le clou avec le Ryzen 7 9850X3D

Enfin, AMD annonce un Ryzen 7 9850X3D avec 8 cœurs Zen 5 et un 3D V-Cache de 2ᵉ génération de 96 Mo, pour un total de 104 Mo de mémoire cache sur le processeur. Il vient donc redonner un coup de jeune au Ryzen 7 9800X3D (qui a lui aussi 104 Mo de cache) avec une fréquence plus élevée de 5,6 GHz en boost (au lieu de 5,2 GHz), mais toujours à 4,7 GHz de base.

AMD annonce des performances « jusqu’à 27 % supérieures à celles de l’Intel Core Ultra 9 285K ». Le processeur est toujours sur socket AM5 et AMD promet aussi quelques pourcents de gain par rapport au Ryzen 7 9800X3D, comme on peut le voir dans le graphique ci-dessous comparant le Core Ultra 9 285K, le Ryzen 9800X3D et le 9850X3D.

Six AMD Ryzen AI Embedded P100

AMD pense aussi au monde de l’embarqué avec des AMD Ryzen AI Embedded P100 Series doté de 4 ou 6 cœurs Zen 5. Le NPU affiche 30 ou 50 TOPS, la connectivité est en 10 Gb/s, la DDR5 à 5 600 MT/s, etc. Le TDP varie entre 15 et 54 watts suivant les références.

Voici le détail des puces :

Lisa Su expose des dies : GPU MI455X et CPU Venice (Zen 6)

Enfin, AMD profite du CES pour parler un peu de ses prochains GPU pour serveurs et pour l’intelligence artificielle : les AMD Instinct. Il était notamment question de la série MI500 « prévue pour 2027 », qui devrait proposer « jusqu’à 1 000 fois plus de performances en AI que les GPU AMD Instinct MI300X introduits en 2023 ».

AMD présentait aussi son rack Helios, déjà annoncé en octobre dernier. Il comprend des processeurs AMD Epyc Venice avec la future architecture Zen 6 ainsi que des GPU Instincts MI455X. Lisa Lu présentait durant la conférence un (imposant) die du GPU de l’Instinct MI455X (le rectangle dans les photos ci-dessous) et un tout aussi imposant die du CPU Venice (le carré).

AMD annonce jusqu’à 2,9 ExaFLOPS de puissance de calcul (sans indiquer la précision) pour son rack Helios, avec 31 To de mémoire HBM4 et 4 600 cœurs CPU Zen 6. Pour la connectivité, AMD affiche le logo de l’Ultra Ethernet sur ses documents, sans plus de détails.

La version 1.0 de cette norme, qui se pose comme un concurrent de l’Infiniband de NVIDIA, a été mise en ligne au début de l’été 2025. Dans le comité directeur, on retrouve AMD, mais aussi Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta, Microsoft et Oracle. Google Cloud, NVIDIA, Qualcomm, Synopsys et Marvell (pour ne citer qu’eux) sont des membres du consortium.

  •  

Intel lance 14 processeurs Core Ultra Series 3 (Panther Lake), les premiers gravés en 18A

1, et 2 et 3…
Intel lance 14 processeurs Core Ultra Series 3 (Panther Lake), les premiers gravés en 18A

Intel vient d’annoncer sa nouvelle famille de processeurs Core Ultra Series 3 pour les ordinateurs portables. Les processeurs ont jusqu’à 16 cœurs CPU (il y en a trois types différents) et peuvent intégrer pour certains une partie graphique Arc B3x0. Ce sont les premiers CPU gravés avec le procédé Intel 18A. Les premières machines seront disponibles dans quelques jours.

Une fois n’est pas coutume, posons-nous deux secondes avant d’entrer dans le vif du sujet. Les Core Ultra Series 3 sont une famille de processeurs à l’intérieur de laquelle on trouve des gammes de CPU Core Ultra 3, Ultra 5, Ultra 7, etc.

Core Ultra Series : résumé des trois saisons en cours


Il reste 96% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •