Vue normale

Reçu aujourd’hui — 6 novembre 2025

Les datacenters colonisent les fonds marins et l’espace

6 novembre 2025 à 07:35
Vous êtes encerclés par les datas, toute résistance est inutile
Les datacenters colonisent les fonds marins et l’espace

Microsoft puis le Chinois HiCloud immergent des datacenters dans l’eau au large des côtes. À l’opposé, HPE installe des serveurs dans la Station spatiale internationale, tandis que Google veut déployer une constellation de satellites pour des traitements liés à l’IA en profitant de l’énergie solaire. Deux approches, un même besoin : toujours plus de serveurs.

Sur notre planète Terre, la croissance galopante du numérique et, depuis quelques années, de l’intelligence artificielle générative soulève des questions sur la consommation des ressources, notamment en électricité et en eau. Comme nous l’avons expliqué dans un long dossier, il existe bien des indicateurs, mais ils sont parfois suffisamment flous pour « jouer » avec les résultats.

Depuis maintenant des années, des projets tentent des approches différentes… comprendre ailleurs que sur la terre ferme. Une première solution « évidente » et facile d’accès est de passer au niveau des mers et des océans. Ils occupent 70 % de la Terre (la planète) et proposent des avantages certains, mais aussi des contraintes.

Microsoft a immergé un datacenter pendant deux ans


Il reste 94% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu avant avant-hier

[MàJ] Shein : « procédure de suspension » engagée, la marketplace ferme en France

5 novembre 2025 à 15:05
Quelle époque formidable…
[MàJ] Shein : « procédure de suspension » engagée, la marketplace ferme en France

Depuis quelques jours, les plateformes chinoises sont dans le collimateur de la justice française. En cause la vente de « poupées sexuelles d’apparence enfantine » chez Shein et AliExpress. Cette affaire arrive quelques jours avant l’ouverture de Shein au BHV et éclabousse d’autres plateformes comme Temu et Wish.

Mise à jour du 5 novembre à 16 h. Dans un communiqué envoyé par e-mail et arrivé peu de temps après l’annonce du gouvernement, Shein annonce avoir « pris la décision de suspendre temporairement les ventes de sa Marketplace en France ». La plateforme affirme que la décision a été prise « indépendamment de l’annonce du Premier ministre ».

« Cette mesure vise à permettre une revue complète des procédures, afin de garantir une conformité totale avec la législation française et le plus haut niveau de protection des consommateurs », explique l’entreprise. Elle veut désormais « engager dans les plus brefs délais un dialogue avec les autorités françaises ».


Mise à jour du 5 novembre à 15 h. Ce mercredi 5 novembre, le gouvernement « engage la procédure de suspension de Shein le temps nécessaire pour que la plateforme démontre aux pouvoirs publics que l’ensemble de ses contenus soient enfin en conformité avec nos lois et règlements ». Pour rappel, Shein a ouvert ses portes au BHV à Paris aujourd’hui à 13 h.

Le communiqué ne donne aucun détail et précise simplement qu’un « premier point d’étape devra être fait par les ministres dans les 48 prochaines heures ». Rien concernant AliExpress qui, pourtant, vendait les mêmes poupées enfantines pédopornographiques.

Ce matin, « des députés avaient annoncé le prochain dépôt d’une proposition transpartisane de résolution européenne » afin de demander plus de sévérité contre la plateforme, que ce soit en France ou au niveau européen.


Publication originale le 4 novembre à 15 h. Ce week-end, nous apprenions que Shein proposait des « poupées sexuelles à caractère pédopornographique ». Le procureur de la République était saisi de l’affaire, tandis que la plateforme Shein retirait les articles de la vente, reconnaissant au passage des « défaillances majeures ».

Sur AliExpress et Shein, des « poupées sexuelles d’apparence enfantine »

Rapidement, il est apparu que Shein n’était pas la seule plateforme à proposer des articles du genre. Aliexpress était aussi pointé du doigt par la répression des fraudes dans un second communiqué. La DGCCRF explique en effet avoir « élargi ses investigations à d’autres plateformes de e-commerce largement fréquentées par les consommateurs français ».

Là encore, les constatations sont sans appel. Sur AliExpress, la DGCCRF a constaté la présence de « poupées sexuelles d’apparence enfantine » dont la description et la catégorisation « permettent difficilement de douter du caractère pédopornographique des contenus ».

Aliexpress affirme à l’AFP que « les annonces concernées ont été retirées dès que nous en avons eu connaissance ». C’était également le cas pour Shein, à la fois pour les objets pédopornographiques, les signalements à la justice et les retraits.

Quatre enquêtes ouvertes par le parquet de Paris


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[Édito] Que faire face à la merdification de l’information

3 novembre 2025 à 14:58
Comme disait Napoléon, « faut pas croire tout ce qu’on lit sur Internet »
[Édito] Que faire face à la merdification de l’information

N’ayons pas peur des mots, nous sommes dans une « merdification » importante de l’information. Le phénomène n’est pas nouveau, mais il prend de l’importance sur les réseaux sociaux et avec l’IA générative. La balle est dans le camp des internautes.

Enshittification ou merdification a été élu mot de l’année 2024 par le dictionnaire d’anglais australien Macquarie. Sa définition : « détérioration progressive d’un service ou d’un produit, en particulier d’une plateforme en ligne, provoquée par une réduction de la qualité du service fourni résultant de la recherche de profit ».

Ce terme s’applique parfaitement à l’information en ligne. Le phénomène n’est pas nouveau, mais il est de plus en plus inquiétant. Un bon terreau de cette merdification est la course à l’information. Il ne faut pas confondre vitesse et précipitation ; les exemples sont malheureusement nombreux et la situation se répète inlassablement.

La course à l’audience

Sur Internet, cette course à l’information va (malheureusement) de pair avec celle de l’audience. La raison est simple : la publicité, dont les revenus sont directement liés au nombre de visiteurs (les fameux visiteurs uniques ou VU dans le jargon du métier) ou de pages vues. D’une information claire et objective, on dérive depuis longtemps vers des titres putaclicks, des fake news et, de plus en plus, un mélange des deux.

Avec la merdification de l’information, le phénomène va plus loin. Les gens (et pas uniquement les jeunes) s’abreuvent maintenant sur les réseaux sociaux et s’informent par le prisme de certains influenceurs. Pour reprendre les inconnus : « y’a le mauvais chasseur [d’information] : y voit un truc qui bouge, y tire. Le bon chasseur : y voit un truc, y tire… ».

Dans l’information, c’est presque pareil, sauf que ceux qui racontent n’importe quoi sont les premiers à tirer, ceux qui enquêtent tirent plus tard. La course à l’audimat pousse une grande partie des médias à tirer le plus vite possible. L’information est fausse ? Pas « grave », une seconde sera publiée s’il y a de quoi (re)faire de l’audience, sinon elle sera limite laissée de côté.

Nous avons déjà longuement parlé de la loi de Brandolini ou « principe d’asymétrie des idioties » pour les sciences, mais cela touche désormais toutes les catégories d’information. Ne pas oublier que ceux qui racontent des idioties (pour rester poli) ne prennent pas de pincettes et foncent tête baissée, là où les chercheurs et scientifiques pèsent les conséquences et la portée de leurs mots. Deux discours, une même cible, mais pas les mêmes règles du jeu.

Combien de fois des informations ont fait les gros titres lors d’une condamnation alors que le jugement cassé en appel n’est quasiment pas évoqué ? Beaucoup trop… Combien de fois de fausses vidéos sont relayées sans jamais corriger le tir ? Beaucoup trop… Combien de fois des fuites de données inexistantes font les gros titres (et font le jeu des pirates) ? Beaucoup trop… Vous avez compris l’idée.

La course à la visibilité

La situation évolue, mais pas dans le bon sens. Aujourd’hui, personnalités publiques et influenceurs ont un vrai pouvoir sur les gens et le moindre geste peut déplacer des foules. Un exemple récent avec un t-shirt vintage d’un aquarium porté par Taylor Swift. Des fans voulaient le même, l’aquarium en fait une réédition et le propose en « cadeau » pour un don à la protection des loutres. Montant de l’opération : plus de 2 millions de dollars. Rien de grave ici, au contraire, mais cela montre à quel point une idole peut faire bouger les choses.

Le problème étant que certains influenceurs poussent parfois à leur communauté des produits illégaux et/ou dangereux, au mépris des lois. L’année dernière, la DGCCRF dressait un triste bilan : sur 310 influenceurs contrôlés, 151 étaient « en anomalies ».

Les marques ont bien compris le potentiel des influenceurs et l’océan (plus ou moins grand) de poissons à attraper. Rappel : vous êtes le poisson. Pour vous attraper, marques et/ou influenceurs passent parfois la ligne rouge puisque la mention d’un partenariat commercial n’est pas toujours indiquée.

De l’information consommée par certains sur les réseaux sociaux, on se retrouve à avoir des messages publicitaires, que ce soit pour des produits ou des idées (politiques). Les influenceurs s’invitent aussi dans la vie politique et vice-versa, cela soulève d’autres questions sur l’information politique diversifiée. Si la télévision et la radio sont dans le viseur de l’Arcom, le web et les réseaux sociaux sont encore laissés de côté.

Le sujet de la régulation ne bouge pas vraiment alors qu’en mars prochain auront lieu les élections municipales, puis les présidentielles en 2027. Il y a de quoi être inquiet, d’autant que la génération des enfants nés dans la seconde moitié des années 2000, qui ont donc grandi avec les réseaux sociaux, sont désormais en âge de voter.

La course au sensationnel

L’IA générative est aussi un problème, qui fait des dégâts dans les médias. Dernier exemple en date, ce qui était présenté comme le projet « sky stadium » de l’Arabie saoudite. Une vidéo montrant ce que devait être un stade à 350 mètres d’altitude était fausse, comme l’indique l’AFP Factuel.

Reprise par de nombreux médias, avec souvent Paris-Match comme source (qui a depuis supprimé sa publication Instagram), l’information n’est pas toujours corrigée. Cette fausse vidéo surfe en prime sur la vague du projet pharaonique « The Line », qui a beaucoup de plomb dans l’aile. Bref, une belle histoire et de belles images, à un détail près : c’est faux.

Cet exemple soulève un autre problème : le temps nécessaire à débunker ce genre de fake news, pourtant grossières. Ce n’est qu’un seul exemple dans l’océan de merdification de l’information. Certains sites d’information générés par intelligence artificielle n’en finissent pas d’inonder le web avec du n’importe quoi.

Ils lancent des fausses informations dans tous les sens à la recherche de buzz (pour multiplier les visiteurs, donc les pages, donc les publicités, donc les revenus). Cela ne va généralement pas chercher plus loin. Parfois, les sites Gen AI peuvent aussi servir des buts particuliers : spammer des moteurs de recherche ou des intelligences artificielles, inonder les réseaux sociaux pour faire passer un message, élargir à coup de masses la fenêtre d’Overton

Tous les formats de médias sont concernés. Les actualités étaient les premières, suivies désormais par les vidéos et les deepfakes. La question des vidéos générées par IA entre en pleine collision avec les fausses informations et autres deepfake avec le cas de TiboInShape, qui a rendu son visage et sa voix réutilisables par tout un chacun sur Sora d’OpenAI.

Tout n’est pas à jeter dans le monde des réseaux sociaux et des influenceurs, loin de là ! HugoDecrypte (TikTok, X, Instagram, YouTube…) en est un bon exemple. Il s’est imposé comme source fiable auprès des jeunes, comme en témoigne la maxime « Tant qu’HugoDécrypte l’a pas dit, j’y crois pas ».

L’enjeu est important : « Facebook et YouTube sont utilisés respectivement chaque semaine pour s’informer par 36 % et 30 % des plus de 96 000 personnes interrogées, tandis qu’Instagram et WhatsApp sont utilisés par près d’une personne sur cinq pour ce type d’usage, TikTok par 16 % d’entre elles, X par 12 % », expliquions-nous récemment, sur la base d’un rapport de Reuters Institute.

Si vous avez des influenceurs et/ou créateurs de contenus que vous suivez pour leur sérieux et la qualité de leur information, n’hésitez pas à partager les noms dans les commentaires !

Les fausses informations prennent du temps à la vraie information

Les fausses informations sont problématiques, mais faut-il toutes les débunker ? Chez Next par exemple, nous pourrions passer quasiment toutes nos journées à les débunker tant elles sont nombreuses. Du coup, il ne resterait plus de temps pour des « vrais » sujets et analyses.

La merdification de l’information entraine non seulement une prolifération de fausses informations, mais occupe aussi des journalistes de cellules de « fact checking » à les démonter. Ces forces ne seraient-elles pas mieux utilisées à enquêter, à analyser des tendances, à faire des interviews… Bref, du fond ? Je pense que oui, mille fois oui !

La merdification de l’information est à tous les niveaux sur Internet – des sites de presse aux réseaux sociaux – et il devient de plus en plus difficile de trier le bon grain de l’ivraie. L’esprit critique est plus que jamais nécessaire face à la déferlante de fausses informations et de désinformation. Il suffisait pendant un temps de se dire « c’est trop beau pour être vrai, c’est probablement faux » pour lever la plupart des doutes, ce n’est plus le cas aujourd’hui.

« Quand on pense qu’il suffirait que les gens arrêtent… »

Mais force est de constater que ça marche : les gens lisent les fausses informations, les partagent sur les réseaux sociaux et dans des « boucles WhatsApp » (ou autres messageries). Elles sont parfois prises au premier degré avec une inquiétude face à ce qui n’est en fait que du vent.

Comme les gens accèdent à ce genre de contenus, leurs créateurs gagnent de l’argent et donc abreuvent la bête de toujours plus de contenus du genre. Plus les gens vont en lire, plus les réseaux sociaux vont en pousser à l’utilisateur pour le garder captif le plus longtemps possible. Regardez une vidéo Gen IA avec des animaux sur TikTok une fois ou deux et votre flux en devient rapidement inondé. C’est valable pour toutes les thématiques, y compris la politique, les enjeux environnementaux, les sciences, etc.

Chez Next, nous avons pris le pari de traiter des sujets de fond, de vérifier avant de parler, d’enquêter au long cours, et de ne pas céder aux sirènes du putaclik… Un vœu pieux, mais force est de constater que cela ne « paye pas ».

Nous sommes également parmi les rares ovnis du paysage médiatique à n’afficher aucune publicité et à ne pas vous traquer (d’où l’absence de « bandeau RGPD » ), une promesse renforcée depuis le rachat par moji. Ce rachat permet d’ailleurs à Next d’être toujours vivant et de continuer à vous informer avec les mêmes principes.

Mais, là où des médias surfant à fond sur le putaclic et flirtant avec la désinformation prospèrent et engrangent des bénéfices, Next est toujours déficitaire. Une phrase de Coluche résonne plus que jamais : « Quand on pense qu’il suffirait que les gens arrêtent de les acheter [de les lire dans le cas de cet édito, ndlr] pour que ça ne se vende plus. Quelle misère ! ».

S’abonner à Next vous permet de lire l’ensemble de nos articles et de participer aux commentaires, mais aussi de nous soutenir dans notre modèle économique et notre manière de traiter l’information.

[Édito] Que faire face à la merdification de l’information

3 novembre 2025 à 14:58
Comme disait Napoléon, « faut pas croire tout ce qu’on lit sur Internet »
[Édito] Que faire face à la merdification de l’information

N’ayons pas peur des mots, nous sommes dans une « merdification » importante de l’information. Le phénomène n’est pas nouveau, mais il prend de l’importance sur les réseaux sociaux et avec l’IA générative. La balle est dans le camp des internautes.

Enshittification ou merdification a été élu mot de l’année 2024 par le dictionnaire d’anglais australien Macquarie. Sa définition : « détérioration progressive d’un service ou d’un produit, en particulier d’une plateforme en ligne, provoquée par une réduction de la qualité du service fourni résultant de la recherche de profit ».

Ce terme s’applique parfaitement à l’information en ligne. Le phénomène n’est pas nouveau, mais il est de plus en plus inquiétant. Un bon terreau de cette merdification est la course à l’information. Il ne faut pas confondre vitesse et précipitation ; les exemples sont malheureusement nombreux et la situation se répète inlassablement.

La course à l’audience

Sur Internet, cette course à l’information va (malheureusement) de pair avec celle de l’audience. La raison est simple : la publicité, dont les revenus sont directement liés au nombre de visiteurs (les fameux visiteurs uniques ou VU dans le jargon du métier) ou de pages vues. D’une information claire et objective, on dérive depuis longtemps vers des titres putaclicks, des fake news et, de plus en plus, un mélange des deux.

Avec la merdification de l’information, le phénomène va plus loin. Les gens (et pas uniquement les jeunes) s’abreuvent maintenant sur les réseaux sociaux et s’informent par le prisme de certains influenceurs. Pour reprendre les inconnus : « y’a le mauvais chasseur [d’information] : y voit un truc qui bouge, y tire. Le bon chasseur : y voit un truc, y tire… ».

Dans l’information, c’est presque pareil, sauf que ceux qui racontent n’importe quoi sont les premiers à tirer, ceux qui enquêtent tirent plus tard. La course à l’audimat pousse une grande partie des médias à tirer le plus vite possible. L’information est fausse ? Pas « grave », une seconde sera publiée s’il y a de quoi (re)faire de l’audience, sinon elle sera limite laissée de côté.

Nous avons déjà longuement parlé de la loi de Brandolini ou « principe d’asymétrie des idioties » pour les sciences, mais cela touche désormais toutes les catégories d’information. Ne pas oublier que ceux qui racontent des idioties (pour rester poli) ne prennent pas de pincettes et foncent tête baissée, là où les chercheurs et scientifiques pèsent les conséquences et la portée de leurs mots. Deux discours, une même cible, mais pas les mêmes règles du jeu.

Combien de fois des informations ont fait les gros titres lors d’une condamnation alors que le jugement cassé en appel n’est quasiment pas évoqué ? Beaucoup trop… Combien de fois de fausses vidéos sont relayées sans jamais corriger le tir ? Beaucoup trop… Combien de fois des fuites de données inexistantes font les gros titres (et font le jeu des pirates) ? Beaucoup trop… Vous avez compris l’idée.

La course à la visibilité

La situation évolue, mais pas dans le bon sens. Aujourd’hui, personnalités publiques et influenceurs ont un vrai pouvoir sur les gens et le moindre geste peut déplacer des foules. Un exemple récent avec un t-shirt vintage d’un aquarium porté par Taylor Swift. Des fans voulaient le même, l’aquarium en fait une réédition et le propose en « cadeau » pour un don à la protection des loutres. Montant de l’opération : plus de 2 millions de dollars. Rien de grave ici, au contraire, mais cela montre à quel point une idole peut faire bouger les choses.

Le problème étant que certains influenceurs poussent parfois à leur communauté des produits illégaux et/ou dangereux, au mépris des lois. L’année dernière, la DGCCRF dressait un triste bilan : sur 310 influenceurs contrôlés, 151 étaient « en anomalies ».

Les marques ont bien compris le potentiel des influenceurs et l’océan (plus ou moins grand) de poissons à attraper. Rappel : vous êtes le poisson. Pour vous attraper, marques et/ou influenceurs passent parfois la ligne rouge puisque la mention d’un partenariat commercial n’est pas toujours indiquée.

De l’information consommée par certains sur les réseaux sociaux, on se retrouve à avoir des messages publicitaires, que ce soit pour des produits ou des idées (politiques). Les influenceurs s’invitent aussi dans la vie politique et vice-versa, cela soulève d’autres questions sur l’information politique diversifiée. Si la télévision et la radio sont dans le viseur de l’Arcom, le web et les réseaux sociaux sont encore laissés de côté.

Le sujet de la régulation ne bouge pas vraiment alors qu’en mars prochain auront lieu les élections municipales, puis les présidentielles en 2027. Il y a de quoi être inquiet, d’autant que la génération des enfants nés dans la seconde moitié des années 2000, qui ont donc grandi avec les réseaux sociaux, sont désormais en âge de voter.

La course au sensationnel

L’IA générative est aussi un problème, qui fait des dégâts dans les médias. Dernier exemple en date, ce qui était présenté comme le projet « sky stadium » de l’Arabie saoudite. Une vidéo montrant ce que devait être un stade à 350 mètres d’altitude était fausse, comme l’indique l’AFP Factuel.

Reprise par de nombreux médias, avec souvent Paris-Match comme source (qui a depuis supprimé sa publication Instagram), l’information n’est pas toujours corrigée. Cette fausse vidéo surfe en prime sur la vague du projet pharaonique « The Line », qui a beaucoup de plomb dans l’aile. Bref, une belle histoire et de belles images, à un détail près : c’est faux.

Cet exemple soulève un autre problème : le temps nécessaire à débunker ce genre de fake news, pourtant grossières. Ce n’est qu’un seul exemple dans l’océan de merdification de l’information. Certains sites d’information générés par intelligence artificielle n’en finissent pas d’inonder le web avec du n’importe quoi.

Ils lancent des fausses informations dans tous les sens à la recherche de buzz (pour multiplier les visiteurs, donc les pages, donc les publicités, donc les revenus). Cela ne va généralement pas chercher plus loin. Parfois, les sites Gen AI peuvent aussi servir des buts particuliers : spammer des moteurs de recherche ou des intelligences artificielles, inonder les réseaux sociaux pour faire passer un message, élargir à coup de masses la fenêtre d’Overton

Tous les formats de médias sont concernés. Les actualités étaient les premières, suivies désormais par les vidéos et les deepfakes. La question des vidéos générées par IA entre en pleine collision avec les fausses informations et autres deepfake avec le cas de TiboInShape, qui a rendu son visage et sa voix réutilisables par tout un chacun sur Sora d’OpenAI.

Tout n’est pas à jeter dans le monde des réseaux sociaux et des influenceurs, loin de là ! HugoDecrypte (TikTok, X, Instagram, YouTube…) en est un bon exemple. Il s’est imposé comme source fiable auprès des jeunes, comme en témoigne la maxime « Tant qu’HugoDécrypte l’a pas dit, j’y crois pas ».

L’enjeu est important : « Facebook et YouTube sont utilisés respectivement chaque semaine pour s’informer par 36 % et 30 % des plus de 96 000 personnes interrogées, tandis qu’Instagram et WhatsApp sont utilisés par près d’une personne sur cinq pour ce type d’usage, TikTok par 16 % d’entre elles, X par 12 % », expliquions-nous récemment, sur la base d’un rapport de Reuters Institute.

Si vous avez des influenceurs et/ou créateurs de contenus que vous suivez pour leur sérieux et la qualité de leur information, n’hésitez pas à partager les noms dans les commentaires !

Les fausses informations prennent du temps à la vraie information

Les fausses informations sont problématiques, mais faut-il toutes les débunker ? Chez Next par exemple, nous pourrions passer quasiment toutes nos journées à les débunker tant elles sont nombreuses. Du coup, il ne resterait plus de temps pour des « vrais » sujets et analyses.

La merdification de l’information entraine non seulement une prolifération de fausses informations, mais occupe aussi des journalistes de cellules de « fact checking » à les démonter. Ces forces ne seraient-elles pas mieux utilisées à enquêter, à analyser des tendances, à faire des interviews… Bref, du fond ? Je pense que oui, mille fois oui !

La merdification de l’information est à tous les niveaux sur Internet – des sites de presse aux réseaux sociaux – et il devient de plus en plus difficile de trier le bon grain de l’ivraie. L’esprit critique est plus que jamais nécessaire face à la déferlante de fausses informations et de désinformation. Il suffisait pendant un temps de se dire « c’est trop beau pour être vrai, c’est probablement faux » pour lever la plupart des doutes, ce n’est plus le cas aujourd’hui.

« Quand on pense qu’il suffirait que les gens arrêtent… »

Mais force est de constater que ça marche : les gens lisent les fausses informations, les partagent sur les réseaux sociaux et dans des « boucles WhatsApp » (ou autres messageries). Elles sont parfois prises au premier degré avec une inquiétude face à ce qui n’est en fait que du vent.

Comme les gens accèdent à ce genre de contenus, leurs créateurs gagnent de l’argent et donc abreuvent la bête de toujours plus de contenus du genre. Plus les gens vont en lire, plus les réseaux sociaux vont en pousser à l’utilisateur pour le garder captif le plus longtemps possible. Regardez une vidéo Gen IA avec des animaux sur TikTok une fois ou deux et votre flux en devient rapidement inondé. C’est valable pour toutes les thématiques, y compris la politique, les enjeux environnementaux, les sciences, etc.

Chez Next, nous avons pris le pari de traiter des sujets de fond, de vérifier avant de parler, d’enquêter au long cours, et de ne pas céder aux sirènes du putaclik… Un vœu pieux, mais force est de constater que cela ne « paye pas ».

Nous sommes également parmi les rares ovnis du paysage médiatique à n’afficher aucune publicité et à ne pas vous traquer (d’où l’absence de « bandeau RGPD » ), une promesse renforcée depuis le rachat par moji. Ce rachat permet d’ailleurs à Next d’être toujours vivant et de continuer à vous informer avec les mêmes principes.

Mais, là où des médias surfant à fond sur le putaclic et flirtant avec la désinformation prospèrent et engrangent des bénéfices, Next est toujours déficitaire. Une phrase de Coluche résonne plus que jamais : « Quand on pense qu’il suffirait que les gens arrêtent de les acheter [de les lire dans le cas de cet édito, ndlr] pour que ça ne se vende plus. Quelle misère ! ».

S’abonner à Next vous permet de lire l’ensemble de nos articles et de participer aux commentaires, mais aussi de nous soutenir dans notre modèle économique et notre manière de traiter l’information.

PUE, WUE et CUE : comprendre l’empreinte environnementale des datacenters

3 novembre 2025 à 10:21
Et le BOM ? Bullshit-O-Mètre
PUE, WUE et CUE : comprendre l’empreinte environnementale des datacenters

Dans nos précédents articles, nous avons expliqué ce qu’était un serveur, puis une baie (ou un rack) et enfin un datacenter. Nous étions restés sur des considérations purement matérielles. L’éléphant dans la pièce est bien évidemment la question environnementale, avec la consommation en eau, en électricité et les émissions carbones.

Autant les exploitants de datacenters peuvent être prolixes quand il s’agit de promettre monts et merveilles sur les avantages du cloud et de l’IA, autant le mutisme s’installe rapidement (surtout chez les géants américains) sur les consommations et émissions de gaz à effet de serre. Même quand ils communiquent, il faut se méfier du périmètre des indicateurs.

Nous allons parler du PUE (Power Usage Effectiveness, ou Indicateur d’efficacité énergétique en français) qui représente l’efficacité énergétique, mais ne donne pas d’indication sur les émissions carbone liées. Suivant les pays, un PUE identique ne signifie pas du tout la même chose ! La France par exemple utilise beaucoup de nucléaire dans son mix énergétique, alors que les États-Unis et la Pologne par exemple vont utiliser du charbon pour produire de l’électricité.

Nous parlerons ensuite de WUE (Water Usage Effectiveness, indicateur d’efficacité d’utilisation de l’eau), qui permet d’avoir un rapport entre la quantité d’eau utilisée et l’énergie électrique consommée. Comme pour l’électricité, la position géographique a son importance, notamment pour prendre en compte d’éventuelles tensions hydriques, d’autant plus avec le réchauffement climatique qui vient rebattre les cartes.

Le troisième gros morceau concerne le CUE (Carbon Usage Effectiveness, indicateur d’efficacité d’utilisation du carbone) qui mesure l’empreinte carbone du datacenter en fonction de sa consommation d’énergie. Mais là encore, rien n’est simple et pour un même datacenter le CUE peut fortement varier suivant un paramètre. Doit-on prendre en compte l’électricité réellement consommée ou bien l’électricité renouvelable virtuellement achetée à coup de contrats d’approvisionnement ?

Next vous explique tout cela en détail.

Consommation électrique et PUE

Quand on parle électricité, on saute généralement trop vite sur la consommation, en laissant de côté les sources et le mix énergétique. C’est pourtant un élément très important.


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Shein vendait des « poupées sexuelles à caractère pédopornographique »

3 novembre 2025 à 07:23

C’est le constat fait par la DGCCRF (Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes). « Leur description et leur catégorisation sur le site permettent difficilement de douter du caractère pédopornographique des contenus », explique le ministère de l’Économie dans un communiqué.

Des signalements au procureur de la République, à l’Arcom et à la plateforme Shein ont été faits dans la foulée. « La diffusion, via un réseau de communications électroniques, de représentations à caractère pédopornographique, est passible de peines pouvant aller jusqu’à 7 ans d’emprisonnement et 100 000 euros d’amende », rappelle le ministère.

Sans compter que, « en l’absence de mesure de filtrage efficace visant à protéger les mineurs, la loi prévoit des peines d’amende pouvant aller jusqu’à 3 ans de prison et 75 000 euros d’amende. Ces faits ont également été signalés au procureur et à l’Arcom ».

Sentant le vent tourner, un communiqué de presse a été envoyé dans la foulée par Shein à de nombreuses rédactions, dont Next : « Shein confirme que les produits en question ont été immédiatement retirés de la plateforme dès que nous avons eu connaissance de ces défaillances majeures ».

Une enquête a été lancée pour comprendre comment « ces annonces ont pu contourner [les] dispositifs de contrôle ». L’entreprise « mène une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ».

« Ce type de contenu est totalement inacceptable et va à l’encontre de toutes les valeurs que nous défendons. Nous prenons des mesures correctives immédiates et renforçons nos dispositifs internes afin d’éviter qu’une telle situation ne se reproduise », affirme le porte-parole de Shein Quentin Ruffat.

Shein doit pour rappel ouvrir dans les prochains jours un espace de plus de 1 000 m² dans le magasin historique du BHV, ainsi que des corners de 300 à 400 m² dans cinq magasins Galeries Lafayette. Cette annonce avait largement fait polémique. Disney devait, par exemple, décorer les vitrines du magasin mais a finalement décidé d’annuler car les conditions n’étaient « plus réunies pour déployer sereinement les animations de Noël ».

Shein a reçu une amende de 150 millions d’euros pour avoir fait n’importe quoi avec les cookies, ainsi que deux amendes de la DGCCRF : 1,1 million d’euros pour une « information défaillante sur la qualité environnementale des produits » et 40 millions d’euros pour des pratiques commerciales trompeuses. D’autres enquêtes sont en cours.

☕️ Shein vendait des « poupées sexuelles à caractère pédopornographique »

3 novembre 2025 à 07:23

C’est le constat fait par la DGCCRF (Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes). « Leur description et leur catégorisation sur le site permettent difficilement de douter du caractère pédopornographique des contenus », explique le ministère de l’Économie dans un communiqué.

Des signalements au procureur de la République, à l’Arcom et à la plateforme Shein ont été faits dans la foulée. « La diffusion, via un réseau de communications électroniques, de représentations à caractère pédopornographique, est passible de peines pouvant aller jusqu’à 7 ans d’emprisonnement et 100 000 euros d’amende », rappelle le ministère.

Sans compter que, « en l’absence de mesure de filtrage efficace visant à protéger les mineurs, la loi prévoit des peines d’amende pouvant aller jusqu’à 3 ans de prison et 75 000 euros d’amende. Ces faits ont également été signalés au procureur et à l’Arcom ».

Sentant le vent tourner, un communiqué de presse a été envoyé dans la foulée par Shein à de nombreuses rédactions, dont Next : « Shein confirme que les produits en question ont été immédiatement retirés de la plateforme dès que nous avons eu connaissance de ces défaillances majeures ».

Une enquête a été lancée pour comprendre comment « ces annonces ont pu contourner [les] dispositifs de contrôle ». L’entreprise « mène une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ».

« Ce type de contenu est totalement inacceptable et va à l’encontre de toutes les valeurs que nous défendons. Nous prenons des mesures correctives immédiates et renforçons nos dispositifs internes afin d’éviter qu’une telle situation ne se reproduise », affirme le porte-parole de Shein Quentin Ruffat.

Shein doit pour rappel ouvrir dans les prochains jours un espace de plus de 1 000 m² dans le magasin historique du BHV, ainsi que des corners de 300 à 400 m² dans cinq magasins Galeries Lafayette. Cette annonce avait largement fait polémique. Disney devait, par exemple, décorer les vitrines du magasin mais a finalement décidé d’annuler car les conditions n’étaient « plus réunies pour déployer sereinement les animations de Noël ».

Shein a reçu une amende de 150 millions d’euros pour avoir fait n’importe quoi avec les cookies, ainsi que deux amendes de la DGCCRF : 1,1 million d’euros pour une « information défaillante sur la qualité environnementale des produits » et 40 millions d’euros pour des pratiques commerciales trompeuses. D’autres enquêtes sont en cours.

#Nextquick : le coût en eau d’une requête ChatGPT

31 octobre 2025 à 14:00
Message in a bottle, yeah !
#Nextquick : le coût en eau d’une requête ChatGPT

Régulièrement sur les réseaux sociaux, la même rengaine revient : le coût en eau d’une requête sur ChatGPT. Après les GW comme unité de calcul de puissance des GPU, le litre pour le coût environnemental des IA génératives ?

50 cl d’eau par requête ChatGPT ? Chiche !

Selon certains, une requête « consommerait 50 cl d’eau ». Partons de ce postulat. Selon Sam Altman, ChatGPT aurait plus de 800 millions d’utilisateurs actifs par semaine pour 2,5 milliards de requêtes par jour. Cela donnerait donc 1,25 milliard de litres (1 250 000 m³) d’eau par jour, ou encore 450 millions de m³ d’eau sur l’année.

À titre de comparaison, Microsoft annonce des prélèvements de 10,4 millions de m³ d’eau en 2024 au niveau mondial (5,8 millions en Amérique du Nord). Selon l’USGS (United States Geological Survey), la consommation des États-Unis en 2015 était de 322 milliards de gallons (1,2 milliard de m³ d’eau) par jour, soit 450 milliards de m³ par an.

On résume : sur la base des hypothèses, ChatGPT consommerait 45 fois plus d’eau que Microsoft au niveau mondial ou 0,1 % de la consommation totale des États-Unis (en 2015).

Avec 50 cl d’eau par requête, il ne faudrait que 60 millions de requêtes ChatGPT par jour pour arriver à la consommation totale d’eau de Microsoft.

Comment calculer combien d’eau consomme une requête ?

Deuxième approche, comment passe-t-on d’un prompt à un volume d’eau et peut-on retomber sur 50 cl par requête ? Déjà existe-t-il un lien de causalité entre une requête et une consommation d’eau. Oui : l’eau est utilisée pour refroidir les serveurs informatiques. Pour estimer la consommation, deux approches.

La première à partir de la consommation exacte d’une requête. Avec une règle de trois, en connaissant la consommation totale en électricité et en eau sur une période, on pourrait en déduire le volume d’eau moyen pour une requête. Mais on ne connait pas le coût énergétique d’une requête.

La deuxième avec le nombre total de requêtes sur une période (en partant du principe que le serveur ne fait rien d’autre). Si on connait la quantité d’eau utilisée, on peut obtenir la consommation moyenne d’une requête.

Attention, dans les deux cas on parle de moyenne sur l’ensemble des requêtes. Certaines sont plus longues que d’autres et consomment donc davantage.

Les datacenters ne sont pas égaux

Autre point important : la localisation des serveurs. Imaginons que la requête se fasse sur Azure de Microsoft (partenaire d’OpenAI), la consommation d’eau par kWh (on parle de WUE) varie entre 0,02 L/kWh (Irlande) et 1,52 L/kWh (Arizona) selon les données de Microsoft, soit jusqu’à 80x plus. Sur les datacenters Azure aux États-Unis, le WUE va de 0,1 à 1,52, soit un rapport de x15. Une même requête consommerait donc 80 fois plus d’eau en Arizona qu’à Singapour ou en Irlande.

Sans connaitre le datacenter (et on ne le connait pas quand on fait une requête), sa consommation électrique ni son WUE, impossible d’en déduire une estimation (même vague) de la consommation d’une requête à ChatGPT.

« 500 ml pour environ 10 à 50 réponses de longueur moyenne »

D’où viennent alors les 500 ml (50 cl) qu’on voit revenir plus ou moins régulièrement ? D’une étude américaine publiée dans la revue Communications of ACM :

« En prenant comme exemple le modèle GPT-3 avec ses 175 milliards de paramètres, nous montrons que l’entraînement de GPT-3 dans les centres de données américains de Microsoft peut consommer un total de 5,4 millions de litres d’eau, dont 700 000 litres de consommation d’eau sur site (scope 1). De plus, GPT-3 a besoin de « boire » (c’est-à-dire de consommer) une bouteille d’eau de 500 ml pour environ 10 à 50 réponses de longueur moyenne, selon le moment et le lieu de son déploiement ».

500 ml pour 10 à 50 réponses, soit 10 à 50 ml pour une requête GPT-3. OpenAI est depuis passé à GPT-5, mais nous n’avons pas de détails sur son coût environnemental. On se doute qu’il est bien plus important, mais dans quelles proportions ?

Les 10 à 50 ml sont-ils liés au datacenter avec le plus petit WUE, celui avec le plus gros ou à une moyenne ? Selon les hypothèses, la consommation pourrait donc varier de 0,7 à 750 ml… À ce niveau-là, difficile de dire qu’on tient une piste.

« Consommer » de l’eau ?

Et puis, qu’appelle-t-on consommation d’eau ? Microsoft fait bien la différence entre prélèvement, consommation et rejet. La consommation est égale aux prélèvements moins les rejets. Les 10 millions de m³ sont des prélèvements, pour une consommation de 5,8 millions de m³, le reste de l’eau étant rejeté. Rappelons que sur Terre l’eau ne disparait pas, elle suit un cycle.

Dernier point : on n’a même pas parlé du coût de l’entrainement du modèle (des batteries de GPU pendant des mois), de la production de l’électricité, du réseau… Mais ce serait autant d’éléments à intégrer.

Le monde selon NVIDIA : l’IA pour l’IA par l’IA

30 octobre 2025 à 09:03
1 milliard de dollars is the new centime
Le monde selon NVIDIA : l’IA pour l’IA par l’IA

Comme à chaque conférence GTC, NVIDIA présente ses nouveautés et orientations. L’intelligence artificielle est au cœur des annonces, avec des partenariats tous azimuts, des datacenters toujours plus gros… NVIDIA partage aussi sa vision d’un monde robotisé dans lequel des machines « intelligentes et pensantes » vont « stimuler la réindustrialisation américaine ».

Mardi, l’action de NVIDIA a bondi de 20 % (avant de se stabiliser à+ 16 %), quelle peut en être la cause ? L’intelligence artificielle. Le moins que l’on puisse dire, c’est que les annonces étaient nombreuses. Next vous propose un tour d’horizon de la vingtaine de communiqués de presse pour avoir une vision d’ensemble.

NVIDIA investit 1 milliard de dollars dans Nokia


Il reste 97% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

C’est quoi un datacenter ?

29 octobre 2025 à 09:21
Ma Gavcave est un DC !
C’est quoi un datacenter ?

Nous avons vu ce qu’était un serveur, puis une baie (ou un rack). Si on multiplie les baies, on arrive à une salle, puis un datacenter. Mais un « DC » ce n’est pas que des baies, c’est aussi bien d’autres éléments.

Difficile de définir ce qu’est exactement un datacenter (ou centre de données, pour la traduction littérale) puisqu’aucune règle n’est précise. La présentation d’IBM correspond assez bien à l’idée qu’on s’en fait : « une salle, un bâtiment ou une installation physique qui abrite l’infrastructure informatique nécessaire à la création, à l’exécution et à la fourniture d’applications et de services ».

Il n’y a pas de taille minimale ni maximale : on peut très bien faire un datacenter dans une cave souterraine, un abri anti-atomique en plein cœur de Paris, dans une ancienne maison, un immeuble, un bunker, un bâtiment industriel, un conteneur, etc. Vous voyez, c’est large !

Un datacenter, c’est plusieurs (grosses) arrivées électriques


Il reste 90% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

AI200 et AI250 : Qualcomm veut sa part du gâteau de l’IA dans les datacenters

28 octobre 2025 à 14:15
Rien à déclarer, version communiqué de presse
AI200 et AI250 : Qualcomm veut sa part du gâteau de l’IA dans les datacenters

Qualcomm ne veut pas rester sur le bord de l’autoroute des puces dédiées à l’IA pour les datacenters. L’entreprise annonce ses AI200 et AI250 pour redéfinir les « performances d’inférence à l’échelle du rack pour l’ère de l’IA ». De belles promesses, mais avec quasiment aucun chiffre, histoire probablement d’occuper le terrain…

Qualcomm annonce deux nouveaux produits pour l’intelligence artificielle, qui sont basés sur ses NPU (Neural Processing Unit) Hexagon, ceux que l’on retrouve dans ses SoC. Le géant des semi-conducteurs ne vise pas les opérations lourdes liées à l’entrainement des grands modèles de langage, mais celles liées à la phase d’inférence, c’est-à-dire lorsqu’il faut répondre aux utilisateurs.

Qualcomm AI200 et AI250 : où sont les caractéristiques techniques ?

Il est question de « cartes accélératrices basées sur puces Qualcomm AI200 et AI250, ainsi que des racks », c’est-à-dire des baies complètes à installer dans les datacenters. La première solution, AI200, « prend en charge 768 Go de LPDDR par carte pour une capacité mémoire accrue et un coût réduit ». Une quantité relativement importante pour de l’inférence, mais comme Qualcomm ne donne aucun détail supplémentaire, difficile d’en savoir plus…

Si on regarde la dernière génération de SoC avec un NPU Hexagon, le Snapdragon 8 Elite Gen 5, il est question de « 12 scalar + 8 vector + 1 accelerator configuration », avec la prise en charge des niveaux de précision INT2, INT4, INT8 et INT16 pour les entiers, ainsi que FP8 et FP16 pour les nombres à virgule.

Qu’en est-il pour les « cartes » qui composeront les racks de Qualcomm ? Mystère et boule de gomme… L’annonce intervient dans une période chargée sur les accélérateurs dédiés à l’intelligence artificielle générative, avec notamment OpenAI qui multiplie les promesses avec des milliards de dollars et des GW de puissance électrique comme s’il en pleuvait. Il y a eu NVIDIA, puis AMD et Broadcom plus récemment.

Du near-memory computing pour l’AI250

Concernant l’AI250, c’est encore plus vague : elle « fera ses débuts avec une architecture mémoire innovante basée sur du calcul proche de la mémoire (near-memory computing), apportant un saut générationnel d’efficacité et de performances pour les workloads d’inférence IA en offrant une bande passante mémoire effective supérieure de plus de 10x et une consommation énergétique nettement inférieure ». Le bingo bullshit fait ensuite un carton plein : « Cela permet une inférence IA désagrégée pour une utilisation efficiente du matériel ».

Qualcomm ajoute que ses racks (ou baies) utilisent un refroidissement liquide direct (DLC) qui est désormais standardisé dans les datacenters, proposent du PCIe et du réseau Ethernet ; le tout avec « une consommation électrique par rack de 160 kW ». Cette puissance est, pour le moment, plutôt dans la moyenne haute actuelle pour ce genre d’usage. Pour rappel, OVHcloud prévoit même des baies de 240 kW par la suite.

C’est aussi un moyen de faire comme ses petits camarades : parler de puissance électrique pour l’intelligence artificielle, mais sans annoncer la moindre puissance de calcul.

Rendez-vous en 2026 et 2027

Les Qualcomm AI200 et AI250 ne sont pas disponibles tout de suite, loin de là. La première n’arrivera pas avant l’année prochaine et la seconde qu’en 2027. Qualcomm s’engage à tenir une « cadence annuelle à l’avenir, axée sur des performances d’inférence pour l’IA de pointe, l’efficacité énergétique et le TCO (Total Cost of Ownership)  ».

Sur sa page dédiée aux datacenters, Qualcomm référence déjà une solution pour l’inférence : la Cloud AI 100 Ultra. Il s’agit d’une carte PCIe x16 (gen 4) avec une puissance de 870 TOPS en INT8, 128 Go de mémoire et un TDP de 150 W.

Qualcomm annonce aussi une « collaboration majeure visant à déployer une infrastructure d’intelligence artificielle avancée en Arabie saoudite ». HUMAIN, une société du Fonds public d’investissement d’Arabie saoudite, « prévoit de déployer 200 mégawatts dès 2026, en s’appuyant sur les solutions d’accélération en rack Qualcomm AI200 et AI250 ». Ces annonces ont fait grimper de près de 20 % l’action de Qualcomm à l’ouverture lundi, avant qu’elle ne se stabilise sur une hausse de l’ordre de 10 %.

AI200 et AI250 : Qualcomm veut sa part du gâteau de l’IA dans les datacenters

28 octobre 2025 à 14:15
Rien à déclarer, version communiqué de presse
AI200 et AI250 : Qualcomm veut sa part du gâteau de l’IA dans les datacenters

Qualcomm ne veut pas rester sur le bord de l’autoroute des puces dédiées à l’IA pour les datacenters. L’entreprise annonce ses AI200 et AI250 pour redéfinir les « performances d’inférence à l’échelle du rack pour l’ère de l’IA ». De belles promesses, mais avec quasiment aucun chiffre, histoire probablement d’occuper le terrain…

Qualcomm annonce deux nouveaux produits pour l’intelligence artificielle, qui sont basés sur ses NPU (Neural Processing Unit) Hexagon, ceux que l’on retrouve dans ses SoC. Le géant des semi-conducteurs ne vise pas les opérations lourdes liées à l’entrainement des grands modèles de langage, mais celles liées à la phase d’inférence, c’est-à-dire lorsqu’il faut répondre aux utilisateurs.

Qualcomm AI200 et AI250 : où sont les caractéristiques techniques ?

Il est question de « cartes accélératrices basées sur puces Qualcomm AI200 et AI250, ainsi que des racks », c’est-à-dire des baies complètes à installer dans les datacenters. La première solution, AI200, « prend en charge 768 Go de LPDDR par carte pour une capacité mémoire accrue et un coût réduit ». Une quantité relativement importante pour de l’inférence, mais comme Qualcomm ne donne aucun détail supplémentaire, difficile d’en savoir plus…

Si on regarde la dernière génération de SoC avec un NPU Hexagon, le Snapdragon 8 Elite Gen 5, il est question de « 12 scalar + 8 vector + 1 accelerator configuration », avec la prise en charge des niveaux de précision INT2, INT4, INT8 et INT16 pour les entiers, ainsi que FP8 et FP16 pour les nombres à virgule.

Qu’en est-il pour les « cartes » qui composeront les racks de Qualcomm ? Mystère et boule de gomme… L’annonce intervient dans une période chargée sur les accélérateurs dédiés à l’intelligence artificielle générative, avec notamment OpenAI qui multiplie les promesses avec des milliards de dollars et des GW de puissance électrique comme s’il en pleuvait. Il y a eu NVIDIA, puis AMD et Broadcom plus récemment.

Du near-memory computing pour l’AI250

Concernant l’AI250, c’est encore plus vague : elle « fera ses débuts avec une architecture mémoire innovante basée sur du calcul proche de la mémoire (near-memory computing), apportant un saut générationnel d’efficacité et de performances pour les workloads d’inférence IA en offrant une bande passante mémoire effective supérieure de plus de 10x et une consommation énergétique nettement inférieure ». Le bingo bullshit fait ensuite un carton plein : « Cela permet une inférence IA désagrégée pour une utilisation efficiente du matériel ».

Qualcomm ajoute que ses racks (ou baies) utilisent un refroidissement liquide direct (DLC) qui est désormais standardisé dans les datacenters, proposent du PCIe et du réseau Ethernet ; le tout avec « une consommation électrique par rack de 160 kW ». Cette puissance est, pour le moment, plutôt dans la moyenne haute actuelle pour ce genre d’usage. Pour rappel, OVHcloud prévoit même des baies de 240 kW par la suite.

C’est aussi un moyen de faire comme ses petits camarades : parler de puissance électrique pour l’intelligence artificielle, mais sans annoncer la moindre puissance de calcul.

Rendez-vous en 2026 et 2027

Les Qualcomm AI200 et AI250 ne sont pas disponibles tout de suite, loin de là. La première n’arrivera pas avant l’année prochaine et la seconde qu’en 2027. Qualcomm s’engage à tenir une « cadence annuelle à l’avenir, axée sur des performances d’inférence pour l’IA de pointe, l’efficacité énergétique et le TCO (Total Cost of Ownership)  ».

Sur sa page dédiée aux datacenters, Qualcomm référence déjà une solution pour l’inférence : la Cloud AI 100 Ultra. Il s’agit d’une carte PCIe x16 (gen 4) avec une puissance de 870 TOPS en INT8, 128 Go de mémoire et un TDP de 150 W.

Qualcomm annonce aussi une « collaboration majeure visant à déployer une infrastructure d’intelligence artificielle avancée en Arabie saoudite ». HUMAIN, une société du Fonds public d’investissement d’Arabie saoudite, « prévoit de déployer 200 mégawatts dès 2026, en s’appuyant sur les solutions d’accélération en rack Qualcomm AI200 et AI250 ». Ces annonces ont fait grimper de près de 20 % l’action de Qualcomm à l’ouverture lundi, avant qu’elle ne se stabilise sur une hausse de l’ordre de 10 %.

On a testé OpenZL, le modèle de compression de Meta : résultats et limitations

28 octobre 2025 à 10:04
Allez, on se tasse !
On a testé OpenZL, le modèle de compression de Meta : résultats et limitations

Il y a trois semaines, Meta annonçait un nouveau modèle de compression en open source. Nous l’avons installé sur une de nos machines afin de tester ses possibilités sur différents types de fichiers, au-delà des tests de Meta. Nous avons découvert quelques limitations au passage.

Pour nos tests, nous utilisons une machine virtuelle avec Ubuntu Server 24.02 LTS (SSD dédié, 24 cœurs CPU et 56 Go de mémoire) sur notre serveur Dell PowerEdgeT630 avec Proxmox.

Installation d’OpenZL et premiers tours de piste

L’installation n’est vraiment pas compliquée et ne nécessite que trois lignes de code.

git clone https://github.com/facebook/openzl.git
cd openzl
make

La première ligne va créer un répertoire openzl et y copier le contenu du dépôt GitHub d’OpenZL de Meta (Facebook). La deuxième ligne nous permet d’aller dans ce répertoire, la troisième de lancer la compilation d’OpenZL. C’est tout !

Le programme s’appelle « zli » et on peut l’appeler, dans notre cas, via cette commande : « /home/gathor/openzl-repo/cachedObjs/*/zli ». Par exemple, pour connaitre la version de l’algorithme : « /home/gathor/openzl-repo/cachedObjs/*/zli --version ». Pour simplifier, nous garderons simplement la commande zli pour la suite de cet article.

Le fonctionnement classique de zli est le suivant : « zli <command> [options] < args> ». Les commandes possibles sont compress, decompress, train, benchmark, etc. On peut aussi préciser un nom de fichier de sortie avec -o, un profil avec -p, etc. On peut utiliser « zli --help » pour avoir tous les détails.

Sur sao, OpenZL explose bien la concurrence

Premier test : vérifier les allégations de Meta sur le niveau de compression des données sao. Il faut d’abord récupérer le corpus silesia et ensuite extraire le fichier sao. Deux lignes de commandes plus tard, c’est fait.

Nous lançons dans la foulée trois tests de compression avec zli (profil sao), xz avec le niveau 9 de compression et zstd avec le niveau 3 (time permet de récupérer le temps nécessaire au traitement de la commande) pour répéter les tests de Meta.

curl -L -o silesia.zip http://sun.aei.polsl.pl/~sdeor/corpus/silesia.zip
python3 -c "import zipfile; zipfile.ZipFile('silesia.zip').extract('sao', '')"
time zli compress sao -o sao.ozl -p sao -f
time xz - 9 -k sao -f
time zstd - 3 -k sao -o sao.zst -f

Nous arrivons bien à un ratio de 2,06, exactement ce qu’annonce Meta. Même chose pour xz avec 1,64x et zstd avec 1,31x. xz est déjà à son niveau maximum de compression, mais pas zstd qui peut monter bien plus haut. Avec un niveau de 22, cela donne un ratio de compression de 1,45x (mais avec un temps de traitement beaucoup plus long), comme on peut le voir dans le graphique ci-dessous.

Passons maintenant aux tests maison !


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Nouvelle alerte sur des « tsunamis » de déchets électroniques

27 octobre 2025 à 14:34

L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».

Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».

Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.

Monstre de consommation numérique s'auto-alimentant

La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.

Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».

Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».

☕️ Nouvelle alerte sur des « tsunamis » de déchets électroniques

27 octobre 2025 à 14:34

L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».

Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».

Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.

Monstre de consommation numérique s'auto-alimentant

La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.

Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».

Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».

T@LC : on a posé 20 fois la même question à une IA, on a eu 5 réponses différentes

27 octobre 2025 à 09:37
Oublie que t'as aucune chance, vas-y fonce ! On sait jamais !
T@LC : on a posé 20 fois la même question à une IA, on a eu 5 réponses différentes

Dans notre nouvel épisode de T@LC (Tests À La Con), nous avons posé 20 fois une même question à Claude, mais n’avons obtenu la bonne réponse que 16 fois. L’intelligence artificielle générative s’est trompée dans ses calculs (elles ne sont pas bonnes dans ce domaine), mais aussi dans son raisonnement.

On en parle à longueur d’actualités, mais un rappel ne peut pas faire de mal : les intelligences artificielles génératives ont deux principaux défauts. Tout d’abord, elles hallucinent plus ou moins régulièrement, c’est-à-dire qu’elles proposent des résultats incorrects ou trompeurs, pour reprendre la notion qui est généralement admise dans cette communauté (sans être une définition absolue).

Le deuxième défaut est étroitement lié au premier : les intelligences artificielles sont probabilistes. Et qui dit probabilité, dit risque d’erreur. C’est aussi simple que cela. En fait, une intelligence artificielle va donner la réponse qu’elle juge la plus probable selon ses modèles mathématiques.

On pourrait très grossièrement résumer en disant que si une IA est fiable à 90 % sur un sujet, elle donnera la bonne réponse 9 fois sur 10 (ce n’est pas si simple, mais c’est une première approche). La dixième fois, elle peut halluciner et répondre complètement à côté de la plaque. Les probabilités peuvent varier, mais de par la construction des modèles, il est impossible de garantir un résultat fiable à 100 % en toutes circonstances.

Une question, vingt réponses : quatre sont fausses

Vous voulez un exemple ? Nous avons posé plusieurs fois une même question à Claude avec le modèle Haiku 4.5 : « Combien de temps faut-il pour consommer 500 Go avec un débit de 50 Mb/s ? ».

Rien de bien compliqué pour un humain : 50 Mb/s c’est équivalent à 6,25 Mo/s (on divise par huit), soit 80 000 secondes pour 500 000 Mo (500 Go) ou bien encore 22,2 heures. C’est également 22 heures, 13 minutes et 33 secondes.

Enfin « rien de compliqué » à condition de s’entendre sur le passage des Go aux Mo. Parle-t-on de 500 000 Mo (500 * 10³) ou bien de 512 000 Mo (500 * 1024 ou 500 * 2¹⁰) pour 500 Go ? Ce n’est pas la question ici, mais avec 512 000 Mo on arrive à 81 920 secondes, soit 22,76 heures ou encore 22 heures, 45 minutes et 33 secondes.

Nous avons posé 20 fois la même question à Claude, en effaçant à chaque fois la conversation précédente et en lançant une nouvelle. Nous avons accordé une bonne réponse aussi bien pour 22h13 que 22h45. Sur les 20 tentatives, l’intelligence artificielle n’a cependant donné la bonne réponse que 16 fois.

Deux fois elle s’est trompée lors des opérations mathématiques, mais le raisonnement était bon, les deux autres fois son raisonnement était faux. Avant de passer aux explications détaillées, voici le bilan de nos 20 questions (identiques) :


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Informatique quantique : Lucy et ses 12 qubits s’installent au Très Grand Centre de Calcul

27 octobre 2025 à 08:07

Quandela (fabricant français d’ordinateurs quantiques), le GENCI (Grand équipement national de calcul intensif) et le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) ont annoncé en fin de semaine dernière la livraison de Lucy : « un ordinateur quantique photonique universel numérique de 12 qubits ». Il est installé au Très Grand Centre de Calcul (TGCC) du CEA dans le 91.

Le CEA affirme que c’est « l’ordinateur quantique photonique le plus puissant au monde », mais rappelons qu’il existe bien d’autres technologies pour réaliser les qubits des ordinateurs quantiques. La machine a été acquise par « l’EuroHPC Joint Undertaking dans le cadre du consortium EuroQCS-France ».

Quandela s’était déjà trouvé une place chez OVHcloud. L’hébergeur roubaisien avait inauguré son MosaiQ en mars 2024, une machine quantique de Quandela avec deux qubits photoniques. Elle est évolutive et peut passer facilement à six qubits si besoin, puis 12 et même 24 à condition d’installer une seconde machine pour cette dernière étape. Quandela s’est aussi installée au Canada en 2024, chez Exaion.

OVHcloud et Quandela nous expliquaient alors que la consommation électrique classique en utilisation de la machine à deux qubits était de l’ordre de 2,5 kW, mais avec cinq kW recommandés car l’ordinateur a besoin de plus de puissance au démarrage. Pour plus de détails sur la machine quantique d’OVHcloud vous pouvez lire cette actualité.

Le CEA met en avant l’expertise française et européenne :

« Assemblé en seulement douze mois dans le site industriel de Quandela, le système illustre la force de la collaboration européenne. Les modules cryogéniques ont été conçus par attocube systems AG près de Munich, les dispositifs quantiques ont été fabriqués sur la ligne pilote de Quandela à Palaiseau, et l’intégration finale a été réalisée dans son usine de Massy. Avec 80% de ses composants – et l’ensemble des composants critiques – d’origine européenne, Lucy incarne la capacité de l’Europe à concevoir et livrer des technologies quantiques souveraines ».

L’ouverture aux chercheurs européens est prévue pour début 2026.

☕️ Informatique quantique : Lucy et ses 12 qubits s’installent au Très Grand Centre de Calcul

27 octobre 2025 à 08:07

Quandela (fabricant français d’ordinateurs quantiques), le GENCI (Grand équipement national de calcul intensif) et le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) ont annoncé en fin de semaine dernière la livraison de Lucy : « un ordinateur quantique photonique universel numérique de 12 qubits ». Il est installé au Très Grand Centre de Calcul (TGCC) du CEA dans le 91.

Le CEA affirme que c’est « l’ordinateur quantique photonique le plus puissant au monde », mais rappelons qu’il existe bien d’autres technologies pour réaliser les qubits des ordinateurs quantiques. La machine a été acquise par « l’EuroHPC Joint Undertaking dans le cadre du consortium EuroQCS-France ».

Quandela s’était déjà trouvé une place chez OVHcloud. L’hébergeur roubaisien avait inauguré son MosaiQ en mars 2024, une machine quantique de Quandela avec deux qubits photoniques. Elle est évolutive et peut passer facilement à six qubits si besoin, puis 12 et même 24 à condition d’installer une seconde machine pour cette dernière étape. Quandela s’est aussi installée au Canada en 2024, chez Exaion.

OVHcloud et Quandela nous expliquaient alors que la consommation électrique classique en utilisation de la machine à deux qubits était de l’ordre de 2,5 kW, mais avec cinq kW recommandés car l’ordinateur a besoin de plus de puissance au démarrage. Pour plus de détails sur la machine quantique d’OVHcloud vous pouvez lire cette actualité.

Le CEA met en avant l’expertise française et européenne :

« Assemblé en seulement douze mois dans le site industriel de Quandela, le système illustre la force de la collaboration européenne. Les modules cryogéniques ont été conçus par attocube systems AG près de Munich, les dispositifs quantiques ont été fabriqués sur la ligne pilote de Quandela à Palaiseau, et l’intégration finale a été réalisée dans son usine de Massy. Avec 80% de ses composants – et l’ensemble des composants critiques – d’origine européenne, Lucy incarne la capacité de l’Europe à concevoir et livrer des technologies quantiques souveraines ».

L’ouverture aux chercheurs européens est prévue pour début 2026.

#Nextpresso : que vaut un SSD de 480 Go à 21 euros ?

24 octobre 2025 à 15:47
Le premier qui dit 21 euros a… gagné
#Nextpresso : que vaut un SSD de 480 Go à 21 euros ?

21 euros pour un SSD de 2,5 pouces, voilà de quoi redonner une seconde vie à quelques vieux ordinateurs ou ajouter un peu de stockage à moindre coût. Que peut-on attendre pour ce prix ? Nous en avons testé et démonté un.

Le prix des SSD ne cesse de baisser au fil des années. La barre symbolique d’un euro par Go a été dépassée au début des années 2010. La descente du prix au Go a ensuite été rapide durant cette décennie. 35 centimes par Go aux alentours de 2015, 15 à 20 centimes le Go en 2018, moins de 10 centimes en 2019 et jusqu’à 5 centimes en 2024.

Au gré des promotions, il est parfois possible de descendre encore plus bas. C’est le cas de l’Acer SA100 de 480 Go en S-ATA (447 Go une fois formaté, selon l’explorateur de fichiers de Windows 11), qui a été vendu il y a quelques jours à 20,99 euros par Amazon. Nous en avons commandé un pour voir ce qu’il propose pour ce prix.

Premiers tours de piste

On commence avec les classiques ATTO Disk Benchmark 4.01, CrystalDiskMark 8.0.6 et HD Tune Pro 6.10.


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

50G-PON : la fibre à 50 Gb/s sort (encore) des laboratoires d’Orange

24 octobre 2025 à 07:03
C’est le PON PON
50G-PON : la fibre à 50 Gb/s sort (encore) des laboratoires d’Orange

Il y a deux ans, lors de ses Open Tech Days, Orange proposait une démonstration de la fibre optique (FTTH) avec un débit maximum théorique de 50 Gb/s. Cette technologie est sortie des laboratoires pour une démonstration dans des conditions réelles. C’était déjà le cas l’année dernière, avec un client résidentiel flashé à plus de 41 Gb/s.

Nous avons déjà longuement expliqué ce qu’étaient le PON (Passive Optical Network) et surtout la version déployée pour la première génération de fibre optique en France : le G-PON. Le G signifie simplement Gigabyte (jusqu’à 2,5 Gb/s en débit descendant).

Orange passe de 10 à 50 Gb/s, le 25 Gb/s laissé de côté

Le passage au 10 Gb/s est arrivé avec le 10G-EPON chez Free et le XGS-PON chez les autres fournisseurs d’accès à Internet (X pour 10 et S pour Symétrique). Orange nous avait déjà prévenu qu’il comptait sauter le 25 Gb/s : « c’est quelque chose qui est développé par Nokia, mais on ne le fera pas ». Le FAI nous confirmait ainsi qu’il passerait directement au 50G-PON, qui serait alors « la troisième génération de PON d’Orange ».

« Après deux gigabits par seconde (G-PON), puis 8 gigabits par seconde (XGS-PON), 40 Gigabits par seconde (50G-PON) sera le standard de demain des systèmes de transmission des réseaux d’accès fibre (FTTH) », affirme Orange dans un communiqué.

Un changement de carte réseau et de box suffit

Afin de démontrer le fonctionnement de sa technologie, le FAI avait organisé cette semaine « un test de performance réalisé par deux joueurs, Crimson à Lyon et Kayane à Marseille ». En quoi consistait-il ? Une partie de 2XKO… pas sûr que ce soit la meilleure manière de tester un débit.

La fibre utilisée pour connecter les deux joueurs n’avait rien de particulier, c’était celle déjà déployée par les opérateurs, quels qu’ils soient ; pas besoin de la changer. Orange précise qu’un « simple changement de carte réseau dans l’équipement situé dans les centraux optiques permettra à Orange de connecter un client fibre au 50G-PON ».

Comme prévu, les trois technologies co-existent sur une même fibre : selon le client (et sa carte réseau), la box peut recevoir du G-PON, du XGS-PON et/ou du 50G-PON. Techniquement, rien n’empêcherait en effet d’avoir les trois technologies à la fois.

G-PON, XGS-PON et 50G-PON passent dans la même fibre

Orange propose une explication du fonctionnement des trois technologies en parallèle : « Au central, la carte réseau intégrera un module optique Multi-PON-Module (MPM) qui inclut les trois technologies photoniques PON. Chez le client, la box sera équipée de la technologie PON adéquate en relation avec l’offre de service souscrite ».

Ce fonctionnement est rendu possible par l’utilisation, pour chaque technologie, de fréquences différentes qui ne se chevauchent pas. « Particulièrement soutenue par Orange, la triple coexistence de trois technologies PON sur la même infrastructure fibre a été rendue possible au standard ITU-T par la spécification d’un spectre optique (longueur d’onde) pour permettre cette triple coexistence. C’est l’option « US3 » du spectre », se vantait l’opérateur l’année dernière.

L’enjeu de la température

Comme on peut le voir, les bandes pour le 50G-PON sont relativement étroites comparées à celles des deux autres technologies, ce qui implique que le laser passant dans la fibre ne bouge pas de sa longueur d’onde, pour ne pas déborder sur G-PON ni sur XGS-PON.

Le laser doit donc rester à une température stable car « un laser qui varie en température est un laser dont la longueur d’onde varie », nous expliquait Orange.

Pour la société, la solution n’était pas bien compliquée : « on va devoir réguler [la température] dans la box […] On peut le faire. Ça coûte un peu plus cher, mais c’est quelque chose qu’on saura faire ». La consommation électrique augmentera fatalement, « mais pas extrêmement plus » affirmait Orange, sans donner de chiffres précis.

Répartition des technologies PON suivant les fréquences (US correspond à up-stream et DS à down-stream).

Une première en France ? Pas si vite…

Il est amusant de voir Orange affirmer qu’il « s’agit d’une première en France, qui fait suite aux expérimentations menées en laboratoire »… occultant complètement une expérimentation menée l’année dernière sur son propre réseau opérationnel en France métropolitaine :

« En février 2024 en Bretagne, lors d’un essai terrain, Orange a connecté un client résidentiel fibre à un équipement dédié 50G-PON sur une infrastructure FTTH opérationnelle à laquelle d’autres clients commerciaux sont aussi connectés en G-PON et XGS-PON. Un trafic Ethernet de plus de 41 Gbit/s [soit plus de 5 Go/s, ndlr] a été mesuré sur le lien du client connecté au 50G-PON, tout en maintenant la qualité des connexions des autres clients ».

Le déploiement n’est pas pour tout de suite : « Dans le futur, [les systèmes 50G-PON] permettront d’augmenter la capacité des réseaux pour des usages avancés des entreprises, notamment celles qui ont des sites de grande taille, puis pour des usages résidentiels, quand les besoins seront avérés ».

L’année dernière, le discours était déjà le même : « La triple coexistence du G-PON, XGS-PON et 50G-PON sera possible dès que les premiers besoins de déploiement à 50 Gbit/s seront nécessaires ». Orange avait, pour rappel, trainé des pieds avant de proposer du 10 Gb/s à ses clients, faute d’un réel besoin, se justifiait l’opérateur.

❌