Vue normale

Financement de Wikipédia : pourquoi Microsoft et Perplexity passent à la caisse ?

16 janvier 2026 à 17:09

wikipédia

L’encyclopédie libre fête son quart de siècle le 15 janvier 2026. Pour marquer le coup, la fondation officialise des contrats majeurs avec les géants de la tech : pour entraîner leurs IA, ils doivent désormais payer l'accès aux serveurs.

Fini l’open bar : Wikipédia obtient enfin des géants de l’IA qu’ils paient pour les chatbots

16 janvier 2026 à 15:45

wikipédia

L’encyclopédie libre fête son quart de siècle le 15 janvier 2026. Pour marquer le coup, la fondation officialise des contrats majeurs avec les géants de la tech : pour entraîner leurs IA, ils doivent désormais payer l'accès aux serveurs.

Raspberry Pi AI HAT+ 2 : l’étrange IA de monsieur Upton

16 janvier 2026 à 13:40

L’AI HAT+ 2 est une nouvelle solution destinée à proposer des fonctions d’Intelligence Artificielle aux cartes Raspberry Pi 5. L’extension est pensée pour fonctionner sans consommer trop de ressources et localement. Elle fonctionne avec un NPU plus performant que les précédentes versions et elle est pensée pour prendre en charge aussi bien des applications de détection d’objets que de piloter des LLM.

Raspberry Pi AI HAT+ 2

L’extension Raspberry Pi AI HAT+ 2 m’apparait toutefois assez étrange, car si elle proposera plus de fonctions, elle ne semble pas du tout révolutionner les possibilités offertes par la carte de base qu’est la Pi 5. La nouvelle venue embarque bien un NPU Hailo-10H qui développe 40 TOPS d’inférence INT4. Elle est également proposée avec un module de 8 Go de mémoire vive LPDDR4x soudé. Ce qui lui donne un prix assez élevé, probablement à cause de la mémoire vive qu’elle embarque. On la trouve en Europe aux environs de 140€.

Sur le papier, le jeu en vaut la chandelle. L’ajout de la mémoire vive dédiée permet de ne pas venir amputer la mémoire vive de la carte Raspberry Pi 5. Avec 8 Go, on peut monter plusieurs modèles de LLM basiques directement sur cette mémoire et donc les exploiter en laissant tranquille ceux du système Linux embarqué. L’idée étant également de pouvoir profiter des compétences combinées des deux puces assemblées. La Broadcom du Raspberry 5 et la Hailo-10H de son HAT.

HAilo met en avant plusieurs LLM compatibles avec cette formule. Des modèles « basiques » avec 1.5 milliards de paramètres. On parle ici de DeepSeek-R1-Distill, de Llama3.2 et des séries Qwen2.5-Coder, Qwen2.5-Instruct et Qwen2. Et les résultats proposés ont l’air assez bons en termes de vitesse de traitement, comme le montre la vidéo en intro de ce billet. Les usages de ces LLM sont très variés : du chatbot à la rédaction de courriers, du traitement de données comme l’organisation de tableaux et même la promesse d’une aide au code. Et cela toujours en usage totalement local.

En pratique, pour avoir essayé ces LLMs avec d’autres matériels, les résultats proposés ne sont pas extraordinaires. Voir médiocres. Certains traitements simples sont excellents comme la fabrication de tableaux ou la mise en forme de données. D’autres sont simplement mauvais avec des informations erronées, des réponses hallucinées et des résultats souvent tellement catastrophiques qu’on passe plus de temps à vérifier ce qui est proposé qu’à rédiger la réponse sans aide… Les options de traduction Llama3.2, par exemple, sont assez ridicules. Les contresens sont nombreux, certaines formulations classiques sont comprises de travers et l’utilisation de  simples métaphores provoquent fréquemment de vrais fous rires.

Mais ce n’est pas vraiment le plus gros problème de cette proposition. On peut très bien imaginer l’intérêt de ce que propose ce Raspberry Pi AI HAT+ 2 ailleurs. Il y a quelques années, je vous expliquais pourquoi monter un cluster de Raspberry Pi était intéressant. Non pas parce que monter 10 cartes de ce type permettait une alternative à un véritable serveur beaucoup plus couteux. Non, plutôt de se faire la main sur ce type d’infrastructure. Un moyen de simuler le déploiement d’outils de supervision sur un matériel réel et très formateur. Il en est de même ici : la carte va permettre d’apprendre à piloter ce type de solution IA et donc de mener à bien des projets. D’acquérir de l’expérience et pouvoir en répliquer la logique sans avoir à acheter ou à louer des serveurs hors de prix.

D’un point de vue pratique, le Raspberry Pi AI HAT+ 2 embarque un Hailo-10H, un NPU plus puissant que les NPU Hailo-8 précédents. Ce qui lui offre deux autres avantages en plus de sa mémoire vive embarquée. Il est plus rapide en traitement et il est capable de piloter un LLM en plus d’un traitement de flux vidéo en même temps. L’extension reprend le format des modèles précédents. On a d’abord eu droit à un HAT Raspberry Pi AI Kit développant 13 TOPS sous Hailo 8L en juin 2024, puis, en octobre de la même année, à deux autres modèles : un en 13 TOPS toujours sous Hailo 8L et un en 26 TOPS avec le choix d’un Hailo 8

Toutes se ressemblent physiquement. Les extensions se montent grâce à des entretoises par-dessus la carte RPi5 en s’appuyant sur ses broches GPIO. Le  Raspberry Pi AI HAT+ 2 ne les exploite pas mais ne fait que les reporter un étage plus haut pour que l’utilisateur puisse les connecter. La liaison entre le NPU et la carte de base se est possible par la classique nappe fournie. L’extension nécessitera absolument la mise en place d’un système de refroidissement passif : la puce devra être couverte par un petit dissipateur en aluminium fourni. Il faudra également prévoir un peu d’aération au-dessus de celui-ci pour une intégration dans un projet. 

Je n’ai pas de Raspberry Pi AI HAT+ 2 sous la main mais Jeff Gerling en a reçu un et ses conclusions sont assez claires. Les performances apportées par l’extension ne sont pas révolutionnaires. À vrai dire, le Hailo-10H est moins performant dans tous les usages que le SoC Broadcom du Pi 5 quand il est également épaulé par 8 Go de mémoire vive LPDDR4x…

La seule différence vient de l’efficience de la solution externe qui consomme moins de watts pour arriver au même résultat, même si elle le fait plus lentement. Cela est lié à la consommation générale plus importante de la puce Broadcom qui n’est pas explicitement spécialisée dans le calcul d’IA.

Le plus gênant reste cependant que l’usage de ces modèles de LLM très léger reste indéniablement médiocre. La vidéo de Jeff est on ne peut plus claire. Les résultats proposés ne sont pas utiles. C’est très mignon de proposer une extension qui va pouvoir les embarquer, mais au-delà de la phase d’installation et de l’apprentissage des usages du dispositif, leur exploitation est finalement contre productive. 

C’est pour moi le syndrome du « piano désaccordé ». Vous allez apprendre le solfège, maitriser la technique des accords et même apprendre à jouer par cœur des morceaux sur votre piano totalement désaccordé. Mais jamais vous ne vous enregistrerez dessus, pas plus que vous donnerez un récital avec. Ces petits LLM sont là pour se faire la main et apprendre leur mécanique d’installation pour le jour où vous devrez travailler sur un grand modèle. Ce jour-là, vous donnerez votre récital sur un magnifique piano à queue en provenance d’un grand fabricant. C’est-à-dire un LLM beaucoup plus complet et riche en paramètres monté sur une machine autrement plus chère.

Jeff est tout aussi perplexe que moi

C’est tout le paradoxe de cette offre de Raspberry Pi. Un Pi 5 avec 16 Go de mémoire vive sera finalement plus compétent que cette extension avec 8 Go dédié. A la fois en vitesse mais aussi et surtout en pertinence des résultats. Reste la possibilité de fabriquer votre propre LLM en l’entrainant vous-même. Dans ce cas précis, l’extension pourrait avoir tout son sens. Mais il ne s’agit plus ici d’un emploi « out of the box » du HAT. Plutôt d’un travail de longue haleine avec des besoins extrêmement spécifiques et souvent le besoin de matériel supplémentaire autrement plus cher pour conduire cet entraînement.

Le principal intérêt du Raspberry Pi AI HAT+ 2 est donc ailleurs

La gestion des VLM ou « modèle vision-langage » est excellente avec le Hailo-10H. Il s’agit de faire analyser ce que voit le système avec une caméra pour en déduire des choses en langage naturel. Les précédents modèles d’extensions IA de Raspberry Pi étaient déjà capables de multiples choses du genre : compter des personnes dans une pièce, reconnaitre des objets, lire des plaques d’immatriculation ou faire des statistiques de trafic routier.

Le module Raspberry Pi AI Camera

Le module Raspberry Pi AI Camera

La nouvelle extension permet de voir le monde et de reconnaitre des objets en temps réel avec une vitesse assez impressionnante. On pourra analyser une scène vue par l’oeil d’une webcam et en dresser le listing en format texte. Il sera par exemple possible de faire réagir le système si certaines correspondances sont trouvées dans une liste. Un lecteur est, par exemple, en train de monter un système qui analyse les entrées et sorties devant une de ses ruches dans l’espoir d’entrainer une IA pour reconnaitre et différencier ses abeilles d’éventuels prédateurs comme le frelon asiatique. Son objectif étant de pouvoir les chasser en les aspergeant dès qu’ils seront reconnus. Ce travail est fait grâce à une solution Raspberry Pi AI Camera. Module à 80€ et qui fonctionne déjà extrêmement bien. Son NPU permet un traitement VLM à 30 images par seconde. Ce type de traitement très spécifique est impossible pour la puce Broadcom seule à cette vitesse. On tournera au mieux à 1 ou 2 images par seconde. 

Ce qui sera donc intéressant, ici, est la capacité de cette extension à ouvrir la porte à un pilotage des deux usages en parallèle. Par exemple la vision et l’identification d’objets et le traitement de ces données par un LLM. Une fois bien entrainé, on peut imaginer une solution assez simple de vérification visuelle et la gestion d’un rapport synthétique de cette analyse.

Raspberry Pi AI HAT+ 2

Raspberry Pi AI HAT+ 2

Pour le moment la partie logicielle semble en retrait pour cette extension et je suppose que cela a tout à voir avec la nouvelle vision de Raspberry Pi. La fondation des débuts est désormais remplacée par une société classique qui se préoccupe plus de ses clients industriels que des simples particuliers. Or ces clients professionnels  vont trouver très rapidement un intérêt à ce type de produit qu’ils vont entrainer pour des tâches hyper spécifiques. Les particuliers, de leur côté, ont pour la majorité besoin d’une solution clés en main qui n’existe pas pour le moment. 

Quand un industriel va construire une machine qui exigera le suivi d’un protocole ou la présence de certains éléments avant son actionnement, on comprend tout l’intérêt de ce type de produit. Un ascenseur qui ne doit pas accueillir plus de x personnes refusera de se mettre en marche s’il en détecte une de plus. Un vendeur qui veut une vérification de la présence de l’ensemble des produits d’une commande dans un colis pourra coller une caméra sur un tapis roulant et analyser en temps réel la correspondance des produits vendus par rapport à la liste de colisage. Des milliers d’usages professionnels sont imaginables avec ce Raspberry Pi AI HAT+ 2.

L’exemple donné par Hailo pour une exploitation des LLM et VLM en parallèle avec ses puces 10H est assez parlant. La marque met en avant un système de caisse autonome qui va surveiller ce que l’utilisateur fait, ce qu’il pose dans son panier et ce qu’il paye. Tout cela pour contrôler et déduire si le client n’oublie pas de payer des produits. C’est quelque chose de très spécifique qui demandera des aménagements précis et une programmation sur mesure. Les industriels n’ont donc pas besoin d’un développement logiciel, ils vont s’en charger eux-mêmes. 

Les particuliers, quant à eux, vont devoir attendre que les solutions fonctionnent, soit parce que Raspberry Pi proposera des mises à jour, soit parce que Hailo s’en chargera. Aujourd’hui, la cohabitation VLM et LLM sur l’extension ne semble pas fonctionnelle. Peut-être que la solution viendra des utilisateurs et développeurs chevronnés toujours très présents sur la plateforme. Dans quel délai et avec quelles performances ? Impossible à dire.

Il y a sans doute plein de choses à imaginer avec ce kit Raspberry Pi AI HAT+ 2 et la combinaison des deux IA peut avoir beaucoup de sens. En robotique par exemple, on peut très bien imaginer des prises de décision ou d’adaptation à l’environnement grâce à cet équipement local et peu gourmand en énergie. Mais pour les usages qui ne mixent pas ces deux univers LLM et VLM, il paraît plus utile de choisir entre un duo Raspberry Pi 5 16 Go pour le premier et Raspberry Pi 5 8 Go associé à une Raspberry Pi AI Camera pour le second.

Raspberry Pi AI HAT+ 2 : l’étrange IA de monsieur Upton © MiniMachines.net. 2025

Plus besoin de cloud : Google rend la traduction automatique locale avec TranslateGemma

16 janvier 2026 à 10:34

Google DeepMind a dévoilé, le 15 janvier 2026, « TranslateGemma », une nouvelle suite de modèles de traduction ouverts capables de fonctionner entièrement en local. Et ce, aussi bien sur un smartphone que sur des serveurs personnels.

Wikipedia Signs AI Licensing Deals On Its 25th Birthday

Par : msmash
15 janvier 2026 à 15:20
Wikipedia turns 25 today, and the online encyclopedia is celebrating that with an announcement that it has signed new licensing deals with a slate of major AI companies -- Amazon, Microsoft, Meta Platforms, Perplexity and Mistral AI. The deals allow these companies to access Wikipedia content "at a volume and speed designed specifically for their needs." The Wikimedia Foundation did not disclose financial terms. Google had already signed on as one of the first enterprise customers back in 2022. The agreements follow the Wikimedia Foundation's push last year for AI developers to pay for access through its enterprise platform. The foundation said human traffic had fallen 8% while bot visits -- sometimes disguised to evade detection -- were heavily taxing its servers. Wikipedia founder Jimmy Wales said he welcomes AI training on the site's human-curated content but that companies "should probably chip in and pay for your fair share of the cost that you're putting on us." The site remains the ninth most visited on the internet, hosting more than 65 million articles in 300 languages maintained by some 250,000 volunteer editors.

Read more of this story at Slashdot.

Une hallucination IA utilisée par la police britannique pour justifier une interdiction contre des supporters israéliens fait polémique

15 janvier 2026 à 13:01

Une hallucination du chatbot d’intelligence artificielle Copilot de Microsoft s’est retrouvée dans un rapport de renseignement utilisé par la police des West Midlands au Royaume-Uni pour appuyer une interdiction visant des supporters israéliens. Une révélation qui fait scandale outre-Manche.

Wikipédia a 25 ans : voici 25 faits étonnants que vous ignorez peut-être sur l’encyclopédie

15 janvier 2026 à 10:23

Wikipédia anniversaire

C'était il y a 25 ans : le 15 janvier 2001, Wikipédia voyait le jour. Pour célébrer cet anniversaire, Numerama vous fait découvrir 25 faits que vous ignorez peut-être sur l'encyclopédie libre et gratuite en ligne.

Quand sort la saison 3 d’Euphoria sur HBO Max ?

15 janvier 2026 à 09:09

La saison 3 d'Euphoria va très bientôt débarquer sur HBO Max. Date de sortie, bande-annonce, casting... Voici tout ce que l'on sait sur cette suite très attendue, qui accueillera notamment la chanteuse Rosalía et l'actrice Sharon Stone.

Euphoria saison 3 : la date de sortie a enfin été révélée par HBO Max

15 janvier 2026 à 08:49

La fameuse série adolescente, créée par Sam Levinson, est enfin de retour pour une saison 3, attendue depuis déjà quatre ans par les fans. Et on sait enfin quand nous pourrons découvrir ces nouveaux épisodes d'Euphoria, qui viendront définitivement clore le récit de Rue, Jules, Nate, Cassie et les autres.

Adieu les AirPods ? Le projet secret d’OpenAI et Jony Ive se dévoile

13 janvier 2026 à 14:35

Selon un message publié sur X le 12 janvier 2026 par l'insider zhihuipikachu, OpenAI et Jony Ive travailleraient en priorité sur un appareil audio « inédit », visant à concurrencer les AirPods. Voici ce que l'on sait.

Pourquoi la future électrique « plus chère » de Dacia pourrait finalement coûter moins que la Spring

13 janvier 2026 à 11:26

Dacia s'apprête à dévoiler une nouvelle voiture électrique abordable. Cependant, pas question de mettre la Spring sur la touche, les deux cohabiteront. Une cannibalisation en perspective ?

Vous avez gardé un vieux compte Lydia ou Sumeria ? Ces nouveaux frais pourraient vous coûter cher

13 janvier 2026 à 09:59

Vous aviez Lydia avant la migration vers Sumeria ? Attention, la plateforme va commencer à facturer 3 € par mois aux comptes inactifs. Un détail facile à rater… mais qui peut coûter.

Fini les tâches ingrates ? Anthropic lance Claude Cowork pour automatiser votre travail

13 janvier 2026 à 09:54

Anthropic a annoncé, le 12 janvier 2026, le lancement de Claude Cowork, un outil visant à automatiser les tâches non techniques de la vie pro. À ce stade, la fonctionnalité est proposée en avant-première aux abonnés Max utilisant l’application Claude Desktop sur macOS.

Il crée un jeu avec de l’IA, puis le retire pour une raison très intime

13 janvier 2026 à 09:38

Un jeu roguelike en grande partie généré par IA va être retiré de Steam. Son développeur a pris cette décision après une rencontre personnelle qui l’a conduit à remettre le projet en question. Preuve que l’amour peut déplacer des montagnes et retirer des jeux des plateformes.

Kia intègre une technologie surprenante pour rendre ses voitures électriques plus amusantes

13 janvier 2026 à 08:58

Kia a frappé un grand coup lors du Salon de l'Auto de Bruxelles en dévoilant simultanément trois nouveaux modèles de sa gamme de haute performance : les EV3 GT, EV4 GT et EV5 GT. Voici ce qu'il faut savoir.

Les paniques numériques de l’ADEME

13 janvier 2026 à 05:56

Régulièrement, l’ADEME redécouvre que le numérique consomme de l’électricité. Après le catastrophisme sur les mails, le streaming, le métavers ou la 5G, l’agence cible désormais l’IA et les data centers. Avec une mécanique immuable : diaboliser nos usages pour présenter la sobriété – voire la décroissance – comme seul horizon désirable.

Allons droit au but. Le dernier rapport de l’ADEME sur l’évolution des consommations des data centers en France appelle de nombreuses critiques. Une modélisation simpliste, fondée sur des données en partie obsolètes, ne peut sérieusement prétendre éclairer l’avenir, a fortiori à l’horizon 2060, dans un secteur marqué par des ruptures technologiques rapides et imprévisibles. Mais ces débats méthodologiques sont presque secondaires, tant la conclusion semble écrite d’avance. L’analyse ne vise qu’à donner un vernis scientifique à la légitimation d’une sobriété dont vivent les auteurs.

Pire encore, si la recommandation implicite de ce rapport était suivie — freiner l’implantation jugée « effrénée » des data centers en France au nom de leur incompatibilité supposée avec l’Accord de Paris — cela reviendrait à encourager le recours à des serveurs situés dans des pays au mix électrique bien plus carboné, au détriment du bilan carbone global. Un résultat absurde pour une démarche aussi hypocrite que contre-productive.

Une conclusion écrite d’avance

Le rapport propose cinq scénarios. Un scénario dit « tendanciel », présenté comme la trajectoire naturelle en l’absence de politiques publiques correctrices, et quatre scénarios alternatifs repris du rapport Transition(s) 2050 : les fameux « Générations frugales » (la douce sobriété décroissante), « Coopérations territoriales », « Technologies vertes » et « Pari réparateur » (l’affreux techno-solutionnisme). Sans surprise, le scénario tendanciel, à base de règles de trois sommaires sur les tendances actuelles, est celui qui produit les consommations les plus élevées, tous les autres convergeant vers une baisse. Jusque-là, rien d’anormal.

C’est ensuite que ça se gâte. La synthèse du rapport affirme que « les optimisations technologiques telles que l’augmentation de l’efficacité et la récupération de la chaleur fatale ne suffiront pas à stabiliser la croissance des consommations électriques des centres de données en France sans la mise en place d’une politique active de sobriété pour les services numériques et les usages ». Une affirmation sans preuve, qui découle mécaniquement des hypothèses retenues, lesquelles n’intègrent pas, ou très peu, de progrès technologiques. Et qui, surtout, érige la stabilisation de la consommation électrique des centres de données en une fin en soi, sans jamais en justifier la pertinence au regard de notre surcapacité de production électrique ou des externalités positives des nouveaux usages numériques.

Des chiffres sans contexte

Le chiffre est spectaculaire. La consommation électrique des centres de données « induite par les usages des Français » pourrait être multipliée par 3,7 d’ici 2035, voire par 4,4 si l’on inclut la part dite « importée ». Verdict ? Une telle trajectoire serait incompatible avec l’Accord de Paris. Le message est simple, anxiogène et médiatiquement très efficace.

Pourtant, pris isolément, ce chiffre ne signifie pas grand-chose. Cette présentation occulte que les 8 TWh actuels estimés par l’ADEME — soit environ trois fois la consommation annuelle d’une ville comme Lyon ou Marseille — ne représentent que 1,8 % de la consommation nationale. Quant aux 26 TWh de croissance projetés d’ici 2035 dans le scénario tendanciel, ils apparaissent parfaitement soutenables au regard des surcapacités de production d’environ 100 TWh par an signalées par RTE. La France est d’ailleurs la première exportatrice d’électricité décarbonée de l’UE, avec un nouveau record de 92,3 TWh en 2025. Présenter une telle croissance, alimentée par une électricité largement décarbonée, comme une menace climatique relève, au mieux, du contresens ; au pire, de la malhonnêteté intellectuelle.

Quant à la notion de « consommation importée », elle pose un problème conceptuel évident. À usages constants, cette consommation existe quel que soit le lieu d’implantation des serveurs. La seule manière de la réduire consiste à restreindre les usages eux-mêmes, hypothèse explicitement assumée par le scénario 1, qui prévoit de mettre fin à des usages jugés « inutiles et nocifs ».

À l’inverse, freiner la construction de data centers en France, voire instaurer un moratoire comme suggéré par ce même scénario 1, ne supprime rien, mais déplace le problème, transformant une prétendue mesure de sobriété en dégradation globale.

Une modélisation et des hypothèses discutables

Le rapport présente son approche comme reposant sur un travail de « modélisation ». En clair, un tableau Excel.

Celui-ci est bâti sur des hypothèses qui concourent toutes à surévaluer les besoins énergétiques projetés. D’abord, il retient le volume de données comme indicateur central de l’impact environnemental, un choix pourtant largement reconnu comme inadapté au numérique moderne. Assimiler mécaniquement « plus de données » à « plus d’énergie » revient à ignorer les gains continus d’efficacité liés aux architectures, aux algorithmes et à l’optimisation des systèmes. Ensuite, il associe ce volume de données à un nombre toujours croissant de requêtes centralisées, en faisant l’impasse sur l’essor déjà réel de modèles plus légers, capables de tourner directement sur les smartphones, les ordinateurs ou les objets connectés. Enfin, pour estimer la consommation électrique, il s’appuie sur des références technologiques dépassées, issues d’un état du numérique antérieur à l’explosion de l’IA générative, en ignorant que les puces les plus récentes, conçues pour l’IA, sont capables de fournir bien plus de calculs pour une même quantité d’électricité.

Le rapport pousse l’exercice prospectif jusqu’en 2060, un horizon particulièrement lointain pour un secteur marqué par des ruptures technologiques rapides. Pour mesurer l’ampleur de l’écart, il suffit de se replacer trente-cinq ans en arrière, en 1990, à une époque où Internet n’était pas un usage grand public, où les PC tournaient avec un processeur 80486 et 4 Mo de RAM, et où l’ADEME elle-même n’existait pas encore.

Une conviction préalable

La lecture du rapport laisse apparaître que la sobriété n’est pas une hypothèse parmi d’autres, mais un objectif. Les communications sur LinkedIn de l’autrice principale, trésorière de l’association GreenIT (voir encadré), le confirment explicitement. Dans un post publié lors de la sortie de l’étude, elle explique que seuls les scénarios fondés sur la sobriété lui paraissent capables de répondre aux défis environnementaux. Selon elle, « s’appuyer uniquement sur des innovations technologiques pour réduire l’empreinte environnementale des data centers et de l’IA générative est illusoire ».

La sobriété constitue une conviction personnelle préexistante, assumée et revendiquée par l’autrice, qui structure son rapport au numérique, à l’IA et aux usages. Dans un autre post, elle critique la « pression à l’adoption » de l’IA et s’interroge sur la « légitimité démocratique » de ces évolutions.

Se pose alors une question de fond : peut-on confier une prospective destinée à éclairer le débat public, voire à orienter la décision publique, à des experts aux positions militantes affirmées et qui interviennent par ailleurs, à titre professionnel, dans la mise en œuvre de ces orientations auprès d’acteurs publics et privés ? Une pratique constante, pourtant, chez l’ADEME, qui revient à confier à des vendeurs de ronds-points une étude sur la sécurité routière.

L’ADEME : une vision sous influence ?

J’approfondis

La sobriété comme horizon idéologique

Très régulièrement, le numérique se retrouve dans le viseur de l’ADEME, qui va même jusqu’à publier des vidéos (en streaming et disponibles en full HD Premium) pour inciter à éteindre sa box internet et à ne pas laisser son ordinateur en veille. Ce biais anti-numérique amène à se demander si le numérique n’est pas mis en cause, non pour ce qu’il est, mais pour ce qu’il représente et rend possible : le progrès, la technologie, « la sauvegarde des modes de vie de consommation de masse », pour reprendre la présentation du scénario « Pari réparateur ».

Le rapport publié début 2026 sur la prospective énergétique des centres de données s’inscrit dans cette continuité. Le décor change, la méthode demeure. Aujourd’hui, les coupables s’appellent blockchain et intelligence artificielle. Demain, ce sera autre chose.

La conclusion l’assume sans détour : « Les cas des scénarios Générations frugales et Coopérations territoriales nous ont permis d’explorer que seule une politique de sobriété très volontariste, modifiant en profondeur nos modes de vie, permettrait une inflexion permettant de réduire les consommations futures des centres de données. »

La prospective se fait alors prescriptive. Elle désigne une voie unique, celle de la sobriété, et substitue au techno-solutionnisme qu’elle dénonce un socio-solutionnisme aux contours flous, dont les implications concrètes pour les usages, les libertés et les choix collectifs demeurent largement indéterminées.

Et si le principal défaut du numérique, aux yeux de l’ADEME, était précisément de permettre de décarboner sans passer par la sobriété ?

L’article Les paniques numériques de l’ADEME est apparu en premier sur Les Électrons Libres.

Grok peut faire bien pire que mettre des femmes en bikini : cette chaîne Telegram le prouve

12 janvier 2026 à 16:19

Des milliers de hackers partagent leurs astuces sur une chaîne Telegram pour contourner les garde-fous du robot conversationnel d’intelligence artificielle Grok et produire des images et vidéos sexuelles d’une violence extrême.

De startup à cerveau du Rafale F5 et de l’UCAS : Dassault propulse Harmattan AI

12 janvier 2026 à 11:54

Rafale F5

Le Rafale F5 et le futur UCAS savent désormais à qui ils confieront une partie de leurs cerveaux numériques : avec son entrée au capital d’Harmattan AI, Dassault Aviation désigne une startup tricolore comme futur concepteur clé des « fonctions d’IA embarquées ».

❌