Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/com.atproto.identity.resolveHandle?handle=tristankamin.bsky.social
laydgeur@laydgeur.bsky.socialposted: Pour celles et ceux qui se posent la question de ce projet de manière honnête : l’agence publique en charge es déchets radioactifs a un site assez bien fait et pédagogique sur le sujet, qui permet d’aller bien au delà des idées reçues : www.andra.fr/cigeo
Cigéo(www.andra.fr) Cigéo est le projet français de centre de stockage géologique profond pour les déchets radioactifs les plus dangereux.Ces déchets sont produits par l’ensemble des installations nucléaires actuelles, j...
Quoted post from La France Insoumise à l'Assemblée nationale@franceinsoumisean.bsky.social: 🔴🗣️ « Nous serons plusieurs parlementaires à participer à la manifestation de samedi à Bure.
Il s'agit d'un projet d'enfouissement de déchets radioactifs pour 100 000 ans au moins, toujours pas techniquement assuré et dont le coût s'élèverait à 37 milliards d'euros. » - @mathildepanot.bsky.social
J'ai testé rapidement la version 8 de ce jeu.
Tout le doublage audio français est fait par IA. C'est véritablement à chier. C'est plat, creux, aucune émotion. Diction et intonation merdique.
Quelle que soit la qualité du jeu, cette simple utilisation de l'IA me débecte et ruine de manière remarquable mon moindre désir de toucher à ce jeu.
C'est cramé, jamais je ne jouerai à ce jeu.
Je ne sais pas si les éditeurs se rendent compte à quel point ils ont en train de s'aliéner toute une partie des gamers avec l'IA. (Permalink)
Borderlands 4 se fait défoncer... parfond défourailler par CanardPC. En plus d'être lent et mal optimisé, il est carrément sans intérêt.
Je passe.
J'avais passé de très bons moments dans Borderlands 2 et 3, et même dans le Pre-Sequel, mais le 4 ça sera sans moi. (Permalink)
C’est fait. La désinformation a été si massive, répétée avec tant d’aplomb, que beaucoup croient qu’une requête ChatGPT consomme 50 cl d’eau ou émet autant de CO₂ qu’une voiture sur 5 km. Pourtant, la technologie progresse à une vitesse telle qu’elle déjoue toutes les prévisions et pourrait rendre notre écosystème numérique bien plus sobre qu’avant.
Reprenons par exemple le fameux exemple des 50 cl d’eau. Ce chiffre, largement surestimé, intègre la production d’électricité — plus de 90 % du total ! —, comme les toilettes du personnel. Par ailleurs, il provient de centres de données américains et concerne un modèle obsolète, à savoir le ChatGPT de 2022. En réalité, la situation est bien plus nuancée.
Combien d’énergie pour générer une réponse en texte ou en image ?
Les estimations de la consommation énergétique varient sensiblement en fonction des années, des modèles analysés et des méthodologies employées par les chercheurs. En 2023, une requête sur ChatGPT était estimée à environ 3 Wh, soit l’équivalent de dix recherches classiques sur Google. Mais dès 2025, une étude plus récente a revu ce chiffre à la baisse, le ramenant à seulement 0,3 Wh — juste assez pour faire bouillir 3 millilitres d’eau chaude, moins d’une cuillère à café. À titre de comparaison, préparer un simple expresso du matin nécessite vingt fois plus d’énergie.
La génération d’images, en revanche, s’avère plus vorace. Elle exige actuellement autour de 3 Wh, ce qui correspond à la moitié de l’énergie requise pour cet expresso matinal.
À ce sujet, fin juillet, la startup française Mistral, pionnière dans le domaine, a partagé ses propres données, estimant l’impact carbone de son modèle à 1,14 gramme de CO₂ par requête. Ces chiffres soulignent non seulement la diversité des approches, mais aussi les progrès constants qui redessinent le paysage énergétique de l’IA.
Pourquoi de telles disparités dans les estimations ?
L’intelligence artificielle générative est un domaine en pleine ébullition, attirant les esprits les plus brillants en recherche et en informatique. Les premiers prototypes, souvent qualifiés de « preuves de concept », ont été affinés sans relâche sur tous les fronts : performances accrues, optimisation des ressources matérielles, raffinement des algorithmes et mutualisation des calculs. Ces avancées se poursuivent à un rythme effréné, expliquant les écarts observés entre les études. Ce qui était vrai hier peut être obsolète demain, tant l’innovation est rapide.
L’IA va-t-elle engloutir l’électricité de la planète à elle seule ?
Les évaluations basées sur le ChatGPT balbutiant de 2022 sont aujourd’hui périmées. La consommation a chuté de manière spectaculaire grâce aux optimisations successives. Réaliser aujourd’hui des projections au-delà de cinq ans sur la base des modèles actuels relève de la pure spéculation, tant la technologie évolue de semaine en semaine. D’ailleurs, des géants comme Microsoft et Meta ont déjà révisé à la baisse leurs prévisions d’achats énergétiques, témoignant d’une prudence accrue face à ces dynamiques imprévisibles.
Pour illustrer, certaines analyses estiment qu’OpenAI mobilise entre 30 000 et 50 000 cartes graphiques (GPU), chacune consommant de 400 à 700 watts. En pic d’activité, cette infrastructure pourrait avaler jusqu’à 35 mégawatts. En juin 2025, l’entreprise de Sam Altman accueille quotidiennement environ 125 millions d’utilisateurs, générant un milliard de requêtes. Dans le scénario le plus pessimiste, cela équivaut à 0,84 Wh par requête, tous types confondus — à peine suffisant pour allumer une ampoule pendant six minutes. Pour donner une échelle plus tangible à ces données, en pleine charge, ChatGPT consomme un peu plus que trois TGV lancés à pleine puissance, transportant au total 1 700 passagers. Cette comparaison met en perspective l’impact réel de l’IA, loin des scénarios apocalyptiques souvent dépeints.
Mais l’apprentissage des modèles, c’est le pire ?
L’entraînement des grands modèles de langage représente réellement un défi en termes énergétiques. Il implique des calculs intensifs, donc une consommation substantielle, étalée sur des semaines ou des mois. Selon une étude d’Epoch AI en 2024, la complexité computationnelle de ces entraînements augmente d’un facteur 4 à 5 chaque année, reflétant l’ambition croissante des modèles.
Ainsi, l’entraînement de GPT-4 aurait requis 50 gigawattheures, soit l’équivalent de deux jours de production d’un réacteur nucléaire. Mais la donne est en train de changer. Par exemple, les chercheurs chinois de DeepSeek ont fait sensation début 2025 avec leur modèle R1, d’une envergure comparable à celui d’OpenAI, mais entraîné pour un budget vingt fois inférieur, de 5,6 millions de dollars. Ces bonds en avant algorithmiques sont monnaie courante en informatique, démontrant que l’efficacité peut primer sur la force brute. Enfin, il ne faut pas perdre de vue l’ensemble du tableau : ces entraînements coûteux sont amortis sur un volume colossal d’utilisations quotidiennes, rendant leur part relative dans l’impact global bien plus modeste qu’il n’y paraît.
Vers la sobriété heureuse ?
L’optimisation logicielle et matérielle est au cœur des efforts actuels, avec des chercheurs explorant des architectures plus frugales [encadré 1]. Si, jusqu’en 2022, l’exécution du moindre LLM requérait des serveurs onéreux, aujourd’hui, ils tournent sans peine sur des ordinateurs personnels, voire des smartphones, démocratisant ainsi l’accès à l’IA.
Fin août, Google a annoncé un gain impressionnant. Entre les printemps 2024 et 2025, son modèle Gemini a vu sa consommation énergétique divisée par 33 : 23 fois grâce à des améliorations logicielles, et 1,4 fois via une meilleure utilisation des serveurs. Résultat : une interrogation médiane ne demande plus que 0,24 Wh. Ces progrès illustrent le potentiel infini de l’innovation pour atténuer les coûts énergétiques.
Quid des data centers ?
Leurs infrastructures doivent évoluer pour gagner en efficacité énergétique et thermique. L’adoption d’électricité bas carbone est cruciale pour minimiser l’empreinte environnementale de l’IA, tout comme l’utilisation de systèmes de refroidissement plus économes en eau. La France, avec ses normes hydriques sévères et son mix énergétique dominé par le nucléaire et les renouvelables, détient de solides atouts dans ce domaine (voir encart). Dans l’étude mentionnée, Google a par ailleurs réduit ses émissions de CO₂eq d’un facteur 1,4 en privilégiant des sources d’énergie plus propres, prouvant que des choix stratégiques peuvent faire une différence significative.
Pour remettre les choses en perspective, examinons quelques ordres de grandeur. En 2022, les centres de données (tous usages confondus, hors cryptomonnaies) absorbaient entre 240 et 340 térawattheures, soit environ 1 à 1,3 % de l’électricité mondiale. Selon l’Agence internationale de l’énergie (AIE), cette demande pourrait plus que doubler d’ici 2030, atteignant près de 945 térawattheures — environ 3 % de la consommation globale. Bien que l’IA contribue à cette croissance, elle n’en constitue qu’une fraction mineure. Et, en termes absolus, ces volumes restent modestes comparés à ceux d’autres secteurs. Les transports motorisés, par exemple, représentent plus d’un tiers des émissions de CO₂eq finales. Quant au secteur résidentiel et tertiaire (chauffage, climatisation et cuisson dans les bâtiments), il y contribue pour environ 15 à 20 %. L’IA pèse également peu dans nos habitudes quotidiennes et elle pourrait même nous aider à économiser de l’énergie en automatisant des tâches chronophages, libérant ainsi du temps et des ressources pour des activités plus efficientes. Pas bête, non ?
Sleeping Giants FR@slpng-giants-fr.bsky.socialposted: "Nous sommes arrivés à la conclusion qu'un génocide est en cours à Gaza et qu'il se poursuit et que la responsabilité en incombe à l'État d'Israël"
Navi Pillay, chef de la Commission d'enquête internationale indépendante de l'ONU sur la situation des droits dans les territoires palestiniens occupés.
Quoted post from Sleeping Giants FR in English@slpng-giants-fr-2.bsky.social: “We came to the conclusion that genocide is occurring in Gaza and is continuing to occur, and the responsibility lies with the State of Israel,” Navi Pillay, head of the UN Independent International Commission of Inquiry on the rights situation in the occupied Palestinian territories.
Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/com.atproto.identity.resolveHandle?handle=tristankamin.bsky.social
Ça a l'air vachement cool l'interface "Liquid Glass" d'Apple.
(Apple aime cramer des cycles CPU pour frimer, c'est devenu une habitude. C'est normal : Les appareils Apple sont faits pour frimer. C'est le RayBan de l'informatique.) (Permalink)
« À 51 ans, l’entrepreneur, exilé fiscal en Belgique, se dit animé d’une mission quasi divine : « Investir pour le redressement de la France et la promotion du Christ ». Sa bataille culturelle, il entend la mener au travers d’un plan bien précis baptisé « Periclès », pour Patriotes, Enracinés, Résistants, Identitaires, Chrétiens, Libéraux, Européens, Souverainistes »
Tout un programme. Bien puant.
Et il aime tellement la France qu'il a mis sa fortune en Belgique. (Permalink)
Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/com.atproto.identity.resolveHandle?handle=tristankamin.bsky.social
L’Europe lance son premier supercalculateur, l’un des quatre plus puissants au monde, conçu pour créer des « jumeaux numériques » de la Terre.
Jupiter n’est pas qu’une planète. C’est aussi le premier ordinateur géant européen, inauguré vendredi 5 septembre sur le campus du centre de recherche de Jülich, en Allemagne, près de Cologne (Rhénanie-du-Nord-Westphalie). Tout simplement l’un des quatre plus puissants supercalculateurs au monde (sans surprise, les trois autres sont américains). Une « machine » d’une taille démentielle, occupant 3 600 m². Conçu par le groupe français Atos et financé à hauteur de 500 millions d’euros par l’Allemagne et l’Europe, il peut effectuer un quintillion de calculs à la seconde — soit un milliard de milliards — grâce à ses 24 000 puces fournies par Nvidia, dont le quasi-monopole lui permet d’être dans tous les bons coups. Destiné notamment à repositionner notre continent dans l’entraînement des modèles de langage IA (LLM), comme Gemini ou ChatGPT, il offre surtout d’immenses promesses dans la recherche sur le climat.
Son objectif phare est la création de répliques virtuelles de la Terre. Une véritable révolution entrant dans le cadre du Earth Virtualization Engines, un projet d’envergure mondiale initié lors d’un sommet à Berlin, en juillet 2023, réunissant certains des plus grands experts mondiaux en climatologie, technologie et IA.
Ces modélisations doivent permettre de visualiser et d’analyser des phénomènes complexes, comme les impacts des événements météorologiques extrêmes sur l’atmosphère, les sols, les océans et les glaces terrestres, soit les systèmes globaux. L’Institut Max-Planck pour la météorologie est l’un des premiers utilisateurs de Jupiter. En collaboration avec le Centre allemand de calcul climatique et le campus de Jülich, il mène une fascinante expérience de simulation du climat terrestre sur une année entière, en considérant tous ses paramètres. Cela permettra notamment d’étudier la manière dont les tempêtes influencent les systèmes de vents globaux et le cycle du carbone, aidant à évaluer les impacts régionaux du changement climatique.
Ce genre de simulations était jusqu’à présent inimaginable en raison des limites des calculateurs existants. Un immense bond en avant pour la recherche.
Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/app.bsky.actor.getProfile?actor=did%3Aplc%3Atoudj53egawswz2ypw3zyn2u