Australia Risks 2035 Climate Goal Without Bigger Emissions Cuts
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
![]()
À l'occasion du week-end prolongé de Thanksgiving aux États-Unis, Gemini, l'IA de Google, vous permet de vous transformer en ballon de parade géant grâce à Nano Banana.
![]()
Les documents permettant de décoder le dernier message secret de Kryptos, la célèbre sculpture codée installée au siège de la CIA, ont été adjugés 962 500 dollars le 22 novembre 2025. Plus de trente ans après son installation, le code K4 continue de défier cryptographes et amateurs du monde entier.
Read more of this story at Slashdot.
![]()
Alors que Nvidia bat de nouveaux records financiers, son PDG Jensen Huang critique les équipes réticentes face à l'IA, qualifiant leur hésitation de folie. Une marche forcée vers l'automatisation qui contraste pourtant avec les doutes grandissants sur la productivité réelle de ces outils.
![]()
Tous les ans, on vous la refait : la configuration PC du Black Friday ! On écume le web à la recherche des meilleurs prix pour des composants haut de gamme qui vous dureront longtemps. Vous pouvez évidemment ne pas tout acheter, mais si vous partez de zéro, on vous a fait le panier complet.
![]()
Alors que Nvidia bat de nouveaux records financiers, son PDG Jensen Huang critique les équipes réticentes face à l'IA, qualifiant leur hésitation de folie. Une marche forcée vers l'automatisation qui contraste pourtant avec les doutes grandissants sur la productivité réelle de ces outils.
![]()
L'entreprise américaine Perplexity a dévoilé une série d'annonces les 25 et 26 novembre 2025. Parmi elles : un assistant shopping dopé à l'IA, la création d'un avatar pour essayer virtuellement des vêtements ainsi que des assistants IA dotés d'une mémoire.
![]()
Délaissé depuis plusieurs semaines, le mode voix de ChatGPT change totalement d'interface et est désormais intégré à la conversation principale, sans orbe bleue censée représenter l'intelligence artificielle.
Le 18 novembre 2025, pendant que le monde débattait des « murs de scaling » — cette idée que l’IA atteindrait bientôt un plafond et que plus de données et de calcul ne suffiraient plus à la rendre plus intelligente —, Google a tranquillement lâché sa bombe. Gemini 3 arrive en escadrille : un modèle capable de comprendre du texte, du code et des images ; un nouvel environnement pour programmer avec une IA (Antigravity) ; un générateur d’images très avancé (Nano Banana Pro) ; une version assistée par IA de Google Scholar et une présence renforcée dans Google Search. L’ensemble ne ressemble plus à un simple modèle ajouté à la liste. C’est le début d’une infrastructure cognitive cohérente.
Gemini 3 Pro dépasse tous ses concurrents sur presque tous les tests habituels. Mais ce qui impressionne vraiment, c’est l’ampleur de son avance.
Les chiffres parlent d’eux-mêmes. Sur ARC-AGI 2, un test réputé pour mettre à genoux les modèles d’IA, Gemini 3 Pro atteint 31,1 % — soit deux fois le score de GPT-5.1. En mode « Deep Think », il grimpe même à 45,1 %, un bond de 3× par rapport à la concurrence.
Sur les examens qui testent le raisonnement de haut niveau, il atteint un niveau comparable à celui d’un doctorat, sans aide extérieure. En mathématiques avancées, là où GPT-5.1 frôle le zéro, Gemini 3 dépasse les 20 % de réussite.
Dans les classements globaux réalisés par plusieurs organismes indépendants (Artificial Analysis, Center for AI Safety, Epoch), il arrive en tête sur les capacités texte et vision, avec une avance marquée sur GPT-5.1 et Claude Sonnet 4.5. « C’est le plus grand saut que nous ayons vu depuis longtemps », confirme le Center for AI Safety. Sur MathArena Apex, Matt Shumer, observateur réputé du secteur, abonde dans le même sens : « GPT-5.1 a scoré 1 %. Gemini 3 a scoré 23 %. C’est un bond de 20× sur l’une des tâches de raisonnement les plus difficiles. »
Le plus intéressant n’est pas Gemini 3 en mode « chat ». C’est ce qui se passe dès qu’on le connecte à un ordinateur via Antigravity, la nouvelle plateforme de développement de Google. L’idée : tout ce qui se fait sur un ordinateur est, in fine, du code. Si un modèle sait coder, utiliser un terminal et un navigateur, il peut faire beaucoup plus qu’auto-compléter des fonctions.
Ethan Mollick, professeur à Wharton, a testé cette approche. Il a donné à Antigravity accès à un dossier contenant tous ses articles de newsletter, avec cette instruction : « Je voudrais une liste attractive de prédictions que j’ai faites sur l’IA dans un seul site, fais aussi une recherche web pour voir lesquelles étaient justes ou fausses. »
L’agent a d’abord lu tous les fichiers, puis proposé un plan de travail qu’Ethan a validé avec quelques ajustements mineurs. Ensuite, sans intervention humaine, il a fait des recherches web pour vérifier les prédictions, créé un site web complet, pris le contrôle du navigateur pour tester que le site fonctionnait et enfin emballé les résultats pour déploiement.
« Je ne communique pas avec ces agents en code, je communique en anglais et ils utilisent le code pour faire le travail », explique Mollick. « Ça ressemblait bien plus à gérer un coéquipier qu’à prompter une IA via une interface de chat. »

Site web créé par Antigravity avec un fact-check précis des prédictions passées de Ethan Mollick concernant l’IA
En fin de compte, on ne supprime pas le développeur, on change son rôle. Il devient chef d’orchestre, directeur de travaux autonomes.
Côté image, Google pousse une autre pièce sur l’échiquier : Nano Banana Pro, alias Gemini 3 Pro Image. Sous le nom potache, un modèle qui coche enfin toutes les cases que les créateurs réclament depuis 2 ans.
Techniquement, Nano Banana Pro est une couche visuelle bâtie sur Gemini 3 Pro : même fenêtre de contexte monstrueuse, même capacité de rester dans le monde réel grâce à Google Search, même logique de raisonnement. Il ingère jusqu’à 14 images de référence, garde la ressemblance de plusieurs personnages sur des scènes successives, rend du texte lisible dans l’image, y compris en langues variées, et permet de contrôler finement angle de prise de vue, profondeur de champ, colorimétrie, lumière.
Les benchmarks d’images le confirment : sur LMArena, Nano Banana Pro prend la tête avec une avance inhabituelle. En text‑to‑image, il inflige une avance de plus de 80 points d’Elo au meilleur modèle précédent; en image editing, il garde une marge confortable. Ce ne sont pas des petites optimisations : c’est le genre de saut qui oblige tout le monde à recalibrer ses attentes.
Les premiers retours terrain attestent de la puissance de ce modèle. Laurent Picard, par exemple, a testé la capacité du modèle à raconter un petit voyage initiatique d’un robot en feutrine, scène après scène, en 4K. Le robot garde son sac à dos, ses proportions, son style, même quand l’histoire lui fait traverser vallée, forêt, pont suspendu et hamac. Là où les modèles précédents perdaient rapidement le fil, Nano Banana Pro digère des prompts d’une grande longueur et en ressort des compositions complexes, cohérentes, avec parfois des détails ajoutés de manière pertinente (empreintes dans la neige, légères variations de lumière).




Pour les métiers de la créa, la portée est évidente. Un blueprint 2D d’architecte devient une visualisation 3D photoréaliste en une requête. Un storyboard approximatif se transforme en BD multilingue avec bulles lisibles et cohérentes. Un plan média se décline en variantes visuelles adaptées à chaque canal, en respectant les contraintes de texte et de marque.

Peut-être y a-t-il ici également un fantastique moyen de créer des illustrations pédagogiques pour les articles de média ? Voici par exemple un tableau de professeur à propos de l’article de Frédéric Halbran. La vraisemblance est frappante !
Pendant ce temps-là, Google Scholar a discrètement lâché sa propre bombe : Scholar Labs, une couche IA au‑dessus du célèbre moteur académique.
L’idée n’est pas de vous fournir un rapport pseudo‑scientifique de 20 pages avec des références inventées. Scholar Labs choisit une voie beaucoup plus sobre : pas de “deep research” qui synthétise tout, mais du “deep search” qui cherche longtemps et trie finement.
Posez lui une vraie question de recherche en langage naturel. L’outil la découpe en sous‑questions, génère une série de requêtes Scholar, et commence à évaluer méthodiquement les papiers qui remontent. À chaque fois qu’il en juge un pertinent, il l’affiche avec les classiques de Scholar (titre, auteurs, liens, citations), plus un petit paragraphe expliquant en quoi ce papier répond à la question. Les gains de temps pour un chercheur peuvent être énormes.
A titre d’exemple, j’ai récemment compilé les études explorant le rôle de la crise du logement pour expliquer la chute de la natalité dans le monde. Scholar Labs m’a fourni une liste d’études qui explorent ce sujet, avec un résumé des résultats pertinents de chaque étude. J’ai tout synthétisé à l’aide d’un LLM pour produire ce post sur X, en un rien de temps.
Dans le monde médical, le laboratoire CRASH de l’Ashoka University a construit un benchmark radiologique exigeant, RadLE v1, composé de cinquante cas complexes. Jusqu’ici, tous les grands modèles généralistes – GPT‑5, Gemini 2.5 Pro, o3, Claude Opus – faisaient pire que les internes en radiologie. Avec Gemini 3 Pro, la courbe se renverse : 51 % de bonnes réponses via l’interface web, 57 % en moyenne via API en mode “high thinking”, contre 45 % pour les internes et 83 % pour les radiologues seniors.
Les auteurs notent des progrès très nets : meilleure localisation anatomique, descriptions plus structurées des signes, élimination plus argumentée des diagnostics alternatifs. Mais ils insistent sur le fait que l’écart avec les experts reste important, et que ces modèles ne sont pas encore prêts pour une autonomie clinique.
Dans un tout autre registre, Gemini 3 Pro serait le premier LLM à battre des joueurs humains de haut niveau à GeoGuessr, ce jeu qui consiste à deviner un lieu à partir d’images Street View. Là encore, on dépasse la simple reconnaissance d’objets : il faut combiner architecture, panneaux, végétation, qualité de la route, style des poteaux électriques.
Pour les designers, les histoires se multiplient. Meng To est un designer et développeur reconnu, surtout connu pour son travail dans le design d’interfaces utilisateur (UI) et d’expérience utilisateur (UX). D’abord sceptique, il instruit “crée une landing page” à Gemini 3 qui donne un résultat violet générique. Puis il commence à nourrir Gemini 3 avec des références visuelles, du code, des bibliothèques précises. Là, le verdict change : layouts complexes, micro‑interactions propres, animations, respect précis d’une direction artistique. À condition de le traiter comme un partenaire qu’on briefe sérieusement, Gemini 3 devient extrêmement efficace et créatif.

Webdesign avec Gemini 3, prompté par le designer Meng To
Gemini 3 Pro n’est pas parfait. Malgré ses prouesses, Gemini 3 souffre d’un défaut identifié par l’analyste Zvi Mowshowitz : « C’est une vaste intelligence sans colonne vertébrale. » Tellement focalisé sur ses objectifs d’entraînement, le modèle sacrifie parfois la vérité pour vous dire ce qu’il pense que vous voulez entendre, générant plus d’hallucinations que GPT-5 et sculptant des narratives au détriment de l’exhaustivité. Plus troublant encore : une forme de paranoïa où le modèle croit souvent être testé – Andrej Karpathy raconte comment Gemini a refusé de croire qu’on était en 2025, l’accusant d’utiliser l’IA générative pour créer de faux articles du « futur », avant d’avoir une « réalisation choquante » une fois l’outil de recherche activé.
Pour les développeurs, la question n’est plus « est‑ce que je dois utiliser un copilote ? » mais « à quel niveau de granularité je délègue aux agents ? fonction par fonction, tâche par tâche, projet par projet ? ». Ceux qui apprendront à découper, à contrôler, à documenter pour des co‑agents machinals garderont l’avantage.
Ces défauts n’empêchent pas un changement de paradigme fondamental. Pour les chercheurs, un outil comme Scholar Labs ne remplace ni PubMed ni les bibliothèques universitaires. Mais il déplace le centre de gravité de la recherche documentaire : la première passe d’exploration pourra être confiée à une IA qui lit des centaines de résumés et signale les papiers clés, tout en forçant chacun à devenir meilleur sur la lecture critique.
Pour les créatifs, Nano Banana Pro combiné à Gemini 3 signifie que la production – storyboards, variations, déclinaisons – n’est plus le goulet d’étranglement. Le vrai travail devient la construction de l’univers, des messages, des contraintes, des références. Les studios qui comprendront cela pourront produire plus, mieux, sans brûler leurs équipes.
Pour les domaines sensibles, Gemini 3 rappelle une réalité peu confortable : la frontière entre « modèle généraliste » et « outil spécialisé dangereux »” se rétrécit. On ne pourra pas se contenter d’interdire quelques API publiques ou de mettre des filtres de surface. Il faudra des protocoles sérieux d’évaluation, de monitoring et de responsabilité partagée entre éditeurs, utilisateurs et régulateurs.
Dans tous les cas, nous assistons à un véritable point de bascule. En moins de 3 ans, on est passé d’un chatbot amusant qui écrit des poèmes sur des loutres à un système capable de négocier des benchmarks de haut niveau, de co‑écrire des articles scientifiques, de refondre des interfaces, de diagnostiquer des cas radiologiques difficiles mieux que des internes et de piloter un environnement de développement complet.
Gemini 3, avec Nano Banana Pro, Antigravity et Scholar Labs, ne clôt pas ce chapitre. Nous en sommes encore au tout début de la course à l’IA ! Il met simplement la barre plus haut pour tout le monde et rend explicite ce qui était encore implicite : la norme, désormais, ce n’est plus de faire sans ces systèmes. C’est de décider comment on les intègre dans nos vies et dans nos organisations, et comment on les dépasse.
L’article Gemini 3 : le réveil de Google est apparu en premier sur Les Électrons Libres.
![]()
Prévu pour une disponibilité en janvier 2026, le Minisforum AtomMan G1 Pro est un peu plus encombrant qu’un MiniPC classique. Il mesure 31.5 cm de large pour 21.5 cm de profondeur et 5.7 cm d’épaisseur. Pensé pour être positionné debout, il occupe un volume de 3.8 litres. On l’avait croisé en avril sans plus de précisions techniques sur son prix et sa disponibilité. Ces éléments sont plus clairs aujourd’hui.
Minisforum AtomMan G1 Pro
Ce format particulier permet à l’AtomMan G1 Pro d’embarquer une formule de composants assez complète puisque la minimachine propose un processeur AMD Ryzen 9 8945HX et un circuit graphique secondaire. Une carte graphique Nvidia GeForce RTX 5060 de bureau classique est en effet intégrée au châssis. Reliée en PCIe au reste des composants, elle apportera des capacités graphiques supérieures au système.
![]()
Le dispositif mis en place est assez impressionnant, on retrouve la carte graphique tout en haut qui évacuera la chaleur par l’arrière et le dessus du G1 Pro. Le circuit de refroidissement du processeur qui semble énorme et profite d’un large dispositif de caloducs pour souffler vers l’arrière au milieu. Et, tout en bas, le circuit d’alimentation 350 W de l’engin également ventilé.
![]()
Le tout étant piloté dans trois modes distincts d’alimentation. Un mode « Office » qui limitera le TDP des composants pour éviter tout bruit et apporter un usage classique. Un mode « Gaming » intermédiaire et un mode « Beast » qui devrait lâcher les chevaux en débridant toutes les performances. Évidemment, ce dernier mode mettra en route la ventilation de l’ensemble. La carte graphique pouvant monter à elle seule à 145 watts, le G1 Pro grimpera alors à 245 watts au total.
![]()
Le Ryzen 9 8945HX est un processeur très impressionnant, il additionne pas moins de 16 cœurs Zen4 pour 32 Threads au total. Avec 80 Mo de cache, cette puce propose des fréquences de 2.5 à 5.4 GHz, et un TDP oscillant entre 55 et 75 watts. Cette débauche se fait au prix du sacrifice de son circuit graphique embarqué. Un simple double cœur Radeon 610M à 2.2 GHz clairement pensé pour être relayé par un circuit graphique secondaire.
![]()
Ce rôle sera joué par le circuit graphique Nvidia qui proposera 3840 cœurs CUDA et ses 8 Go de mémoire vive dédiée en GDDR7. Une solution qui pourra également développer jusqu’à 614 TOPs pour des travaux liés à l’IA. Le processeur sera donc poussé au-delà des capacités annoncées par AMD avec un overclocking à 100 watts en mode gaming, uniquement possible grâce à un refroidissement, probablement assez bruyant.
Minisforum promet que son AtomMan G1 Pro développera en échange assez de muscles pour des tâches lourdes. Du jeu 3D fluide en FullHD ou 1440P suivant les titres. De l’animation 3D, du montage et du rendu vidéo, des travaux graphiques ou sonores et autres travaux demandant beaucoup de ressources. Pour supporter tout cela, la machine sera livrée avec un minimum de 32 Go de DDR5-5200 en double canal et pourra évoluer vers 96 Go au maximum. Le stockage sera confié de base à une solution NVMe PCIe 4.0 x4 de 1 To en M.2 2280 et un emplacement identique libre sera disponible. Les deux pourront évoluer vers des SSD de 4 To pour 8 To embarqués au total.
![]()
La connectique est complète avec en façade un bouton de démarrage, Un USB 3.2 Type-A, un USB 3.2 Type-C et un jack audio combo 3.5 mm. À l’arrière, on retrouvera d’abord les sorties vidéo de la carte graphique avec deux DisplayPort 2.1 et un HDMI 2.1. Plus bas un USB 3.2 Type-C, deux USB 3.2 Type-A, la sortie HDMI 2.1 du circuit graphique Radeon de la puce AMD. Un Ethernet 5 Gigabit est présent pour des débits réseau rapides, un DisplayPort 1.4a toujours dépendant de la puce Ryzen et la prise d’alimentation tripolaire surmontant un interrupteur. On retrouvera également à bord un module Wi-Fi7 et Bluetooth 5.4 pour des débits sans fil élevés.
![]()
Annoncée comme compatible avec Windows 11 qui est livrée avec et Linux, le Minisforum AtomMan G1 Pro est listé sur le site Français de la marque à… 1559€ TTC dans sa version 32 Go / 1 To. La disponibilité est prévue pour janvier 2026 avec une livraison depuis l’Allemagne. Je suis assez circonspect quant au prix de cet engin. Il n’a certes pas vraiment d’équivalent sur le marché avec un châssis compact et la possibilité de monter une carte graphique plein format. Mais cela reste tout de même assez cher et peu évolutif, finalement. Je ne suis vraiment pas certain que le boitier comme l’alimentation puissent accepter une autre carte graphique que celle livrée, par exemple.
Si je regarde sur le marché des PC Tour classiques, on retrouve par exemple ce PCcom Ready sous Core i7-14700KF avec 32 Go de RAM, 2 To de SSD et une GeForce RTX 5060 8Go à 1232€ dès aujourd’hui. Ou un PC tour MSI MAG Infinite S3 14NVP7-2801ES Core i7-14700F, 32 Go de RAM, 1 To de stockage NVMe et une GeForce RTX 5070 avec 12 Go de GDDR7. Je suis évidemment un fan des formats compacts mais pour certains usages cela peut être finalement contre productif, notamment en terme d’évolutivité. Difficile alors de rester aveuglé par l’encombrement sur ce type d’engin avant tout pensé pour la performance.
| Catégorie | Minisforum AtomMan G1 Pro |
|---|---|
| CPU | AMD Ryzen 9 8945HX (16 Cores / 32 Threads, max 5.4 GHz) |
| GPU | NVIDIA GeForce RTX 5060 |
| Mémoire | DDR5 jusqu’à 5200 MHz (Dual Channel), prise en charge jusqu’à 96 Go |
| Stockage | 2× M.2 2230/2280 NVMe SSD (jusqu’à 4 TB chacun, PCIe 4.0 x4) |
| Contrôleur Ethernet | LAN 5 Gigabit (RJ45) |
| Sans fil | Wi-Fi 7, Bluetooth 5.4 |
| Sortie vidéo | HDMI 2.1 ×2 (1 carte mère, 1 GPU) DP 1.4 ×1 (jusqu’à 8K@60Hz / 4K@144Hz, GPU) DP 2.1 ×2 (jusqu’à 8K@120Hz / 4K@144Hz, GPU) |
| Sortie audio | HDMI 2.1 ×2 (1 carte mère, 1 GPU) DP 1.4 ×1 (GPU) DP 2.1 ×2 (GPU) Jack combo 3,5 mm 4-en-1 ×1 |
| Ports — Avant | Power Button ×1 Jack audio combo 3,5 mm ×1 USB-A (USB 3.2 Gen2) ×1 USB-C (USB 3.2 Gen2, data only) ×1 |
| Ports — Arrière | RJ45 5G (RTL8126) ×1 USB-A (USB 3.2 Gen2) ×2 USB-C (data only) ×1 HDMI 2.1 (8K@60Hz) ×2 DP 2.1b ×2 DP 1.4a ×1 |
| Interne | PCIe 4.0 ×16 Ventilateur CPU ×1 Ventilateur système ×1 Ventilateur SSD ×1 Connecteur frontal (USB 3.2 ×1, USB-C ×1, jack combo ×1) Bouton de démarrage |
| Boutons / Éléments | Bouton de démarrage Reset BIOS |
| Dimensions | 215 × 57 × 315 mm |
| Puissance | 350 W |
| Système | Windows 11 / Linux |
| Poids | 3.81 kg |
Minisforum G1 Pro : le MiniPC sous RTX 5060 dispo en janvier © MiniMachines.net. 2025
![]()
Les autorités américaines ont mis en examen quatre hommes accusés d’avoir monté, entre 2023 et 2025, un circuit de contrebande de puces d’IA Nvidia vers la Chine en s’appuyant sur une fausse société immobilière et des documents douaniers falsifiés. Ils risquent jusqu’à 20 ans de prison.
![]()
Six jours après Gemini 3 Pro de Google, qui a battu tous ses rivaux dans la quasi-totalité des tests, Anthropic dévoile Claude Opus 4.5, son nouveau grand modèle de langage qui promet de réparer le code des développeurs mieux que personne. Dans les benchmarks sur ce critère, Claude Opus 4.5 détrône complètement le modèle de Google.
![]()
OpenAI a dévoilé, le 24 novembre 2025, son nouvel outil Shopping Research, conçu pour trouver rapidement l’article le plus adapté à vos besoins. Une utilisation « quasi illimitée » est disponible pendant toute la période des fêtes, indique l'entreprise.
![]()
Shonen, Shojo, Seinen… l’univers de la bande dessinée nippone est vaste et vous êtes un peu perdu dans l’offre pléthorique de sagas. Pour vous aider à choisir vos premières lectures, Numerama vous partage sa liste des meilleurs mangas shonen à découvrir.
![]()
Depuis le 14 novembre 2025, Netflix redonne vie à une production américaine méconnue en France : Absentia. Si vous avez déjà dévoré les trois saisons de ce thriller, qui squatte actuellement le top 10, voici 4 séries similaires qui devraient vous plaire.
Cerrillos, petite ville chilienne de 88 000 habitants, devait accueillir un nouveau data center de Google. Dans son livre à succès consacré à Sam Altman et au système OpenAI, Karen Hao décrit une installation dont les besoins en eau dépasseraient mille fois ceux de la commune. De quoi s’imaginer un véritable monstre technologique à la soif inextinguible. Le chiffre était frappant… trop, sans doute.
Car tout ceci s’est révélé être une énorme erreur factuelle, qui fait partir la démonstration à vau-l’eau et basculer Karen Hao — pourtant diplômée d’ingénierie du MIT — du côté obscur de l’information scientifique.
Dans un contexte saturé de chiffres alarmistes sur l’IA, ce ratio improbable a pu paraître crédible à beaucoup. Mais pas à Andy Masley, membre du courant de l’Effective Altruism, dont la démarche repose strictement sur les faits et les preuves.
Un calcul rapide montre en effet que ce ratio impliquerait que chaque habitant n’utilise que 0,2 litre d’eau par jour — une absurdité, près de 900 fois moins que la moyenne chilienne. En consultant les rapports de la SMAPA (service municipal de l’eau de Maipú/Cerrillos), Masley découvre que les chiffres présentés comme des « litres » dans la réponse officielle obtenue par Hao sont en réalité des mètres cubes. Une erreur d’unité qui change la comparaison d’un facteur 1 000.
Karen Hao a reconnu l’erreur et admis qu’un contrôle de plausibilité aurait suffi à la repérer. Elle a aussi annoncé qu’elle mettrait à jour son livre une fois la confirmation officielle reçue, tout en maintenant ses critiques sur l’implantation de data centers en zones de stress hydrique.
Mais ce n’est pas tout. Masley lui reproche aussi d’avoir fondé sa comparaison sur les valeurs maximales de prélèvement autorisées, alors que la consommation réelle se situe plutôt autour de 20 % de ce plafond. Une autre source majeure de surestimation.
Enfin, il pointe la confusion fréquente entre prélèvements et consommation nette : les volumes cités correspondent à de l’eau prélevée — restituée à plus de 90 % — et non à la part réellement consommée. Une nuance pourtant essentielle pour comprendre l’impact réel d’un data center.
Ces trois éléments — l’erreur d’unité, la comparaison à la capacité maximale autorisée et la confusion entre prélèvements et consommation nette — modifient radicalement l’interprétation du cas de Cerrillos.
Rien d’anecdotique. La circulation mondiale de chiffres spectaculaires mais faux finit par façonner une image déformée de l’IA, présentée comme une industrie prédatrice. Ce décalage entre perception et réalité alimente la défiance du public et complique tout débat rationnel autour de ces infrastructures.
S’il est légitime de se poser des questions sur l’impact environnemental des data centers, encore faut-il poser correctement les enjeux. Le volume total d’eau consommée, pris isolément, n’a aucune signification. Ce qui compte, c’est où et quand l’eau est prélevée. Un captage dans un grand cours d’eau en période de crue n’a aucun impact, alors que puiser de l’eau potable dans une zone sous stress hydrique peut devenir problématique.
À Cerrillos, Google a mis en pause son projet de 200 millions de dollars après qu’un tribunal environnemental chilien a partiellement révoqué son autorisation et demandé une réévaluation intégrant la vulnérabilité de l’aquifère local et les effets du changement climatique.
L’entreprise a annoncé repartir « à zéro », en adoptant un refroidissement par air, sans aucun prélèvement dans les puits environnants. Une solution plus coûteuse, mais appelée à devenir la norme partout où l’usage de l’eau fait l’objet d’une forte compétition.
L’article “L’empire de l’IA”, la contre-attaque qui fait plouf ! est apparu en premier sur Les Électrons Libres.
![]()
Dévoilé le 19 novembre 2025, Memo est le nouveau robot domestique de Sunday Robotics. Haut de 1,70 m et monté sur roues, il peut recopier les mouvements humains grâce à des gants connectés.
Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.
Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.
Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.
Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.
Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.
Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.
Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.
Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.
Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.
On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.
Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.
Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.
Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.
Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.
La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.
Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.
L’article La guerre des clics est apparu en premier sur Les Électrons Libres.