Vue normale

Reçu — 19 novembre 2025 Les Électrons Libres

Quand le web ne tient qu’à un fil

19 novembre 2025 à 05:28

Hier, le monde s’est arrêté. Pas à cause d’une météorite ou d’une guerre nucléaire, mais d’un bug. Comment notre civilisation ultra-moderne est-elle devenue dépendante d’un système où tout ou rien ne fonctionne ? Récit d’une fragilité invisible.

Pendant trois heures, certains sites dont les très populaires fournisseurs d’IA ChatGPT et Claude étaient bloqués, votre paiement en ligne a pu être refusé, des professionnels de santé n’avaient plus accès aux dossiers patients, le réseau social X/Twitter fonctionnait mal et votre jeu vidéo en ligne ne pouvait pas se lancer. L’incident a été bref, mais il a montré notre vulnérabilité – et notre impatience.

Car l’instantanéité est devenue notre drogue. Quand vous cliquez sur une vidéo, vous exigez qu’elle démarre dans la seconde, que vous soyez à Paris, Tokyo ou au fond de la Creuse. Pour réussir ce tour de magie quotidien, Internet ne se contente pas de serveurs classiques, centralisés. Il a fallu inventer des « super-livreurs ».

Dans le jargon, on les appelle les CDN (Content Delivery Networks) ou les plateformes d’« edge computing ». Pour comprendre, imaginez un auteur à succès. S’il devait envoyer chaque livre par la poste depuis sa propre maison, les délais seraient infernaux. La solution ? Il stocke des milliers d’exemplaires dans des entrepôts locaux pour les commandes Internet ou dans des librairies, au plus près des lecteurs. Sur le web, c’est pareil : des géants comme Cloudflare ou CloudFront (Amazon) ont une copie des contenus des sites web de leurs clients dans des milliers de « petits entrepôts numériques », redondants, partout sur la planète.

Le résultat est spectaculaire : Cloudflare gère à lui seul le trafic de plus de 20 % des sites mondiaux. Amazon a récemment pulvérisé les records en faisant transiter l’équivalent de millions de films HD (268 térabits !) en une seule seconde pour la sortie d’un jeu vidéo. Sauf qu’à force de vouloir aller vite, nous avons mis tous nos œufs numériques dans le même panier.

L’effet papillon : une erreur locale, une catastrophe mondiale

Gérer ces milliers d’entrepôts numériques ne se fait pas à la main. C’est là qu’intervient l’automatisation, la véritable épée à double tranchant du cloud moderne.

Les ingénieurs utilisent des outils surpuissants capables de mettre à jour la sécurité de la planète entière en un clic. C’est une force inouïe : une faille est découverte ? Elle est colmatée partout en dix secondes. Mais c’est aussi notre talon d’Achille. Si la mise à jour contient une erreur, une instruction contradictoire ou déclenche un bug non détecté auparavant (le cas pour cette panne), cette erreur se propage, elle aussi, à la vitesse de la lumière.

Il n’y a plus de fusible local. L’erreur ne fait pas sauter les plombs de la cuisine, elle se propage et éteint la ville, le pays, le continent. Le système est binaire : tout fonctionne à merveille, ou plus rien ne marche.

Les signes avant-coureurs étaient là

Ce scénario de « Grand Black-out » est la suite logique d’une série d’avertissements que nous avons collectivement ignorés.

Souvenez-vous (ou pas) de juillet 2019. Une grande partie du web devient inaccessible pendant trente minutes. La cause ? Une règle de pare-feu applicatif (WAF) mal écrite chez Cloudflare. Ce logiciel, censé trier les visiteurs légitimes des pirates, s’est emballé et a consommé toute la capacité de calcul des serveurs, bloquant tout le monde, même les gentils.

Rebelote en juin 2022. Une opération de maintenance, destinée ironiquement à rendre le réseau plus solide, a provoqué une panne. Depuis, les parts de marché de Cloudflare ne cessent de progresser, car le service est gratuit, simple et efficace, faisant oublier son aspect systémique.

Ce qui est effrayant, c’est l’effet domino. Aujourd’hui, un site web est comme un jeu de construction Lego. Il pioche ses briques un peu partout : la police d’écriture vient d’un CDN, la bibliothèque qui permet au site de s’afficher dépend des serveurs de Google et le panier d’achat s’appuie sur un élément JavaScript hébergé chez Cloudflare. Si l’un de ces géants de l’infrastructure tombe, il emporte tout le château avec lui. Votre site préféré n’est peut-être pas en panne, mais s’il ne peut plus charger ses briques essentielles, il s’affiche partiellement ou comme une page blanche. Pour vous, le résultat est le même : écran noir.

Le casse-tête de la souveraineté : quand le garde du corps est américain

J’approfondis

Le vaccin du chaos : casser pour mieux réparer

Faut-il pour autant jeter nos smartphones et revenir au papier carbone ? Certainement pas. L’innovation porte en elle les solutions à ses propres excès. Face à cette fragilité, une nouvelle philosophie d’ingénierie émerge, audacieuse et contre-intuitive : le « chaos engineering ».

L’idée est simple mais radicale : pour éviter la panne surprise, il faut provoquer des pannes volontaires. Des pionniers comme Netflix ont ouvert la voie avec un programme nommé « Chaos Monkey ». C’est un petit logiciel qui se promène dans leur infrastructure et « tue » des serveurs au hasard, en pleine journée, pendant que vous regardez votre série.

Cela semble suicidaire ? C’est en fait du génie. C’est un vaccin numérique. En inoculant des petites doses de désordre contrôlé, on force les ingénieurs à concevoir des systèmes capables de s’autoréparer, de cicatriser instantanément. Si un serveur meurt, un autre doit prendre le relais sans que l’image ne saute.

L’avenir d’un web robuste ne réside pas dans la perfection statique, mais dans la résilience dynamique. Nous ne devons plus prier pour que « ça tienne », nous devons brutaliser nos technologies pour les endurcir, à tous les niveaux. Grâce à cette culture du crash-test permanent, nous détectons mieux nos faiblesses structurelles et dépendances technologiques. Le web de demain ne doit pas tenir qu’à un fil, mais à une toile capable de se retisser elle-même.

L’article Quand le web ne tient qu’à un fil est apparu en premier sur Les Électrons Libres.

Reçu — 18 novembre 2025 Les Électrons Libres

L’illusion du paradis perdu

18 novembre 2025 à 05:47

On confond souvent la préservation des inestimables services écosystémiques rendus par la biodiversité avec la sanctuarisation de la nature. On en vient à starifier le panda en négligeant le travail obscur de milliards de bactéries. Derrière ces constats se cache une interrogation plus profonde. Pourquoi protège-t-on la nature, et de quoi ?

La biodiversité n’est pas la nature, elle en est la mesure, la traduction scientifique et comptable. Mais dans le débat public, les deux se confondent. Définir, classer, mesurer : voilà pour la science. Comprendre pourquoi nous protégeons le vivant relève d’un autre registre, celui de la philosophie, qui conceptualise autant qu’elle questionne et tente de rendre consciente notre part de subjectivité. Ce chapitre quitte le terrain du microscope pour celui du miroir. Alors, que cherchons-nous vraiment dans la nature, et qu’y trouvons-nous ?

La nature, notre dernier mythe ?

La nature. Du latin natura, qui signifie à la fois “l’action de faire naître”, “l’état naturel d’une chose” et “l’ordre des choses”. Un mot qui désigne tout ensemble ce qui advient et ce qui est. Cette polysémie, on la retrouve dans notre relation à la nature. Chez Rousseau (Jean-Jacques), elle est pure et bonne ; chez Darwin, elle lutte et s’adapte ; chez Rousseau (Sandrine), elle souffre et réclame justice. Elle cristallise tour à tour notre nostalgie d’un paradis perdu et notre peur du monde que nous fabriquons. Elle est à la fois refuge et menace. Le mouvement romantique a célébré sa beauté sublime, à la fois apaisante et terrifiante. Aujourd’hui encore, cette ambivalence nous poursuit. Nous la divinisons tout en redoutant ses colères.

À mesure que les anciennes religions s’effacent, la nature tend à prendre leur place. Elle a ses prêtres, ses dogmes, ses rituels, ses péchés — polluer, consommer, croître. Ses apôtres parlent d’équilibre, de pureté, de “réparation du monde” — vocabulaire qui relève moins de la science que de la rédemption. Cette sacralisation du vivant révèle sans doute un besoin collectif de transcendance. Après avoir désenchanté le monde, nous l’avons re-sacralisé sous la forme du climat, du vivant ou de Gaïa.

Clément Rosset, philosophe du réel, rappelait pourtant dans L’Anti-nature que “l’idée de nature n’exprime jamais que les goûts et les préférences de celui qui l’invoque”. Elle ne décrit pas le réel, elle le juge. Elle devient un écran qui nous en éloigne. Dit autrement : si la nature devient un culte, peut-on encore la penser lucidement ?

Pourquoi protège-t-on ?

Protéger suppose un choix. Ce que l’on estime digne de l’être, et ce que l’on accepte de laisser disparaître. Mais sur quoi se fonde ce choix ? Sur l’émotion, sur la beauté, sur l’utilité ou sur le droit ? La frontière est floue. La loi tente d’en fixer les contours, mais elle reflète souvent les préférences morales et culturelles d’une époque plus que des critères écologiques. Nous sauvons les espèces qui nous touchent — le panda, la baleine, l’abeille — mais pas la vipère, le moustique ou le virus. Entre utilité et compassion, entre beauté et empathie, nous dessinons une hiérarchie sentimentale du vivant.

Peter Singer, figure de l’éthique animale, proposait d’étendre notre considération morale à tout être capable de souffrir. Sa vision est radicale. La valeur d’un être ne tiendrait plus à son intelligence ou à sa beauté, mais à sa sensibilité. Mais jusqu’où aller ? Devons-nous plaindre la punaise de lit ou le parasite ? Et que devient la responsabilité humaine si toute intervention devient suspecte ? Le risque est de confondre le respect du vivant avec une culpabilité universelle.

Entre l’utilitarisme, qui, selon Bentham, vise le plus grand bonheur du plus grand nombre, et la morale selon laquelle chaque être vivant compterait également, où tracer la limite ?

La nature faite homme ?

Avant de se rêver protecteur du vivant, l’homme a dû l’affronter. La nature n’était pas un havre, mais un champ de forces hostiles — le froid, la faim, les prédateurs, la maladie. Pendant des millénaires, survivre signifiait résister à la nature, la détourner, la dompter. C’est en la combattant que nous avons appris à la connaître, et c’est en la transformant que nous sommes devenus ce que nous sommes. Le feu, l’agriculture, l’abri, l’outil, la médecine furent autant de réponses à une hostilité primitive. Ce que nous appelons aujourd’hui “domination” fut d’abord une condition de survie.

Le moustique, un mal nécessaire ?

J’approfondis

Mais cette conquête a inversé la relation. À force de se protéger de la nature, l’homme a fini par se croire extérieur à elle. « L’humain, écrivait Merleau-Ponty, est un être pour qui tout est fabriqué et culturel. » Mais s’il est à la fois nature et culture, peut-on vraiment opposer l’homme au monde qu’il transforme ? Nos villes, nos machines, nos champs, nos usines ne sont-ils pas eux aussi des écosystèmes ? Si l’homme fait partie de la nature, ses créations — même artificielles — ne devraient-elles pas être vues comme des prolongements du vivant, au même titre que la toile de l’araignée ou le barrage du castor ?

Créer, transformer, inventer : ce sont peut-être aussi des fonctions vitales de l’humanité, non des fautes contre la nature, mais l’expression de sa propre vitalité. L’homme modifie la nature parce que c’est sa manière d’en faire partie — non de s’en extraire. Tout comme le castor et les fourmis. Mais plus nous “travaillons” sur le vivant, plus nous contrarions — ou stimulons — sa résistance. Comme le rappelait le médecin Xavier Bichat, « la vie est l’ensemble des fonctions qui résistent à la mort ».

L’agriculture, la sélection, la génétique, la déforestation, la reforestation : tout acte humain est une expérience sur un organisme planétaire dont nous faisons partie.

Les droits de la nature ?

Depuis quelques années, certains fleuves ou forêts se voient reconnaître une “personnalité juridique”. Derrière ces gestes symboliques se cache un besoin de réenchanter le lien entre droit et nature. Mais la nature lit-elle nos constitutions ? En attribuant des droits à la Terre, ne reconnaissons-nous pas, au fond, qu’elle n’en a que parce que nous lui en conférons ? Et, ce faisant, ne réduisons-nous pas la portée même de ce que nous prétendons sanctuariser ?

Lettre ouverte au panda

J’approfondis

La nature n’a pas de morale. Elle crée, détruit, recommence. C’est nous qui y projetons la nôtre. Spinoza l’avait déjà vu : une même chose peut être bonne, mauvaise ou indifférente selon le point de vue. Un feu détruit une forêt et nourrit le sol ; un barrage inonde un marais et crée un lac plein d’oiseaux. Peut-on dire où se situe le bien absolu ? L’éthique écologique doit peut-être accepter cette relativité : toute action a des effets contraires, toute protection a un coût.

Hannah Arendt rappelait que l’être humain est hanté par deux angoisses : l’imprévisibilité et l’irréversibilité. Or la biodiversité cristallise les deux. Nous ne savons pas toujours où mènent nos interventions, et nous ne pouvons revenir en arrière. Agir malgré l’incertitude, n’est-ce pas là, finalement, le vrai défi ?

L’adieu au jardin d’Éden

Nous rêvons souvent d’une nature originelle, intacte, antérieure à l’homme. Mais cette nature-là n’a jamais existé. La vie n’a cessé de se transformer, de conquérir, d’exclure ; les extinctions massives l’ont toujours façonnée. Ce que nous appelons “crise de la biodiversité” n’est pas la fin du vivant, mais la mise en crise de notre propre rapport à lui.

Le “péché” écologique consiste peut-être à vouloir transformer nos croyances collectives — autrement dit notre culture — en lois. Certaines de ces croyances reposent sans doute sur des intuitions justes. Il faut cependant qu’elles passent par le tamis de la science avant de devenir des normes.

La nature était là bien avant nous, et elle sera encore là après nous. Elle n’a pas besoin de notre secours pour survivre, mais nous avons besoin d’elle pour vivre. Sauver la nature, en réalité, c’est préserver les conditions de notre propre existence : les sols, l’eau, l’air, les équilibres et toute la machinerie complexe dont nous dépendons. Protéger le vivant n’est donc pas un geste de charité, mais une forme d’instinct de conservation — une lucidité plutôt qu’une générosité. C’est considérer la nature comme un sujet avec lequel il nous faut coopérer, pour la vie et la durabilité de l’espèce. Des espèces.

Entre le mythe du jardin d’Éden et la fuite en avant, il existe une voie plus raisonnée, plus raisonnable : celle d’une humanité consciente de sa puissance, mais aussi de ses limites. Ni démiurge, ni créature, ni pénitent, ni prédateur. Non pas maître du monde, mais son hôte ingénieux et lucide.

Cet article doit beaucoup aux apports philosophiques et à la relecture attentive de Lucille Garric, fondatrice de Tous Philosophes.

Grande série biodiversité, à retrouver tous les mardis sur lel.media !

Épisode précédent : L’usine invisible qui fait tourner le monde

L’article L’illusion du paradis perdu est apparu en premier sur Les Électrons Libres.

Reçu — 17 novembre 2025 Les Électrons Libres

Électroscope #3 : le plus long tunnel sous-marin, une révolution dans la détection du cancer et l’IA au chevet de la planète

17 novembre 2025 à 05:42

Chaque lundi, Les Électrons Libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Une révolution dans la détection du cancer !

Imaginez un simple prélèvement sanguin capable de repérer plus de 50 cancers avant même les premiers symptômes. Pour des millions de personnes, cela signifie passer d’une attente anxieuse à une prise en charge ultra-précoce, quand les chances de guérison sont les plus élevées.

C’est la promesse du test Galleri, développé par la biotech américaine GRAIL. Les résultats de l’étude PATHFINDER 2, présentés en octobre 2025, sont éloquents. Chez 35 000 adultes de 50 ans et plus, ajouter Galleri aux dépistages classiques a permis de détecter sept fois plus de cancers en un an. Sur 100 personnes testées positives, plus de 60 ont bien un cancer confirmé. Et la moitié de ces tumeurs étaient au stade précoce (I ou II), où les traitements sont souvent curatifs. Galleri cible surtout les cancers « silencieux » – pancréas, foie, ovaires – pour lesquels aucun dépistage n’existe aujourd’hui. Un signal positif entraîne des examens complémentaires, malgré un risque de faux négatifs de 26,3 %. Pas encore remboursé ni approuvé par la Food and Drug Administration (FDA) américaine, le test coûte environ 950 dollars. Mais les données accumulées ouvrent la voie à une nouvelle ère, où un cancer deviendra une simple alerte que l’on peut traiter à temps.

L’IA au secours de la planète

Et si l’intelligence artificielle nous aidait à sauver les forêts, à repérer les espèces menacées et à entendre les cris d’alarme de la biodiversité ? Pour les habitants de régions vulnérables comme l’Amazonie ou les récifs coralliens, ces applications pourraient transformer la surveillance en action concrète, prévenant la déforestation avant qu’elle ne frappe et protégeant des animaux invisibles à l’œil nu. C’est la révolution que propose Google DeepMind avec son trio d’outils IA tout juste dévoilé.

D’abord, un modèle innovant pour prédire le risque de déforestation. Basé sur des images satellites, il permet d’anticiper les zones à haut risque avec une précision de 30 mètres. Il couvre de vastes régions en temps réel, aidant les décideurs à cibler les efforts de protection et à freiner la déforestation. Vient ensuite un projet ambitieux de cartographie des aires de répartition des espèces. En fusionnant des milliards d’images satellites, radar et laser, cette nouveauté, baptisée Alpha Earth Foundations, génère des cartes ultra-détaillées de la planète. Elle excelle pour suivre l’expansion urbaine, la santé des cultures ou les ressources en eau.

Enfin, Perch 2.0, le champion de la bioacoustique. Ce modèle analyse les sons de la nature pour identifier près de 15 000 espèces – oiseaux, amphibiens, mammifères, insectes –, y compris sous l’eau comme sur les récifs coralliens. Formé sur des milliers d’heures d’enregistrements, il détecte les vocalisations rares, accélère les classements d’espèces et s’adapte à de nouveaux environnements. Les écologues y voient un allié pour monitorer les populations en danger sans perturber les habitats. Ces avancées, open source pour l’essentiel, marquent un pas géant vers une écologie boostée par l’IA.

Le tunnel de Fehmarn Belt rapproche l’Allemagne et la Scandinavie

Effectuer le trajet entre Hambourg et Copenhague en seulement 2h30, en filant sous la mer Baltique, au lieu de 5 heures avec le ferry ? Ce sera bientôt possible !

C’est la promesse offerte par le tunnel de Fehmarn Belt, en pleine construction. Long de 18 kilomètres, il sera le plus long édifice routier et ferroviaire souterrain immergé au monde, reliant l’île danoise de Lolland à celle de Fehmarn, en Allemagne. Composé de 79 éléments en béton préfabriqués de 73 000 tonnes chacun, plus 10 éléments spéciaux, il comprendra deux tubes routiers à quatre voies, deux tubes ferroviaires pour des trains à 200 km/h et un tube de service d’urgence. Creusé dans une tranchée sous-marine à 40 mètres de profondeur, il traversera le détroit de Fehmarn Belt sans perturber la navigation en surface. En février 2025, les deux premiers éléments ont été transférés dans les bassins de Rødbyhavn, au Danemark, en attendant leur immersion prévue cet automne. Côté allemand, les approbations pour les connexions ferroviaires ont été accordées en juillet, mais des délais supplémentaires pourraient repousser l’ouverture au-delà de 2029. Coût total : 7,1 milliards d’euros, financés par le Danemark, l’Allemagne et l’UE via le programme CEF. Ce projet renforcera les échanges économiques et touristiques, avec un impact estimé à 4,6 milliards d’euros annuels pour la région.

La libération pour les enfants atteints d’ADA-SCID

Diagnostiquée à 3 mois seulement, en 2014, Eliana a été forcée de vivre dans un total isolement médicalisé. Confinée pour éviter les infections mortelles, elle ne pouvait ni aller à l’école ni jouer avec des camarades de son âge. « C’était comme vivre dans une bulle », raconte sa famille. Car les enfants atteints d’ADA-SCID naissent sans système immunitaire fonctionnel. Le moindre rhume peut leur être fatal. Mais une nouvelle thérapie génique expérimentale, appelée OTL-101 et développée à l’UCLA, offre un espoir formidable. Le traitement a déjà changé la vie de 59 d’entre eux, dont Eliana.

Ses cellules souches ont été corrigées pour produire l’enzyme manquante. Aujourd’hui, à 11 ans, elle est en parfaite santé. Elle court, rit et fréquente l’école sans crainte. Elle fait partie des cinq enfants suivis depuis plus de dix ans, tous guéris sans complications. « C’est un miracle stable », souligne le Dr Donald Kohn, qui a mené l’étude.

Look Up Space déploie le premier radar français de surveillance spatiale

Dans un ciel encombré de près de 40 000 débris et satellites actifs, la sécurité orbitale devient cruciale. Une collision peut priver des millions de GPS de communications ou de données météorologiques. La start-up française Look Up Space répond à cette problématique avec SORASYS 1, un radar de nouvelle génération installé à 1 200 mètres d’altitude en Lozère, opérationnel fin 2025. Capable de détecter des objets de 10 cm jusqu’à 2 000 km d’altitude, ce système utilise des antennes actives numériques et des ondes submétriques pour un suivi précis, en temps réel, quelles que soient les conditions météo ou lumineuses.

Fondée en 2022 par le général Michel Friedling et Juan Carlos Dolado Perez, Look Up Space a levé 50 millions d’euros en 2025. Prochaines étapes : deux radars SORASYS 2A et 2B en Polynésie française, puis un réseau de 7 stations interconnectées d’ici 2030. Objectif : une souveraineté européenne en surveillance spatiale, pour contrer la dépendance au matériel américain.

L’article Électroscope #3 : le plus long tunnel sous-marin, une révolution dans la détection du cancer et l’IA au chevet de la planète est apparu en premier sur Les Électrons Libres.

Reçu — 16 novembre 2025 Les Électrons Libres

Le mal français

16 novembre 2025 à 05:08

L’enfer est pavé de bonnes intentions législatives.
Encadrement des loyers qui assèche l’offre, bonus écologiques qui font flamber les prix, interdictions sans alternatives : la France excelle dans les lois d’affichage qui produisent l’inverse de l’effet recherché. De la malveillance ? Plutôt un manque criant de culture de l’évaluation.

Le Diagnostic de performance énergétique (DPE) en est un cas d’école. Pensé pour inciter à la rénovation et rendre nos logements moins énergivores, il a, malgré ses imperfections, été transformé par la loi Climat et Résilience de 2021 en véritable couperet. Tous les logements classés F et G, synonymes de « passoires thermiques », indépendamment des consommations réelles, se sont ainsi retrouvés progressivement interdits à la location. Conséquence : l’offre locative se raréfie, les loyers s’envolent et les plus modestes, ceux que cette mesure devait protéger, se retrouvent les plus pénalisés.

Ce genre de fiasco n’est pas un accident isolé mais le résultat d’un problème structurel. Des décisions sont prises, et des lois votées, sur des bases fragiles, sans véritable évaluation préalable ni possibilité de retour en arrière.

L’émotion contre la raison

Au démarrage est le chiffre, souvent choc.

Ainsi, celui des 48 000 morts annuels dus à la pollution atmosphérique, justifiant l’impérieuse nécessité de généraliser les zones à faibles émissions (ZFE). Il a été répété sur tous les plateaux télé, qualifié d’« hécatombe » par le président de la République lui-même, repris dans l’exposé des motifs de la loi et martelé par la ministre Barbara Pompili à l’ouverture des débats au Parlement. Un chiffre à la fois gonflé et trompeur, destiné à faire primer l’émotion sur la raison. Et parmi ces émotions, la plus puissante, la peur.

Le principe de précaution, inscrit dans la Constitution en 2005, illustre cette dérive. Pensé pour obliger à prendre des mesures de prévention des risques de « dommages graves et irréversibles », il s’est peu à peu transformé en culture du statu quo. L’aversion au risque a fini par remplacer son évaluation. L’interdiction est devenue la solution de facilité.

L’angle mort de l’évaluation

Une fois le train législatif parti sur de mauvais rails, il devient difficilement arrêtable. L’étape suivante, l’étude d’impact, pourtant cruciale, se révèle trop souvent une simple formalité.

Depuis la révision constitutionnelle de 2008 et l’article 8 de la loi organique de 2009, les projets de loi d’origine gouvernementale doivent être obligatoirement accompagnés de cette étude d’impact. Sur le papier, l’exigence est claire. En pratique, l’exercice tourne souvent à l’exposé de motifs à rallonge : peu de données fiables ni d’identification claire des risques, et pas d’analyse de scénarios alternatifs.

La loi Climat et Résilience en offre un exemple parfait. Outre le DPE et les ZFE, elle contient d’autres mesures structurantes dont le zéro artificialisation nette. Son étude d’impact a été qualifiée de « superficielle » par le Conseil d’État, qui relevait « des insuffisances notables » dans plusieurs volets du texte.

Sur les ZFE, le document s’attarde sur des détails — jusqu’à chiffrer à 890 000 euros le coût de la rénovation du Panthéon « imputable à la pollution de l’air » — mais passe sous silence les risques sociaux : ségrégation territoriale, sentiment d’exclusion.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Le mal français est apparu en premier sur Les Électrons Libres.

💾

Reçu — 14 novembre 2025 Les Électrons Libres

La guerre des clics

Par : Jean Val
14 novembre 2025 à 05:43

Google est-il en danger ? Avec l’irruption des IA, ses milliards de recettes publicitaires sont menacés. Et les entreprises doivent réviser leurs méthodes : le SEO est mort, vive le GEO.

Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.

Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.

ChatGPT, le réflexe qui court-circuite Google

Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.

Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.

Atlas d’OpenAI, la nouvelle donne de la recherche web

J’approfondis

Le duo SEO/SEA perd de sa superbe

Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.

Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.

Le GEO, nouveau graal du référencement

Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.

Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.

Vercel, la startup qui a hacké Google grâce à ChatGPT

J’approfondis

Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.

On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.

Google contre-attaque, mais le monde change

Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.

Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.

Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.

Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.

Vers une recherche conversationnelle

La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.

Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.

L’article La guerre des clics est apparu en premier sur Les Électrons Libres.

Reçu — 13 novembre 2025 Les Électrons Libres

OGM : 30 ans d’aveuglement européen

12 novembre 2025 à 20:26

C’est l’un des plus grands écarts entre science et opinion. Neuf scientifiques sur dix jugent les OGM sûrs, contre seulement un tiers des Français. Pourtant, depuis trente ans, ils sont à l’origine de progrès majeurs. Prêts à remettre en cause vos a priori ?

L’homme modifie la nature depuis qu’il cultive. Bien avant les laboratoires modernes, il sélectionnait les plantes, croisait les variétés, domestiquait le vivant pour ses besoins. La carotte orange, la banane sans pépins, le maïs résistant aux maladies, ces aliments du quotidien portent l’empreinte de siècles de sélection artificielle. Ces manipulations restaient cependant limitées par les barrières biologiques naturelles. On hybridait des blés entre eux, jamais avec un tournesol ou une bactérie.

Tout a changé dans les années 1980 avec la découverte du code génétique. Les gènes sont devenus des séquences manipulables, comme des phrases dans une langue universelle. La transgénèse permet d’insérer précisément l’un de ceux provenant d’une espèce dans une autre. Par exemple, une bactérie pour protéger une aubergine des insectes, un tournesol pour rendre le blé tolérant à la sécheresse, ou la jonquille pour enrichir le riz en vitamine A et combattre la malnutrition infantile. Cette technique accélère une évolution naturelle exigeant des millénaires pour produire un croisement. Elle n’est pas employée sans de multiples précautions et contrôles. Chaque OGM subit en moyenne treize ans d’évaluations rigoureuses avant autorisation, loin des caricatures de « plantes Frankenstein » mises sur le marché sans recul.

Pourtant, l’Europe reste rétive, tout en important paradoxalement des tonnes de produits génétiquement modifiés pour nourrir son bétail, en interdisant à ses agriculteurs d’en cultiver.

Un symptôme des ravages du pouvoir d’une opinion qui aime se faire peur et s’attarde sur des images alarmistes. L’étude de Gilles-Éric Séralini, publiée en 2012 dans Food and Chemical Toxicology, illustre parfaitement ce phénomène, en plus d’avoir fait beaucoup de mal. Montée en épingle par les médias, elle montrait des rats développant des tumeurs après avoir consommé du maïs OGM NK603 et du Roundup. Les photos choc ont fait le tour du monde, alimentant les peurs. Mais la méthodologie était défaillante : échantillon trop petit, souches de rats prédisposées aux cancers, absence de contrôle statistique adéquat. La revue l’a rétractée en 2013. Séralini l’a republiée ailleurs sans corrections majeures, et des centaines d’analyses ultérieures ont invalidé ses conclusions, menées par deux cent quatre-vingts institutions.

Aucune d’entre elles n’a détecté le moindre risque sanitaire spécifique aux OGM. Pas d’allergies épidémiques, pas de différences chez les consommateurs. Un soja potentiellement allergène identifié dans les années 1990 n’a même pas quitté les laboratoires.

La « contamination » génétique effraie aussi, mais sans fondements solides. En vingt ans, moins de quatre cents incidents mineurs, souvent dus à des erreurs de tri ou de semences, ont été observés. Invalidant un fantasme à la vie dure : avec des centaines de millions d’hectares cultivés, aucune « superplante » invasive n’a émergé. Les gènes introduits se diluent naturellement s’ils ne confèrent pas d’avantage sélectif. Quant à l’idée que manger un OGM altère notre ADN, elle relève du mythe. L’estomac digère les gènes comme n’importe quelle molécule ; il ne les intègre pas. Sinon, nous serions tous des hybrides de poulet et de pain. Quant au mythe des semences stériles qui a alimenté les médias, si elles ont bien existé, elles n’ont jamais dépassé le stade des brevets. Un moratoire international les interdit depuis 2000. Aucune semence OGM commercialisée aujourd’hui n’est stérile.

Les bénéfices, eux, sont concrets. Les OGM ont réduit l’usage mondial de pesticides de 37 %, préservé les sols, stabilisé les rendements. Entre 1996 et 2018, ils ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos d’émissions de CO₂. Au Bangladesh, l’aubergine Bt, introduite en 2014, a divisé par dix les pulvérisations contre le foreur du fruit (une chenille qui creuse de petits tunnels dans les plantes pour s’en nourrir). Les paysans, autrefois empoisonnés par des applications quotidiennes d’intrants à mains nues, récoltent plus sainement. En Inde, leurs bénéfices ont augmenté de 1 200 roupies par hectare et par an. À l’opposé de la fake news colportée par Vandana Shiva, qui décrivait des cultivateurs poussés au suicide par le prix des semences. En Argentine, le blé HB4, tolérant à la sécheresse grâce à un gène de tournesol, sauve les cultures dans les plaines arides – une innovation portée par l’entreprise française Florimond Desprez, exportée pendant que l’Europe hésite. Aux États-Unis, la pomme de terre Innate réduit le gaspillage en noircissant moins. En Afrique, le maïs TELA résiste à la légionnaire d’automne, sécurisant l’alimentation de millions de gens. Les exemples de ce type sont légion.

Quand les OGM sauvent des vies et des cultures

J’approfondis

Cet ensemble ne relève pas de la promesse, mais bien des faits. Entre 1996 et 2018, les cultures biotechnologiques ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos de CO₂.

Pendant ce temps, l’Europe, elle, cultive la prudence avec excès. Nous consommons déjà des variétés issues de mutagenèse chimique ou par irradiation, créées dans les années 1950 avec des milliers de mutations aléatoires non caractérisées, y compris en bio. Pourtant, la Cour de justice européenne freine désormais le progrès. En 2018, elle a classé les éditions génétiques comme CRISPR au même rang que les OGM transgéniques. Or cette révolution, inventée en Europe par la Française Emmanuelle Charpentier et l’Américaine Jennifer Doudna, permet, grâce à des « ciseaux moléculaires » ultra-précis, de corriger une lettre fautive dans l’ADN d’une plante, justement sans y ajouter de gène étranger. La technique profite aujourd’hui à l’Australie, au Brésil, au Japon ou au Royaume-Uni, mais pas à l’Europe, même si des discussions sont en cours.

La Commission a pourtant investi 200 millions d’euros entre 2001 et 2010 pour évaluer ces technologies ; cinq cents groupes d’experts ont conclu unanimement à l’absence de risques supérieurs aux méthodes conventionnelles. Mais les politiques ont ignoré ces rapports, ce qui n’est pas sans conséquences sur notre souveraineté alimentaire. Nos laboratoires innovent, mais nos règles repoussent les chercheurs. Paradoxe : le Pacte vert de l’UE vise à réduire l’usage des pesticides de moitié d’ici 2030, mais refuse les outils pour y parvenir. Nous importons du soja OGM brésilien pour nos élevages tout en interdisant sa culture locale. Ce n’est plus de la précaution, c’est de l’hypocrisie.

Les OGM sont le domaine agricole le plus scruté au monde. Ils diminuent les intrants chimiques, aident les paysans vulnérables, atténuent le changement climatique. Ignorer ces réalités au profit de la peur mène à la pénurie. Il est temps de choisir la raison : cultiver chez nous ce que nous importons, ou continuer à jouer les vertueux en délocalisant nos problèmes.

L’article OGM : 30 ans d’aveuglement européen est apparu en premier sur Les Électrons Libres.

Reçu — 12 novembre 2025 Les Électrons Libres

Kimi K2 Thinking, l’IA qui pense et qui agit

12 novembre 2025 à 05:18

Une IA open source, capable de rivaliser avec les meilleurs modèles, entraînée pour seulement quelques millions d’euros ? C’est la révolution Moonshot AI : une prouesse qui balaie les scénarios catastrophes sur le coût énergétique de l’intelligence artificielle.

La start-up chinoise Moonshot AI, soutenue par Alibaba, vient de dévoiler Kimi K2 Thinking, son modèle de langage qui ne se contente pas de répondre, mais qui réfléchit et agit en exécutant de 200 à 300 appels d’outils séquentiellement, grâce à un raisonnement adaptatif et à long terme. Tel un ingénieur, il peut enchaîner les cycles de réflexion, de recherche, de navigation Internet, de développement — en boucle — jusqu’à trouver la solution à un problème complexe.

Comme la plupart des solutions d’IA chinoises, Kimi K2 Thinking est proposé en open source, ce qui va permettre aux autres acteurs de s’en inspirer et de progresser à leur tour. Un cycle vertueux de développement et de partage qui fait l’excellence et la fertilité de l’IA chinoise et que pratiquement aucune société américaine n’applique, sinon sur de petits modèles parfois destinés à faire de la communication plutôt qu’a un usage réel.

Ici, le modèle compte 1 000 milliards de paramètres : il rivalise donc en taille avec les plus grands opus des géants américains OpenAI, Google et Anthropic. Mais si la taille est une métrique, la performance en est une autre — et c’est là que Kimi K2 Thinking fait fort, en battant assez largement ses concurrents payants dans de nombreux benchmarks de raisonnement, notamment ceux qui n’impliquent pas d’étapes de programmation.

Mais ce n’est pas tout. Moonshot AI, loin des élucubrations actuelles sur les gigadatacenters pour l’entraînement de l’IA, qui consommeraient l’équivalent de la production d’une tranche complète de centrale nucléaire (la France en possède 56), annonce un coût d’entraînement record de 4,6 millions de dollars, contre des sommes des dizaines de fois plus importantes chez ses concurrents américains. Ce chiffre ne concerne que la puissance de calcul nécessaire pour entraîner le modèle, pas les salaires des ingénieurs, ni la collecte de données ou les autres frais de développement.

Cette prouesse est obtenue grâce à une astuce intelligente : Kimi K2 Thinking est entrainé à partir de son petit frère Kimi K2 (Instruct – modèle sans raisonnement) avec une précision ultra-réduite (QAT 4 bits), ce qui divise, sans perte notable de qualité, jusqu’à quatre fois la mémoire et les calculs requis. De plus, il n’active à chaque utilisation que quelques experts de 32 de ses 1 000 milliards de paramètres (architecture dite Mixture of Experts (MoE)). C’est le premier modèle de raisonnement à utiliser le QAT et le MoE, ce qui le place aussi premier à offrir un coût d’inférence aussi compétitif avec un usage plus rapide.

Puisqu’il est gratuit, combien cela vous coûterait-il de faire tourner cet ingénieur maison 24/7 ? Le ticket d’entrée, qui ne cesse de baisser, est d’environ 200 000 euros pour le serveur capable de s’y mettre. La compétition avec l’humain se rapproche.

L’article Kimi K2 Thinking, l’IA qui pense et qui agit est apparu en premier sur Les Électrons Libres.

❌