Et, si la nature avait un coup d'avance sur nous, les êtres humains ? Certains vous diront que c'est impossible, d'autres penseront que c'est évident. Pourtant, notre espèce, aussi puissante qu'elle pense être, s'inspire bel et bien de notre Terre pour résoudre certains de ses problèmes. Ce concept s'appelle le biomimétisme et depuis plusieurs années, les scientifiques et ingénieurs de nombreux secteurs le mettent en application pour solutionner des difficultés en tous genres de notre quotidien.
C'est la fin de l'expédition sous-marine qui a exploré les profondeurs de l'océan Pacifique en Argentine. Qu'ont découvert les scientifiques ? Près de 40 nouvelles espèces et une biodiversité extrêmement riche. Les 200 heures d'images d'une qualité exceptionnelle occuperont les scientifiques pendant longtemps.
Le rover Curiosity de la Nasa a découvert une roche en forme de corail. Forgée depuis des siècles, la roche a été photographiée par le robot martien avec 2 caméras différentes, complémentaires dans leurs analyses.
La peste. Et si cette terrible maladie infectieuse revenait, plus résistante que jamais ? Face à cette menace, et à d’autres plus terribles encore, la pandémie de Covid-19 a offert une arme redoutable : l’ARN messager.
Le monde oublie trop souvent certains de ses plus grands héros. En janvier 1897, la peste ravage Byculla, un quartier de Bombay bâti sur d’anciens marécages. Dans un laboratoire de fortune, le docteur ukrainien Waldemar Haffkine s’administre un avant-goût du bacille Yersinia pestis.
Il n’est est pas à son coup d’essai : 4 ans plus tôt, il vaccinait 25 000 indiens contre le choléra, malgré la méfiance des populations locales, qui l’accusent de mener des expérimentations pour le pouvoir colonial. A Calcutta, un fanatique religieux musulman tente même de le poignarder à la gorge. Il s’en sort avec de simples blessures, et refuse de quitter son poste. Affaibli par la malaria, il doit pourtant retourner en France quelques mois plus tard.
Mais, très vite, il repart affronter cette nouvelle épidémie qui décime la péninsule indienne. Après ses premiers tests sur des lapins et des chevaux, puis, donc, sur lui-même, il inocule son nouveau vaccin à des volontaires de la prison voisine. Tous survivent. Les sept détenus du groupe-contrôle, eux, meurent les uns après les autres.
Pour la première fois dans l’histoire, on apprivoise la « peste ».
La peste, un retour possible ?
Depuis, cette maladie semble reléguée au rang de souvenir, cantonnée à quelques foyers en Afrique et en Asie centrale. Mais la menace persiste. Si les antibiotiques (streptomycine, gentamicine, doxycycline, fluoroquinolones) ont permis de sauver des vies, la découverte en 1995 de souches de Y. pestis multirésistantes a mis en garde contre un possible retour en force du bacille.
Heureusement, un nouvel espoir apparaît. Héritée de la lutte contre la COVID-19, la technologie de l’ARN messager est aujourd’hui exploitée pour neutraliser la forme pulmonaire de la peste. En encapsulant deux protéines clés de la bactérie dans des nanoparticules lipidiques, une équipe israélienne vient d’obtenir 100 % de protection chez l’animal, après seulement deux injections. Cette avancée repose sur la capacité unique de l’ARNm à activer à la fois la réponse humorale et la réponse cellulaire. La première produit des anticorps pour neutraliser les agents pathogènes à distance, dans les liquides du corps (sang, lymphe, etc.). La seconde mobilise des cellules immunitaires, comme les lymphocytes T, qui vont reconnaître et détruire directement les cellules infectées. Cela ouvre la voie à des vaccins « plug-and-play », adaptables en quelques semaines seulement.
Lutter contre les “super-bactéries” résistantes aux antibiotiques
Cette technologie est une révolution. Car si la peste reste un risque, c’est surtout la menace globale des « super-bactéries » qui inquiète. A force d’y être exposées, ces bactéries résistent aux antibiotiques. Un phénomène naturel amplifié par leur usage excessif. Dans le monde, leur consommation continue de croître, malgré un recul dans certains pays comme la France depuis le début du siècle. Aujourd’hui, c’est l’un des plus grands dangers sanitaires mondiaux.
Ainsi, la typhoïde XDR, résistante à presque tous les antiobiotiques de première ligne, est apparue au Pakistan en 2016. Depuis, elle a été exportée via les voyageurs vers le Royaume-Uni, les États-Unis, le Canada, et plusieurs pays d’Europe et d’Asie
En 2022, environ 410 000 personnes ont développé une tuberculose résistante à l’isoniazide et à la rifampicine, notamment en Inde, en Chine, en Russie et en Afrique du Sud, mais aussi dans certaines républiques d’Asie centrale et d’Europe de l’Est.
L’Organisation mondiale de la santé tire la sonnette d’alarme : l’antibiorésistance est la « peste » du XXIᵉ siècle, responsable de plus d’un million de morts chaque année.
Y mettre un terme pourrait réduire drastiquement la mortalité liée aux infections, alléger la pression sur les hôpitaux et limiter la propagation de clones résistants. La plateforme ARNm offre des perspectives inédites : un ciblage vaccinal plus précis, un moindre recours aux antibiotiques, et la possibilité de freiner l’émergence de nouveaux variants bactériens.
Sous la présidence de Donald Trump, les vaccins ARNm sont remis en cause par le Ministre de la santé, l’antivax Robert Kennedy Jr.. Leur développement pourrait pourtant permettre de sauver l’humanité de nouvelles pandémies mondiales. Nul doute que Haffkine en aurait rêvé.
Des scientifiques d'une mission américano-argentine explorent les fonds marins de la région de Mar del Plata, en Argentine. Fait peu commun, ils retransmettent leur exploration à plus de 4 000 mètres de profondeur en direct sur YouTube.
Oracle infaillible ou délire de démiurge transhumaniste ? Non, l’IA n’est qu’un outil, surpuissant mais imparfait — qu’il faut apprendre à manier pour éviter les désillusions. En commençant par formuler des requêtes claires, structurées et précises. Bref, dompter le prompt.
L’intelligence artificielle (IA) est partout : dans nos téléphones, les moteurs de recommandation, les traitements de texte ou les réseaux sociaux. Mais la révolution récente, celle qui change vraiment la donne, c’est le grand modèle linguistique, ou LLM. Imaginez un cerveau artificiel ayant ingurgité des milliards de pages, capable de générer du texte dans toutes les langues, sur tous les sujets. Il ne comprend pas ce qu’il écrit, mais prédit le mot suivant le plus probable dans une phrase. C’est une machine statistique à écriture automatique. À l’arrivée : un générateur de texte fluide, cohérent, souvent bluffant. Il sait synthétiser, reformuler, traduire, résumer… mais avec une compréhension limitée de ce qu’il produit. Et malgré des progrès constants, sa capacité à vérifier ce qu’il avance reste faible — surtout s’il n’est pas connecté à des sources fiables. C’est puissant. Mais parfois à côté de la plaque.
Le côté obscur : hallucinations et biais
Le bug le plus fascinant des LLM s’appelle l’hallucination : ce moment où le modèle, avec aplomb, invente une loi, une citation ou une étude. Pourquoi ? Parce qu’il ne comprend rien. Il génère des mots selon des probabilités. Parfait pour une tarte aux pommes, plus périlleux pour un arrêt du Conseil d’État de 1995 sur le lancer de nains en discothèque. Ce qui vaut pour le texte vaut tout autant pour l’image.
Les modèles, sauf s’ils ont été spécifiquement entraînés à résoudre la tâche demandée, génèrent ce qui leur semble statistiquement plausible. Une horloge ? Très probablement 10h10. Même s’ils tentent de vous faire plaisir en glissant discrètement un petit 145 au milieu du cadran. Mais là aussi les progrès sont rapides et les humains à six doigts ont déjà (presque) disparu du paysage.
Les modèles peuvent aussi reproduire des biais. Non par intention, mais parce qu’ils sont abreuvés de textes issus du web — articles, forums, réseaux sociaux — qui, même filtrés, véhiculent stéréotypes et partis pris. À cela s’ajoutent des paramètres de fonctionnement qui influencent leurs réponses : la température, qui module leur créativité (et donc leur propension à halluciner), et le prompt système, rédigé par l’opérateur, qui définit le cadre général de leur comportement.
Exemple : celui de l’IA intégrée à WhatsApp précise que le modèle « n’est pas une personne et n’a pas de valeurs, de race, de culture ni d’opinion politique particulière. Il n’aime personne, ne hait personne, et n’offre aucune perspective qui lui soit propre. » Cadrage qui influe évidemment sur les réponses — surtout sur les sujets sensibles. En mars 2025, le cabinet Trickstr a soumis 14 LLM à plus de 41 000 questions issues de sondages politiques. Résultat : tous penchent à gauche. En France, avec une affinité marquée pour EELV.
Quand l’IA sort de sa bulle : la puissance augmentée
Depuis toujours, l’informatique progresse en corrigeant les effets secondaires de ses propres avancées — et l’IA ne fait pas exception. Les LLM, offrent une vision partielle du monde : une photo du web au moment de leur entraînement, parfois datée de plusieurs mois. La qualité varie selon les langues et les contextes. Une IA anglophone aura du mal à saisir les subtilités de l’arabe ou de l’indonésien. Résultat : des données parfois obsolètes, imprécises voire erronées.
Un LLM seul est une encyclopédie statistique, brillante mais périssable. Connecté à des sources fiables via différentes architectures logicielles (RAG, MCP, API – voir glossaire plus bas), il devient capable de croiser ses connaissances internes avec des données actuelles et vérifiables. Et ça change tout.
Les solutions d’IA basées sur les LLM ne se souviennent que de ce qui se passe dans la session en cours. Ce fil d’échange — appelé contexte — permet au modèle d’interpréter vos demandes à la lumière des messages précédents. Mais dès que vous ouvrez un nouveau chat, le contexte est réinitialisé : tout repart de zéro.
C’est pourquoi, si vous changez complètement de sujet, mieux vaut démarrer une nouvelle conversation. Cela évite au modèle de se mélanger les pinceaux en tentant de rapprocher des demandes qui n’ont rien à voir. Il est par ailleurs utile de rappeler régulièrement à votre LLM qui vous êtes et d’où vous parlez, ce qui lui permettra souvent d’adapter son niveau de réponse.
L’art de poser la bonne question : le Prompt Engineering
Pour toutes ces raisons, savoir prompter est devenu crucial. Un LLM ne lit pas entre les lignes : il exécute. Le prompt engineering est désormais une compétence à part entière : briefer clairement, formuler une demande structurée, ajuster, relancer. Si vous demandez « Parle-moi du climat », vous aurez une soupe tiède. Mais si vous réclamez « une courte synthèse critique sur les arguments scientifiques en faveur de l’origine anthropique du réchauffement climatique, avec sources », le modèle élève tout de suite son niveau de jeu.
Briefez-le comme un humain compétent : indiquez ce que vous attendez, dans quel style, avec quelles contraintes. « Écris-moi un thread X incisif, en dix tweets max, sur le bilan écologique du dernier quinquennat ». Voilà une commande exécutable. Et surtout, affinez. Testez. Relancez. « Fais plus court. », « Rajoute une vanne. », « Cite une source. » C’est l’itération qui fait la qualité et le sur mesure. N’ayez pas peur d’écrire un prompt long. Le LLM reçoit tout l’historique de la conversation à chaque requête, et les modèles connectés peuvent traiter plusieurs milliers de mots. Un bon prompt n’est jamais trop détaillé — à condition d’éviter les instructions contradictoires. Plus vous êtes clair et précis, mieux il répond.
L’arme fatale : prompt simple et implacable contre les hallucinations, par Benjamin Sire
Enfin, osez. Demandez-lui un manifeste sur le néo-libéralisme mangeur de chatons ou d’écrire une tribune d’Annie Ernaux contre l’abus de tribunes. C’est souvent dans l’absurde que l’IA surprend le plus.
Cinq pièges, à éviter absolument, reviennent souvent.
Croire que l’IA a toujours raison.
Poser des questions floues (et comme toujours, si c’est flou, il y a un loup).
Oublier que le contexte ne suit pas d’une session à l’autre, ou au contraire, rester dans le même fil en changeant complètement de sujet — un bon moyen de se retrouver avec une recette de pizza au beau milieu d’un compte rendu de comité de direction.
Attendre une vérité unique sur un sujet polémique. La mode de l’appel à Grok dans les commentaires de X en dit long : chacun l’interroge pour confirmer son opinion… puis s’étonne qu’il réponde l’inverse dix minutes plus tard.
Et lui déléguer des responsabilités qu’elle n’aura pas à assumer — décision médicale, arbitrage managérial, choix de vie.
Un LLM peut vous aider à repérer une fracture sur une radio, voire, ça s’est vu, à alerter sur un diagnostic manqué, mais reste un générateur de texte, pas un praticien, ni une autorité décisionnelle.
Malgré leurs limites — sans cesse repoussées — les grands modèles de langage offrent au plus grand nombre un accès à la pensée structurée, à la reformulation, et une aide précieuse à la créativité, sans pré requis (autre que cet article). De formidables alliés — à condition d’être bien maîtrisés. À l’heure de l’emoji et du vocabulaire appauvri, ils marquent le retour en force de l’écrit et de la culture générale : structuré, nuancé, précis. Cheh ! Ils peuvent répondre, dialoguer, accompagner — sans juger, sans interrompre, avec une patience infinie. Leur potentiel est immense : éducation, formation, recherche, analyse documentaire, accès à la culture, aide au diagnostic, développement informatique.
L’IA peut vous faire gagner du temps. Beaucoup de temps. Vous ouvrir de nouvelles portes.Mais gardez votre cerveau en éveil : à la fin, c’est toujours vous qui décidez.
« AI won’t replace humans — but humans with AI will replace humans without AI. »
— Karim R. Lakhani
Note : Cet article est issu d’une collaboration entre l’intelligence artificielle et ses auteurs, pour illustrer et appliquer les principes qu’il expose.
Glossaire
LLM — Large Language Model
Modèle d’intelligence artificielle entraîné à générer du texte, de l’image, de l’audio, du code, etc. à partir de vastes corpus de données, selon une logique probabiliste. La requête de l’utilisateur au LLM est appelée un prompt.
RAG — Retrieval-Augmented Generation
Technique consistant à fournir au modèle des extraits de documents externes pertinents avant qu’il ne réponde, pour éviter qu’il hallucine des réponses. Il reformule à partir de ces sources et peut facilement les citer.
MCP — Model Context Protocol
Protocole qui permet à une solution d’IA d’accéder à des données actualisées, notamment locales sur le PC de l’utilisateur final, afin de contextualiser ses réponses en temps réel.
API — Application Programming Interface
Interface technique permettant à la solution d’IA ou autres logiciels de se connecter à une application tierce, sans passer par l’interface web. Par exemple, une IA pourrait commander des billets d’avion pour vous en utilisant l’API d’une compagnie aérienne ou effectuer une recherche google, pour trouver des informations qu’il lui manque.
AGI — Artificial General Intelligence
Niveau d’intelligence artificielle capable de raisonner de manière autonome, flexible et transversale, comme un humain (ou mieux)
À l’été 2023, l’Europe a connu des températures sans précédent et une série d’événements climatiques meurtriers, causant plusieurs dizaines de milliers de victimes. Une étude récente tente d’en comprendre les origines : des vents anormalement faibles et l’effet inattendu de nouvelles normes environnementales.
Jusqu’alors, l’Atlantique Nord se réchauffait plus lentement que le reste du globe. Mais brutalement, la tendance s’est inversée. Les écosystèmes marins en ont été durement affectés : des milliers de poissons se sont échoués sur les côtes du golfe du Texas, quelques semaines à peine avant que l’Europe ne suffoque.
Une canicule historique
Juillet 2023 est devenu le mois le plus chaud jamais mesuré sur Terre, juste devant… le mois d’août qui a suivi. Septembre a établi un record absolu d’anomalie thermique : +1,82 °C au-dessus des niveaux préindustriels (1850‑1900).
Cette canicule aurait causé près de 48 000 morts en Europe, un continent encore mal préparé à faire face à de telles chaleurs, notamment en raison d’un faible accès à la climatisation. Un chiffre malheureusement plus exact que celui des 48 000 morts de la pollution.
En Grèce, des incendies d’une ampleur inédite ont fait au moins 20 morts. La tempête Daniel a causé des milliers de victimes. Fin juillet, l’Italie a été frappée par des grêlons de 19 cm de diamètre, un record européen.
Des causes multiples, parfois inattendues
Depuis cet été hors normes, les climatologues s’efforcent d’en décrypter les causes. Et entre partisans des différentes hypothèses, les débats ont parfois été vifs. Mais une étude récente publiée dans Nature pourrait mettre tout le monde d’accord.
Principale cause identifiée : des vents exceptionnellement faibles dans l’Atlantique Nord. En été, l’océan est fortement stratifié, avec une couche d’eau chaude en surface reposant sur des eaux plus froides. Or, l’épaisseur de cette couche dépend directement de la force du vent. En temps normal, elle mesure entre 20 et 40 mètres. En 2023, elle n’atteignait que 10 mètres. Moins de vent signifie moins d’échanges thermiques, moins d’embruns, une mer plus calme, une couverture nuageuse plus faible, et donc plus de rayonnement solaire absorbé.
Ce phénomène pourrait avoir été aggravé par le développement d’El Niño, un cycle climatique bien connu pour perturber les vents océaniques. Par ailleurs, le réchauffement climatique affaiblit lui aussi la capacité des vents à mélanger les couches océaniques supérieures.
Un autre facteur, plus inattendu, semble avoir aussi joué un rôle, moindre, mais réel : la forte baisse des émissions de dioxyde de soufre des navires. Depuis 2020, de nouvelles régulations les ont réduites de plus de 80 %. Cela a permis d’assainir l’air, mais aussi… de rendre les nuages moins brillants, et donc moins réfléchissant. Or, l’Atlantique Nord est une des zones les plus fréquentées du globe. Tianle Yuan, physicien de l’atmosphère à la NASA, avait à l’époque parlé d’un véritable « choc pour le système ».
Ce type d’effet fortuit avait déjà été observé pendant le confinement du Covid : la baisse du trafic routier avait entraîné une surprenante hausse de la concentration de méthane dans l’atmosphère.
La mystérieuse augmentation de la concentration de gaz à effet de serre pendant la pandémie
Quand la géo-ingénierie entre dans le débat climatique
Ironie de l’histoire : relâcher du soufre dans l’atmosphère est précisément l’une des méthodes envisagées dans le cadre de la géo-ingénierie. Peu coûteuse, elle permettrait — en théorie — de faire baisser la température moyenne de 0,1 °C par an, pour un coût inférieur à 5 milliards de dollars. Techniquement simple, cette méthode serait redoutablement efficace… mais aussi extrêmement risquée.
Le soufre entraîne des pluies acides, qui détruisent les forêts, rongent les bâtiments, et provoquent maladies cardiaques, respiratoires, voire cancers. D’autres substances sont à l’étude, comme le carbonate de calcium. Certaines équipes, soutenues entre autres par la fondation Bill Gates, étudient la possibilité d’en disséminer en haute altitude pour réduire l’ensoleillement. Selon certains chercheurs, cela pourrait suffire à diviser par deux l’augmentation de la température mondiale.
Quelles leçons pour demain ?
« Les vagues de chaleur devraient s’aggraver, avec des conséquences dévastatrices sur les écosystèmes marins, et les ouragans devraient s’intensifier », concluent les auteurs de l’étude sur l’été 2023. Face à cela, la tentation de la géo-ingénierie risque de grandir, suscitant des débats qui dépasseront probablement l’analyse rationnelle.
Cet été meurtrier nous rappelle une chose essentielle : toute action, même vertueuse, peut avoir des conséquences inattendues. C’est précisément pour cette raison que le débat climatique ne peut se satisfaire de slogans simplistes et de discours alarmistes. Le catastrophisme peut paralyser l’action ou pousser à des solutions radicales sans consensus. L’urgence ne doit pas tuer la nuance : c’est la compréhension fine des mécanismes climatiques, et non la peur, qui nous aidera à choisir les réponses adaptées.