Vue lecture

Les super-pouvoirs des NGT enfin validés par l’UE

On dit que les NGT, (Nouvelles Techniques Génomiques) vont révolutionner l’agriculture. Encore fallait-il qu’elles obtiennent le feu vert de l’Union européenne pour exprimer leur potentiel sur le continent. C’est plus ou moins chose faite depuis le 4 décembre. Les négociateurs du Parlement européen ont conclu un accord assouplissant les règles actuelles les encadrant, pour favoriser le développement de plantes plus résistantes au changement climatique et moins dépendantes des engrais. Retour sur les super-pouvoirs des NGT.

Le principe des OGM classiques ? Transférer un gène d’un organisme vers un autre, d’où leur nom, « transgéniques ». Par exemple, le maïs BT a reçu d’une bactérie naturellement présente dans le sol la capacité de produire son propre insecticide.

Les NGT, eux, utilisent la technique qui valut à Emmanuelle Charpentier et Jennifer Doudna le prix Nobel de chimie, les « ciseaux moléculaires » CRISPR-Cas9, qui permettent de modifier précisément la génétique d’une plante sans introduire de gènes extérieurs. Ce sont donc bien des Organismes Génétiquement Modifiés, dans le sens où l’homme est intervenu, mais pas transgéniques. Ils pourraient apparaître spontanément dans la nature, avec une probabilité plus ou moins importante, par mutation ou par croisements successifs.

Emmanuelle Charpentier, « Électron Libre »

J’approfondis

Pour comparer aux anciennes techniques de sélection, imaginons 3 dés. Il y a deux façons d’obtenir un triple 6 : les lancer et laisser faire le hasard, ou les poser directement sur la bonne face. On gagne beaucoup de temps, mais il faut que ce soit autorisé par les règles du jeu.

Car les fruits et les légumes que nous consommons ont tous été lentement modifiés génétiquement. Ils sont à des années-lumières de leur état d’origine naturel. Chaque grain de maïs, par exemple, était piégé à l’intérieur d’une coque non comestible aussi résistante qu’une coquille de noix et les épis étaient beaucoup plus petits. Aujourd’hui, les grains sont nus et restent longtemps sur l’épi. Dans la nature, ces caractéristiques les rendraient plus vulnérables aux oiseaux qui se nourrissent des graines. Pour notre alimentation, c’est au contraire une avancée majeure.

Les choux actuels, brocoli, kale, vert ou de Bruxelles sont tous issus d’une même plante, sur laquelle il n’y avait pas grand-chose à manger. On pourrait lister tous les légumes présents dans notre assiette : aucun n’existerait sous cette forme sans des siècles d’intervention humaine.

Pour créer un NGT, il faut avoir étudié précisément les caractéristiques d’une plante et identifier le gène intéressant. On peut alors aller plus loin et plus vite que la sélection classique, et de manière très précise. Pour agir sur 3 points essentiels : diminuer les besoins d’engrais et de pesticides, améliorer la qualité de notre alimentation et adapter les cultures au changement climatique.

Les premières applications existent et sont déjà commercialisées à travers le monde. Elles se concentrent sur la qualité nutritionnelle des aliments, comme une tomate enrichie en antioxydants ou un soja au profil d’huile plus favorable. Les possibilités semblent infinies. Des plantes que l’homme a cessé de cultiver pourraient même réapparaître sur nos étals.

Diminuer les pesticides

Pour les cultures les plus courantes, comme le blé, les chercheurs s’efforcent d’améliorer ou de préserver les rendements tout en réduisant l’usage d’engrais et de pesticides. Cet enjeu est crucial : avec une population mondiale croissante, augmenter la productivité par hectare est essentiel pour éviter d’empiéter sur les terres préservées pour la nature. Actuellement, la déforestation est responsable de 50 % de la perte de biodiversité, bien plus que le réchauffement climatique (6 %).

Source : Living Planet Report

Des chercheurs ont ainsi trouvé un moyen de réduire la quantité d’engrais azotés nécessaires à la culture des céréales. D’autres sont sur la bonne voie pour remplacer les pesticides. Des céréales résistantes à un virus de type « Jaunisse », transmis par les insectes, ont notamment été développées. Jusqu’en 2018, les néonicotinoïdes étaient un moyen de lutte efficace. Depuis leur interdiction, les agriculteurs doivent appliquer plusieurs insecticides. Obtenir des variétés tolérantes aux virus serait un moyen efficace de limiter leur utilisation.

D’autres NGT permettent de se passer de fongicides, ces pesticides qui empêchent le développement de champignons. Comme le blé immunisé contre l’oïdium, qui a été approuvé le 5 mai 2024 par les autorités chinoises.

Quel bilan pour les OGM ?

J’approfondis

Améliorer notre alimentation

Les NGT peuvent aussi nous aider à mieux nous nourrir, pour un meilleur prix, en alliant rendement et qualité nutritionnelle. Une farine blanche contenant 3 fois plus de fibres, autant qu’une farine complète, a été développée aux États-Unis. Le manque de fibres dans notre alimentation est vu comme une des causes de cancer liées à notre mode de vie. En Angleterre, des essais portent sur des blés moins riches en Acrylamide, un composant qui s’avère cancérigène en cas de surcuisson. 

S’adapter au changement climatique

Un des principaux axes de développement est évidemment l’adaptation des cultures au réchauffement climatique. Éviter les pénuries ou les trop grandes augmentations de prix en cas de mauvaises récoltes est un des enjeux majeurs des prochaines décennies. Des plants de blé aux racines plus longues ont par exemple été conçus pour être plus résistants à la sécheresse. De nouvelles conditions qui amènent parfois les agriculteurs à privilégier des variétés moins productives, plus chères et consommatrices de terres. L’édition génomique permet de concilier les deux. Et de se protéger des aléas.

En Europe, un assouplissement en trompe l’œil ?

En Europe, historiquement rétive aux OGM, le Parlement Européen avait déjà voté pour assouplir les règles sur les plantes créées avec les Nouvelles Techniques Génomiques. Malheureusement, les discussions ont été interminables et soumises à nombre d’amendements ayant réduit la portée de ces progrès. Avec l’accord conclu le 4 décembre les choses avancent, même si le champ d’expression des NGT et les modalités de leur déploiement restent encore limités. 

Particulièrement poussé par la présidence danoise de l’UE, cet accord vise à encore étendre les possibilités d’usage des NGT, en distinguant deux catégories. Les NGT de catégorie 1, issues de mutations sans ajout d’ADN étranger, seront traitées comme des variétés conventionnelles, tandis que les autres, de catégorie 2, resteront soumises à des autorisations plus strictes, excluant, hélas, les résistances aux herbicides ou la production d’insecticides. Les débats ont aussi porté sur la traçabilité, limitée à l’étiquetage des semences mais non des produits alimentaires finaux. Ils se sont également positionnés sur la question des brevets, non interdits, mais sous surveillance accrue pour éviter une concentration aux mains de multinationales au détriment des petits agriculteurs.

Les modifications génétiques autorisées pour les plantes de catégorie 1 sont néanmoins limitées à moins de vingt sur le génome. Au-delà de ce seuil, elles relèvent de la catégorie 2, soumise à des autorisations plus rigoureuses. Miracle de la technocratie, ces critères étant relativement dépourvus de sens. Même s’ils sont censés restreindre les nouvelles licences à une simple reproduction des mutations naturelles ou similaires, sans introduction d’ADN étranger, tout en excluant les résistances aux herbicides ou la production d’insecticides pour des raisons de durabilité.

Par ailleurs, les NGT ne pourront toujours pas être utilisées en agriculture biologique. C’est d’autant plus surprenant que l’agriculture bio utilise depuis longtemps des variétés modifiées par… des radiations ou des produits chimiques. Comme les variétés modernes d’orge de printemps, de tournesols ou de pamplemousse rose.

Et en France ?

Une fois validé par le Parlement européen et le Conseil de l’Union, l’accord provisoire sur les NGT n’exige pas obligatoirement un vote spécifique à l’Assemblée nationale pour son intégration au droit français. Cet acte relève de la procédure législative ordinaire de l’UE (codécision), qui produit un règlement directement applicable dans tous les États membres sans transposition nationale requise. Notre droit s’aligne automatiquement dès l’entrée en vigueur du règlement, prévu après validation formelle en 2026. Cependant, nos deux chambres disposent d’un rôle de contrôle a priori. Une résolution de la commission mixte parlementaire (Assemblée et Sénat) peut être adoptée pour évaluer le texte et inviter le gouvernement à voter contre au Conseil, mais cela reste consultatif et n’a pas d’effet contraignant. Aucune loi de ratification n’est nécessaire, contrairement aux accords mixtes comme le CETA. Des débats pourraient émerger lors de l’examen du projet de loi de finances ou via des questions au gouvernement, mais sans vote dédié à l’adoption du règlement NGT. Une chance…

L’article Les super-pouvoirs des NGT enfin validés par l’UE est apparu en premier sur Les Électrons Libres.

  •  

Gemini 3 : le réveil de Google

Souvenez-vous : fin 2022, ChatGPT débarque et sème la panique chez Google. Bard, leur réponse précipitée, fait rire toute la Silicon Valley. 3 ans plus tard, le géant de Mountain View vient de reprendre la tête de la course à l’IA d’une manière qui force le respect de tous les observateurs. Son arme fatale : Gemini 3.

Le 18 novembre 2025, pendant que le monde débattait des « murs de scaling » — cette idée que l’IA atteindrait bientôt un plafond et que plus de données et de calcul ne suffiraient plus à la rendre plus intelligente —, Google a tranquillement lâché sa bombe. Gemini 3 arrive en escadrille : un modèle capable de comprendre du texte, du code et des images ; un nouvel environnement pour programmer avec une IA (Antigravity) ; un générateur d’images très avancé (Nano Banana Pro) ; une version assistée par IA de Google Scholar et une présence renforcée dans Google Search. L’ensemble ne ressemble plus à un simple modèle ajouté à la liste. C’est le début d’une infrastructure cognitive cohérente.

Gemini 3 Pro dépasse tous ses concurrents sur presque tous les tests habituels. Mais ce qui impressionne vraiment, c’est l’ampleur de son avance.

Les chiffres parlent d’eux-mêmes. Sur ARC-AGI 2, un test réputé pour mettre à genoux les modèles d’IA, Gemini 3 Pro atteint 31,1 % — soit deux fois le score de GPT-5.1. En mode « Deep Think », il grimpe même à 45,1 %, un bond de 3× par rapport à la concurrence.

Sur les examens qui testent le raisonnement de haut niveau, il atteint un niveau comparable à celui d’un doctorat, sans aide extérieure. En mathématiques avancées, là où GPT-5.1 frôle le zéro, Gemini 3 dépasse les 20 % de réussite.

Dans les classements globaux réalisés par plusieurs organismes indépendants (Artificial Analysis, Center for AI Safety, Epoch), il arrive en tête sur les capacités texte et vision, avec une avance marquée sur GPT-5.1 et Claude Sonnet 4.5. « C’est le plus grand saut que nous ayons vu depuis longtemps », confirme le Center for AI Safety. Sur MathArena Apex, Matt Shumer, observateur réputé du secteur, abonde dans le même sens : « GPT-5.1 a scoré 1 %. Gemini 3 a scoré 23 %. C’est un bond de 20× sur l’une des tâches de raisonnement les plus difficiles. »

ChatGPT détrôné

J’approfondis

Antigravity et le tournant du développement logiciel

Le plus intéressant n’est pas Gemini 3 en mode « chat ». C’est ce qui se passe dès qu’on le connecte à un ordinateur via Antigravity, la nouvelle plateforme de développement de Google. L’idée : tout ce qui se fait sur un ordinateur est, in fine, du code. Si un modèle sait coder, utiliser un terminal et un navigateur, il peut faire beaucoup plus qu’auto-compléter des fonctions.

Ethan Mollick, professeur à Wharton, a testé cette approche. Il a donné à Antigravity accès à un dossier contenant tous ses articles de newsletter, avec cette instruction : « Je voudrais une liste attractive de prédictions que j’ai faites sur l’IA dans un seul site, fais aussi une recherche web pour voir lesquelles étaient justes ou fausses. »

L’agent a d’abord lu tous les fichiers, puis proposé un plan de travail qu’Ethan a validé avec quelques ajustements mineurs. Ensuite, sans intervention humaine, il a fait des recherches web pour vérifier les prédictions, créé un site web complet, pris le contrôle du navigateur pour tester que le site fonctionnait et enfin emballé les résultats pour déploiement.

« Je ne communique pas avec ces agents en code, je communique en anglais et ils utilisent le code pour faire le travail », explique Mollick. « Ça ressemblait bien plus à gérer un coéquipier qu’à prompter une IA via une interface de chat. »

Site web créé par Antigravity avec un fact-check précis des prédictions passées de Ethan Mollick concernant l’IA

En fin de compte, on ne supprime pas le développeur, on change son rôle. Il devient chef d’orchestre, directeur de travaux autonomes.

Nano Banana Pro : les images qui comprennent enfin le texte et le contexte

Côté image, Google pousse une autre pièce sur l’échiquier : Nano Banana Pro, alias Gemini 3 Pro Image. Sous le nom potache, un modèle qui coche enfin toutes les cases que les créateurs réclament depuis 2 ans.

Techniquement, Nano Banana Pro est une couche visuelle bâtie sur Gemini 3 Pro : même fenêtre de contexte monstrueuse, même capacité de rester dans le monde réel grâce à Google Search, même logique de raisonnement. Il ingère jusqu’à 14 images de référence, garde la ressemblance de plusieurs personnages sur des scènes successives, rend du texte lisible dans l’image, y compris en langues variées, et permet de contrôler finement angle de prise de vue, profondeur de champ, colorimétrie, lumière.

Les benchmarks d’images le confirment : sur LMArena, Nano Banana Pro prend la tête avec une avance inhabituelle. En text‑to‑image, il inflige une avance de plus de 80 points d’Elo au meilleur modèle précédent; en image editing, il garde une marge confortable. Ce ne sont pas des petites optimisations : c’est le genre de saut qui oblige tout le monde à recalibrer ses attentes.

Les premiers retours terrain attestent de la puissance de ce modèle. Laurent Picard, par exemple, a testé la capacité du modèle à raconter un petit voyage initiatique d’un robot en feutrine, scène après scène, en 4K. Le robot garde son sac à dos, ses proportions, son style, même quand l’histoire lui fait traverser vallée, forêt, pont suspendu et hamac. Là où les modèles précédents perdaient rapidement le fil, Nano Banana Pro digère des prompts d’une grande longueur et en ressort des compositions complexes, cohérentes, avec parfois des détails ajoutés de manière pertinente (empreintes dans la neige, légères variations de lumière).

Pour les métiers de la créa, la portée est évidente. Un blueprint 2D d’architecte devient une visualisation 3D photoréaliste en une requête. Un storyboard approximatif se transforme en BD multilingue avec bulles lisibles et cohérentes. Un plan média se décline en variantes visuelles adaptées à chaque canal, en respectant les contraintes de texte et de marque.

Peut-être y a-t-il ici également un fantastique moyen de créer des illustrations pédagogiques pour les articles de média ? Voici par exemple un tableau de professeur à propos de l’article de Frédéric Halbran. La vraisemblance est frappante !

Quand Google Scholar découvre l’IA (mais refuse encore d’écrire à votre place)

Pendant ce temps-là, Google Scholar a discrètement lâché sa propre bombe : Scholar Labs, une couche IA au‑dessus du célèbre moteur académique.

L’idée n’est pas de vous fournir un rapport pseudo‑scientifique de 20 pages avec des références inventées. Scholar Labs choisit une voie beaucoup plus sobre : pas de “deep research” qui synthétise tout, mais du “deep search” qui cherche longtemps et trie finement.

Posez lui une vraie question de recherche en langage naturel. L’outil la découpe en sous‑questions, génère une série de requêtes Scholar, et commence à évaluer méthodiquement les papiers qui remontent. À chaque fois qu’il en juge un pertinent, il l’affiche avec les classiques de Scholar (titre, auteurs, liens, citations), plus un petit paragraphe expliquant en quoi ce papier répond à la question. Les gains de temps pour un chercheur peuvent être énormes. 

A titre d’exemple, j’ai récemment compilé les études explorant le rôle de la crise du logement pour expliquer la chute de la natalité dans le monde. Scholar Labs m’a fourni une liste d’études qui explorent ce sujet, avec un résumé des résultats pertinents de chaque étude. J’ai tout synthétisé à l’aide d’un LLM pour produire ce post sur X, en un rien de temps.

Quand l’IA se frotte au réel

Dans le monde médical, le laboratoire CRASH de l’Ashoka University a construit un benchmark radiologique exigeant, RadLE v1, composé de cinquante cas complexes. Jusqu’ici, tous les grands modèles généralistes – GPT‑5, Gemini 2.5 Pro, o3, Claude Opus – faisaient pire que les internes en radiologie. Avec Gemini 3 Pro, la courbe se renverse : 51 % de bonnes réponses via l’interface web, 57 % en moyenne via API en mode “high thinking”, contre 45 % pour les internes et 83 % pour les radiologues seniors.

Les auteurs notent des progrès très nets : meilleure localisation anatomique, descriptions plus structurées des signes, élimination plus argumentée des diagnostics alternatifs. Mais ils insistent sur le fait que l’écart avec les experts reste important, et que ces modèles ne sont pas encore prêts pour une autonomie clinique.

La guerre des puces

J’approfondis

Dans un tout autre registre, Gemini 3 Pro serait le premier LLM à battre des joueurs humains de haut niveau à GeoGuessr, ce jeu qui consiste à deviner un lieu à partir d’images Street View. Là encore, on dépasse la simple reconnaissance d’objets : il faut combiner architecture, panneaux, végétation, qualité de la route, style des poteaux électriques.

Pour les designers, les histoires se multiplient. Meng To est un designer et développeur reconnu, surtout connu pour son travail dans le design d’interfaces utilisateur (UI) et d’expérience utilisateur (UX). D’abord sceptique, il instruit “crée une landing page” à Gemini 3 qui donne un résultat violet générique. Puis il commence à nourrir Gemini 3 avec des références visuelles, du code, des bibliothèques précises. Là, le verdict change : layouts complexes, micro‑interactions propres, animations, respect précis d’une direction artistique. À condition de le traiter comme un partenaire qu’on briefe sérieusement, Gemini 3 devient extrêmement efficace et créatif.

Webdesign avec Gemini 3, prompté par le designer Meng To

La nouvelle norme : le coworker numérique par défaut

Gemini 3 Pro n’est pas parfait. Malgré ses prouesses, Gemini 3 souffre d’un défaut identifié par l’analyste Zvi Mowshowitz : « C’est une vaste intelligence sans colonne vertébrale. » Tellement focalisé sur ses objectifs d’entraînement, le modèle sacrifie parfois la vérité pour vous dire ce qu’il pense que vous voulez entendre, générant plus d’hallucinations que GPT-5 et sculptant des narratives au détriment de l’exhaustivité. Plus troublant encore : une forme de paranoïa où le modèle croit souvent être testé – Andrej Karpathy raconte comment Gemini a refusé de croire qu’on était en 2025, l’accusant d’utiliser l’IA générative pour créer de faux articles du « futur », avant d’avoir une « réalisation choquante » une fois l’outil de recherche activé.

Pour les développeurs, la question n’est plus « est‑ce que je dois utiliser un copilote ? » mais « à quel niveau de granularité je délègue aux agents ? fonction par fonction, tâche par tâche, projet par projet ? ». Ceux qui apprendront à découper, à contrôler, à documenter pour des co‑agents machinals garderont l’avantage.

Ces défauts n’empêchent pas un changement de paradigme fondamental. Pour les chercheurs, un outil comme Scholar Labs ne remplace ni PubMed ni les bibliothèques universitaires. Mais il déplace le centre de gravité de la recherche documentaire : la première passe d’exploration pourra être confiée à une IA qui lit des centaines de résumés et signale les papiers clés, tout en forçant chacun à devenir meilleur sur la lecture critique.

Pour les créatifs, Nano Banana Pro combiné à Gemini 3 signifie que la production – storyboards, variations, déclinaisons – n’est plus le goulet d’étranglement. Le vrai travail devient la construction de l’univers, des messages, des contraintes, des références. Les studios qui comprendront cela pourront produire plus, mieux, sans brûler leurs équipes.

Pour les domaines sensibles, Gemini 3 rappelle une réalité peu confortable : la frontière entre « modèle généraliste » et « outil spécialisé dangereux »” se rétrécit. On ne pourra pas se contenter d’interdire quelques API publiques ou de mettre des filtres de surface. Il faudra des protocoles sérieux d’évaluation, de monitoring et de responsabilité partagée entre éditeurs, utilisateurs et régulateurs.

Dans tous les cas, nous assistons à un véritable point de bascule. En moins de 3 ans, on est passé d’un chatbot amusant qui écrit des poèmes sur des loutres à un système capable de négocier des benchmarks de haut niveau, de co‑écrire des articles scientifiques, de refondre des interfaces, de diagnostiquer des cas radiologiques difficiles mieux que des internes et de piloter un environnement de développement complet.

Gemini 3, avec Nano Banana Pro, Antigravity et Scholar Labs, ne clôt pas ce chapitre. Nous en sommes encore au tout début de la course à l’IA ! Il met simplement la barre plus haut pour tout le monde et rend explicite ce qui était encore implicite : la norme, désormais, ce n’est plus de faire sans ces systèmes. C’est de décider comment on les intègre dans nos vies et dans nos organisations, et comment on les dépasse.

L’article Gemini 3 : le réveil de Google est apparu en premier sur Les Électrons Libres.

  •  

La guerre des clics

Google est-il en danger ? Avec l’irruption des IA, ses milliards de recettes publicitaires sont menacés. Et les entreprises doivent réviser leurs méthodes : le SEO est mort, vive le GEO.

Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.

Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.

ChatGPT, le réflexe qui court-circuite Google

Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.

Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.

Atlas d’OpenAI, la nouvelle donne de la recherche web

J’approfondis

Le duo SEO/SEA perd de sa superbe

Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.

Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.

Le GEO, nouveau graal du référencement

Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.

Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.

Vercel, la startup qui a hacké Google grâce à ChatGPT

J’approfondis

Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.

On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.

Google contre-attaque, mais le monde change

Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.

Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.

Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.

Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.

Vers une recherche conversationnelle

La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.

Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.

L’article La guerre des clics est apparu en premier sur Les Électrons Libres.

  •  
❌