Vue lecture

Ni Bio, ni conventionnel : l’ACS, la troisième voie agricole ?

Imaginez une agriculture qui soigne ses sols, nourrit la biodiversité, stocke du carbone et réduit l’usage d’engrais… tout en maintenant des rendements solides et une rentabilité réelle. Utopie verte ? Non. Cette méthode existe déjà, et s’est imposée comme modèle dominant dans certaines régions du monde : l’agriculture de conservation des sols (ACS).

Une terre sans soulèvements

Le Dust Bowl. C’est ainsi que les habitants des grandes plaines nord-américaines ont baptisé cette succession de nuages de poussière colossaux qui, dans les années 1930, se sont abattus sur la campagne, ensevelissant les fermes, étouffant les pâturages, tuant le bétail et rendant l’air irrespirable. En pleine Grande Dépression, près de 300 000 agriculteurs ruinés ont dû tout quitter et migrer vers la Californie, dans la misère la plus totale.

C’est au cœur de ce drame humain et écologique qu’est née l’agriculture de conservation des sols, l’« ACS ». Pas dans les bureaux d’un institut de recherche, mais entre les mains de centaines d’agriculteurs, animés par une nécessité vitale, celle de sauver leur terre.

Ces « conneries » qui ont enrichi les sols de Jacky Berland

J’approfondis

Le principe de l’ACS est simple : protéger le sol grâce à trois leviers essentiels. Garder autant que possible le sol couvert, grâce à des cultures intermédiaires qui protègent et enrichissent la terre. Favoriser la diversité culturale dans le temps, en allongeant les rotations. Et surtout, ne plus remuer la terre grâce au semis direct, qui permet d’implanter la graine sans perturber la structure du sol.

Terres de promesses

Chacun de ces piliers offre des bénéfices agro-écologiques spécifiques. Couvrir les sols enrichit la terre en matière organique, réduit les besoins en engrais pour la culture suivante, limite l’eutrophisation (prolifération d’algues due à un excès d’azote) et réduit les fuites d’azote. Les couverts participent aussi au stockage de carbone dans le sol.

Les rotations culturales brisent les cycles des ravageurs, des maladies et des adventices (les mauvaises herbes), diminuant ainsi le besoin en produits phytosanitaires.

Le non-labour, enfin, préserve la vie du sol — vers de terre, microfaune, champignons — améliorant ainsi la capacité des plantes à accéder aux nutriments. Il limite également l’érosion en maintenant la structure naturelle du sol.

Mais c’est l’effet combiné des trois qui crée la vraie dynamique : plus de matière organique, moins d’adventices, un sol plus résilient à la sécheresse. Un effet qui n’a de sens que si les rendements suivent. Faute de quoi le gain local serait effacé par l’augmentation des surfaces nécessaire pour compenser la baisse de production.

Et c’est précisément ce qui distingue l’ACS du bio. Contrairement au second (–25 % en moyenne), il n’entraîne qu’une baisse de rendement marginale, autour de 5 % selon la plus vaste méta-analyse disponible. C’est ce qui explique son succès dans plusieurs régions du monde. En Amérique du Nord, elle couvre un tiers des terres cultivées. En Amérique du Sud, plus des deux tiers. Et chez les champions, en Australie et en Nouvelle-Zélande, près des trois quarts.

Ces régions n’ont pas adopté l’ACS par idéologie, mais parce qu’elle offre un réel intérêt économique. Dans les grandes plaines sèches des Etats-Unis, d’Australie ou d’Argentine, elle améliore la rétention d’eau et stabilise les rendements. Sous les climats tropicaux, elle limite une érosion hydrique devenue critique dans les années 1970.

Portée par ces pionniers, l’agriculture de conservation n’a cessé de s’étendre, jusqu’à couvrir aujourd’hui environ 15 % des surfaces cultivées dans le monde.

L’ACS en France : retour sur Terre

En France, pourtant, l’ACS reste marginale, éclipsée par la domination culturelle du bio. Mais grâce à quelques agriculteurs pionniers et au travail de l’APAD (Association pour la Promotion d’une Agriculture Durable), le ministère de l’Agriculture commence à s’y intéresser sérieusement. Un rapport récent du CGAAER (le Conseil Général de l’Alimentation, de l’Agriculture et des Espaces Ruraux) en dresse même un tableau particulièrement prometteur. Peut-être même un peu trop.

« N’est-il pas temps de s’y mettre ? », questionne le rapport, renvoyant la responsabilité aux seuls agriculteurs. Car « le frein principal au développement de l’ACS [serait] d’ordre culturel » : goût historique pour les champs « propres », regard des voisins, prestige du labour… Oui, ces éléments existent sans doute. Mais ils sont loin de suffire à expliquer les difficultés observées sur le terrain. Car la mise en œuvre de chaque pilier de l’ACS implique des défis techniques très concrets.

Mettre en place un couvert ? Excellente idée… sauf quand il ne lève pas, un risque fréquent en cas de sécheresse estivale. Semences perdues, carburant gaspillé, travail pour rien, se traduisent par une perte sèche pour l’agriculteur.

Allonger les rotations ? En théorie, tout le monde est pour. En pratique, il faut des cultures rémunératrices. Or les filières françaises restent limitées, et les légumineuses peinent à rivaliser avec un soja importé nettement moins cher depuis l’Amérique, malgré les dizaines de millions injectés dans le « plan protéines » de 2020.

Quant au non-labour, c’est le principal défi : tassement tant que la vie du sol n’a pas repris, rongeurs plus présents, et surtout forte pression d’adventices. Pour les maîtriser, le glyphosate reste aujourd’hui l’outil le plus fiable, faute d’alternatives réellement opérationnelles. Mais son usage est politiquement et socialement contesté, et certaines résistances, comme chez le ray-grass, créent déjà des impasses techniques. Une interdiction brutale condamnerait de fait le non-labour pour une large part des exploitations.

Toutes ces difficultés se traduisent par une baisse moyenne d’environ 20 % dans les réseaux expérimentaux (Syppre, DEPHY). Un chiffre difficilement soutenable, malgré des charges parfois réduites. Ajoutez à cela une absence totale de valorisation commerciale — à la différence du bio — et une phase de transition longue (5 à 7 ans), où l’agriculteur prend des risques financiers réels, sans filet.

Garder les pieds sur Terre

Alors, l’ACS serait-elle, en France, une impasse ? Pas forcément. Car contrairement au bio, où la baisse de rendement est structurelle, l’ACS peut maintenir des performances élevées. Mais elle n’est pas universelle. Certaines zones intensives (Beauce, Brie, Picardie) semblent moins adaptées, alors que les intermédiaires calcaires ou sujettes à l’érosion montrent de très bons résultats.

Plusieurs exploitations suivies sur le long terme affichent d’ailleurs des bilans encourageants : rentabilité supérieure, charges en baisse, rendements stables, voire en hausse à Tréfleur (+8,5 % en blé, +20 % en maïs).

Pour accélérer son développement, plusieurs actions s’imposent. D’abord, un accompagnement technique renforcé, notamment entre agriculteurs, car l’ACS ne s’applique pas par “recette”, mais par ajustement fin. Ensuite, davantage de recherches, via un observatoire national dédié. Puis, un soutien financier temporaire, pour absorber la phase de transition. Et surtout, éviter d’en faire un dogme. Un travail mécanique ponctuel n’a rien d’une hérésie. Tout est affaire de bon sens agronomique.

L’ACS n’est pas un système parfait et universel. La généraliser serait illusoire. Mais progresser dans cette voie pourrait apporter une contribution majeure à l’agroécologie.

TCS : Le bon sens agro-économique

J’approfondis

Paradoxalement, elle ne peut pas compter sur le soutien de l’écologie politique, focalisée sur le bio, incompatible avec l’ACS pour la gestion des adventices, et qui la voit comme une rivale. Certaines oppositions trop rigides risquent même de la freiner plutôt que de l’aider.

Supprimer l’irrigation ? On réduit encore les options de rotation. Interdire le glyphosate ? On enlève l’outil central du non-labour. Bannir les OGM ? On limite les gains de rendement dans certaines cultures stratégiques. Favoriser systématiquement les petites fermes ? On affaiblit la capacité d’investissement nécessaire aux transitions.

L’ACS n’est pas une utopie verte. C’est une voie d’avenir concrète, pragmatique et perfectible, qui mérite clairement qu’on lui donne sa chance. Et les moyens de son ambition écologique.

L’article Ni Bio, ni conventionnel : l’ACS, la troisième voie agricole ? est apparu en premier sur Les Électrons Libres.

  •  

La voiture électrique avait un siècle d’avance. Pourquoi a-t-elle disparu ?

La voiture électrique ne date pas d’hier : avant même l’invention de la thermique, le premier modèle a fait son apparition il y a presque deux siècles. Passion initiale de Ferdinand Porsche, taxis londoniens, courses homériques… Retour sur ce temps des pionniers.

Avec la voiture électrique, Les électrons libres entament une nouvelle série hebdomadaire, aussi surprenante qu’instructive. Les trois premiers épisodes vous plongent dans l’histoire fascinante de cette technologie pionnière dans le développement de l’automobile, longtemps oubliée, avant de s’affirmer comme la nouvelle norme contemporaine.

Épisode 1 : 1830 – 1930, un siècle électrisant

Notre histoire de la grande marche vers la voiture électrique commence à la fin du XVIIIe siècle, lorsque les scientifiques commencent à appréhender le concept d’électricité. Pensez aux expériences de Franklin avec la foudre, de Galvani avec la stimulation des muscles d’une grenouille morte… et surtout à Alessandro Volta, qui invente la première pile électrique en 1800. Dans la foulée, on commence à tâtonner sur l’électromagnétisme. Les balbutiements du moteur électrique ont lieu entre les années 1820 et 1830. En 1834 l’américain Thomas Davenport en crée un à courant continu destiné à être commercialisé et le teste dans une sorte de jouet, un mini véhicule sur rails. C’est probablement la première fois qu’on a fait se déplacer un objet à l’aide de cette énergie. En 1838 le prussien Moritz von Jacobi pilote un bateau muni d’un moteur électrique, à contre-courant sur la Neva.

Le 17 juin 1842 à Édimbourg, un certain Andrew Davidson se serait promené dans une carriole mue à l’électricité. Mais forcément, avec une batterie non-rechargeable. Difficile alors de réellement parler d’un moyen de transport utilisable !

Pour obtenir la première bonne batterie, il faut attendre 1860 avec les français Gaston Planté puis Camille Faure. Le couple plomb-acide permet de délivrer des puissances assez importantes grâce à une résistance interne intrinsèquement faible, et surtout la réaction est réversible. On peut enfin charger ses accus ! Mais pour y parvenir, un générateur est préférable. Le belge Zénobe Gramme s’attelle à réaliser les premières machines électriques réversibles dans les années 1870. 

Toutes les pièces du puzzle sont enfin réunies et on peut accueillir ce qui est probablement la première « vraie » voiture électrique en 1881. Un modeste tricycle, œuvre de Gustave Trouvé. Il dispose de deux moteurs à l’arrière, produisant 0.1ch, ce qui propulse ses 160 kg à une dizaine de km/h, rue de Valois. Mine de rien, il grille de 4 ans la politesse au fameux tricycle à moteur à explosion de Karl Benz ! (La vapeur, déjà courante sur les rails, a aussi fait ses timides débuts routiers depuis quelques décennies, mais rien de très concluant jusque-là).

Le tricycle de Gustave Trouvé

La même année, le tilbury de Charles Jeantaud dispose de 3ch pour 1170kg, mais il prend feu presque instantanément lors de son premier essai. Après cela, les expérimentations se poursuivent sur la base d’une recette simple : des batteries, une ou plusieurs machines électriques, et une carrosserie d’origine globalement hippomobile (signifiant un véhicule tiré par des chevaux. Berline, limousine, break, coupé, coach, cabriolet etc, sont à la base des noms de carrosseries hippomobiles avant d’avoir été utilisées dans le monde de l’automobile).

Le tilbury de Charles Jeantaud

Légère avance rapide, nous sommes le 11 juin 1895 et c’est un jour important dans l’histoire de l’automobile. Se déroule la première course longue distance. Paris-Bordeaux-Paris, rien que ça. Imaginez l’exploit consistant à parcourir 1200 km sur les routes de l’époque… Avant qu’un lecteur pointilleux n’en fasse la remarque, rappelons que le Paris-Rouen organisé l’année précédente était un « concours » et non une course. Il n’y avait pas vraiment de notion de vitesse, mais la volonté de démontrer la polyvalence des automobiles.

Et sur les 24 voitures au départ, devinez quoi ? Il y a une électrique. Un break Jeantaud de 7ch, 38x15kg de batteries, 6 places, 2200kg, et 24-30 km/h de vitesse de croisière. Mais comment espérer faire 1200 km ? En changeant de batteries tous les 40 km, ce qui a demandé une sacrée organisation en amont pour prépositionner les fameuses batteries. Handicapée par une roue endommagée, la pionnière abandonne la course à Orléans (les réparations étaient interdites hors matériel présent à bord), mais rallie quand même Bordeaux à 16 km/h de moyenne. Pour l’anecdote, la victoire est revenue à un engin à essence, Panhard-Levassor, qui a accompli la distance à 24.6 km/h de moyenne.

Le break Jeantaud du Paris – Bordeaux – Paris

Si la voiture à moteur à combustion interne vient de démontrer sa supériorité sur longue distance, l’opération est loin d’être un échec cuisant pour la voiture électrique. Car faire 1200 km d’une traite est loin d’être dans les priorités de l’époque ! On cherche plutôt à remplacer les innombrables fiacres à chevaux qui souillent les villes de leurs déjections, et pour cela les voitures électriques semblent prometteuses. Car nul besoin d’aller trop loin ni trop vite. En revanche, simplicité et fiabilité sont des atouts précieux face aux autres véhicules à moteur de l’époque, qui sont toute une aventure à piloter sur le moindre trajet. Et le coût est un moindre problème lorsqu’on fait payer à la course plutôt que de viser la vente directe d’un véhicule à un particulier. 

La London Electrical Cab Company est lancée en 1896. Ses voitures revendiquant 3.5ch, 40 km d’autonomie, et se rechargent en 12h.

Un taxi de le London Electrical Cab Company

En 1897 est établie la New-York Electric Cab and Cariage Service puis Electric Vehicle Company. Elle s’affirmera un temps comme l’un des plus gros constructeurs automobile au monde, avec 1500 voitures produites en 1900, essentiellement destinées à servir de taxi.

En 1898 a lieu, à Paris, un concours de « voitures de place » (le terme consacré à l’époque pour désigner les taxis, avant l’invention du taximètre qui leur donnera leur nom), largement remporté par des voitures électriques. 

Va-t-on alors assister à une segmentation du marché automobile selon l’énergie utilisée ? Sans les véhicules à vapeur, trop contraignant et surtout dangereux. À l’électricité la ville et notamment le marché du remplacement des fiacres. À l’essence le frisson de l’aventure et de la vitesse. Enfin quoi que, pour la vitesse… les jeux ne sont pas encore faits ! Car si le moteur à combustion interne est déjà maître de l’endurance, sa densité de puissance laisse encore à désirer en ce tournant du siècle.

Un pionnier nommé Ferdinand Porsche

Parmi les pionniers de la voiture électrique, outre Trouvé, Jeantaud, Jenatzy, ou encore Krieger, Baker etc, on trouve un nom dont vous avez probablement déjà entendu parler : Ferdinand Porsche. Oui, le Ferdinand Porsche du futur bureau d’étude éponyme, père de la Coccinelle et d’un certain nombre de chars d’assaut. L’homme est avant tout un autodidacte passionné d’électricité qui a trouvé son premier emploi chez les autrichiens de Lohner. Là, il va concevoir toute une série de véhicules caractérisés par leurs étonnants moteurs-roues. Après une petite Lohner-Porsche qui en dispose de deux à l’avant, développant 5ch pour 50 km/h de pointe et 50 km d’autonomie, il décide de régler une bonne fois pour toute le problème de l’autonomie comme de la puissance avec une voiture révolutionnaire dotée de 4 moteurs roues reliés à des batteries, elles-mêmes alimentées par… un moteur thermique ! Ce n’est rien de moins que la première hybride-série-rechargeable-4 roues motrices de l’histoire. Quatre records d’un seul coup ! Ces monstres atteignent les 90 km/h et peuvent grimper des côtes de 20%. Mais leur masse est éléphantesque (aux alentours de 2 tonnes) et leur coût prohibitif. Leur production est arrêtée vers 1906.

L’hybride-série-rechargeable-4 roues motrices de Ferdinand Porsche

Car le coût est bien l’éléphant dont nous parlons, posé au milieu de la pièce. Cela nous ramène à notre segmentation du marché entre voitures électriques et à combustion interne. Et là, les choses ne se sont pas exactement déroulées comme prévu. Car, outre leur autonomie et leur vitesse réduite, le prix des voitures électriques et de leur exploitation (usure des pneus, échange des batteries…) est exorbitant. Conséquences : les sociétés de taxi électriques font faillite les unes après les autres ! (Avec même quelques scandales à la clef, semble-t-il).

Et pendant que l’électricité peinait à remplir le rôle qui semblait lui échoir, la rustre voiture à combustion interne apprenait à se civiliser, se fiabiliser et à s’adapter aux tâches les plus utilitaires. Et surtout, elle réduisait ses coûts grâce à l’expérience acquise ! Le premier taxi Renault, avec son modeste mais infatigable bicylindre, allait rapidement remplir les rues de Paris, puis s’exporter jusqu’à Londres et New-York, il y a peu terrains privilégiés de la propulsion par électrons. Ils entreront bientôt dans la Grande Histoire sous le nom de « taxis de la Marne ». Et la Ford T, lancée en 1908, enfonce le clou avec ses tarifs imbattables. D’autant plus que le carburant est devenu plus abondant.

La messe serait-elle alors dite pour nos voitures électriques ? Car, durant ces décennies, la thermique à essence a fait d’immenses progrès, bien que partant de très, trèèèès loin, même si elle reste puante, cahotante, et contraignante. Et surtout, dangereuse à cause de la redoutable manivelle indispensable pour en démarrer le moteur. Un ustensile qui a cassé tant de bras, si ce n’est pire. 

Mais tout n’est pas perdu pour notre électrique. Même chère et limitée en rayon d’action, elle reste infiniment plus simple, douce, bref raffinée. Et quelle clientèle douce et raffinée peut-on tenter de séduire avec ce genre d’arguments à cette époque infiniment patriarcale ? Les femmes pardi ! 

Voici donc les fabricants de voitures électriques lançant progressivement, au cours des années 1900, un assaut désespéré en direction d’une clientèle féminine (très aisée, cela va sans dire) en quête d’indépendance. Et… ça marche ! Aux États-Unis surtout, les voitures électriques connaissent un mini âge d’or grâce aux grandes bourgeoises, très heureuses de se mouvoir en ville, dans de confortables et silencieuses automobiles, exemptes de ces horribles manivelles réclamant de la force physique et un brin d’inconscience. Même la propre femme d’Henry Ford possède une voiture électrique ! 

D’ailleurs, savez-vous pour quelle personnalité notre cher Henry Ford, concepteur du fameux Model T,  a travaillé avant de fonder sa propre marque de voitures ? (Ou plutôt ses marques de voitures, vu qu’il a connu quelques échecs avant de triompher…)

On vous le donne en mille : chez Thomas Edison. Avec lequel il entretient toujours des liens amicaux, en plus d’avoir historiquement manifesté un certain intérêt pour les véhicules électriques. Les deux hommes sont convaincus qu’il existe un marché pour ces voitures, à condition qu’elles soient abordables, et ils s’associent en 1913. Objectif : une masse de 500kg dont 185 kg de batteries, 160km d’autonomie, 600$. Soit approximativement le prix d’une Model T. Ford va jusqu’à investir 1.5 millions de dollars dans ce projet. Une somme colossale pour l’époque. Mais… c’est un échec. La batterie Nickel-Fer créée par Edison est incapable d’atteindre la puissance escomptée, pas assez dense et finalement toujours trop chère. Elle sera tout de même proposée en option dans certaines voitures électriques de l’époque. Et connaîtra une brillante carrière dans le stockage stationnaire, ces batteries étant quasiment immortelles, pouvant durer des décennies. 

Detroit Electric

En même temps que ce coup dur, en vient un autre, fatal celui-ci. Et  ironie du destin, il implique aussi des électrons. En 1912, Cadillac inaugure le démarreur électrique. Les jours de la manivelle sont comptés ! (Même si elle restera longtemps présente pour dépanner en cas de déficience du nouveau dispositif.) Ceux de la voiture électrique grand public, aussi. Au terme de plus de trois décennies de bataille le verdict tombe : le siècle suivant sera thermique. Un leader tel que Detroit Electric, qui a fabriqué plusieurs milliers de voitures par an dans les années 1910, décline progressivement après 1916 et finit par cesser la production en série à la fin des années 20, et la production tout court en 1939.

Mais contrairement aux voitures à vapeur, les électriques ne vont pas tout à fait disparaître. Tout au long du XXe siècle de nouveaux projets vont constamment apparaître au gré des crises, progrès technologiques ou changements sociétaux. Et ce sera le sujet de notre prochain épisode !

Duel à grande vitesse

J’approfondis



L’article La voiture électrique avait un siècle d’avance. Pourquoi a-t-elle disparu ? est apparu en premier sur Les Électrons Libres.

  •  

Les super-pouvoirs des NGT enfin validés par l’UE

On dit que les NGT, (Nouvelles Techniques Génomiques) vont révolutionner l’agriculture. Encore fallait-il qu’elles obtiennent le feu vert de l’Union européenne pour exprimer leur potentiel sur le continent. C’est plus ou moins chose faite depuis le 4 décembre. Les négociateurs du Parlement européen ont conclu un accord assouplissant les règles actuelles les encadrant, pour favoriser le développement de plantes plus résistantes au changement climatique et moins dépendantes des engrais. Retour sur les super-pouvoirs des NGT.

Le principe des OGM classiques ? Transférer un gène d’un organisme vers un autre, d’où leur nom, « transgéniques ». Par exemple, le maïs BT a reçu d’une bactérie naturellement présente dans le sol la capacité de produire son propre insecticide.

Les NGT, eux, utilisent la technique qui valut à Emmanuelle Charpentier et Jennifer Doudna le prix Nobel de chimie, les « ciseaux moléculaires » CRISPR-Cas9, qui permettent de modifier précisément la génétique d’une plante sans introduire de gènes extérieurs. Ce sont donc bien des Organismes Génétiquement Modifiés, dans le sens où l’homme est intervenu, mais pas transgéniques. Ils pourraient apparaître spontanément dans la nature, avec une probabilité plus ou moins importante, par mutation ou par croisements successifs.

Emmanuelle Charpentier, « Électron Libre »

J’approfondis

Pour comparer aux anciennes techniques de sélection, imaginons 3 dés. Il y a deux façons d’obtenir un triple 6 : les lancer et laisser faire le hasard, ou les poser directement sur la bonne face. On gagne beaucoup de temps, mais il faut que ce soit autorisé par les règles du jeu.

Car les fruits et les légumes que nous consommons ont tous été lentement modifiés génétiquement. Ils sont à des années-lumières de leur état d’origine naturel. Chaque grain de maïs, par exemple, était piégé à l’intérieur d’une coque non comestible aussi résistante qu’une coquille de noix et les épis étaient beaucoup plus petits. Aujourd’hui, les grains sont nus et restent longtemps sur l’épi. Dans la nature, ces caractéristiques les rendraient plus vulnérables aux oiseaux qui se nourrissent des graines. Pour notre alimentation, c’est au contraire une avancée majeure.

Les choux actuels, brocoli, kale, vert ou de Bruxelles sont tous issus d’une même plante, sur laquelle il n’y avait pas grand-chose à manger. On pourrait lister tous les légumes présents dans notre assiette : aucun n’existerait sous cette forme sans des siècles d’intervention humaine.

Pour créer un NGT, il faut avoir étudié précisément les caractéristiques d’une plante et identifier le gène intéressant. On peut alors aller plus loin et plus vite que la sélection classique, et de manière très précise. Pour agir sur 3 points essentiels : diminuer les besoins d’engrais et de pesticides, améliorer la qualité de notre alimentation et adapter les cultures au changement climatique.

Les premières applications existent et sont déjà commercialisées à travers le monde. Elles se concentrent sur la qualité nutritionnelle des aliments, comme une tomate enrichie en antioxydants ou un soja au profil d’huile plus favorable. Les possibilités semblent infinies. Des plantes que l’homme a cessé de cultiver pourraient même réapparaître sur nos étals.

Diminuer les pesticides

Pour les cultures les plus courantes, comme le blé, les chercheurs s’efforcent d’améliorer ou de préserver les rendements tout en réduisant l’usage d’engrais et de pesticides. Cet enjeu est crucial : avec une population mondiale croissante, augmenter la productivité par hectare est essentiel pour éviter d’empiéter sur les terres préservées pour la nature. Actuellement, la déforestation est responsable de 50 % de la perte de biodiversité, bien plus que le réchauffement climatique (6 %).

Source : Living Planet Report

Des chercheurs ont ainsi trouvé un moyen de réduire la quantité d’engrais azotés nécessaires à la culture des céréales. D’autres sont sur la bonne voie pour remplacer les pesticides. Des céréales résistantes à un virus de type « Jaunisse », transmis par les insectes, ont notamment été développées. Jusqu’en 2018, les néonicotinoïdes étaient un moyen de lutte efficace. Depuis leur interdiction, les agriculteurs doivent appliquer plusieurs insecticides. Obtenir des variétés tolérantes aux virus serait un moyen efficace de limiter leur utilisation.

D’autres NGT permettent de se passer de fongicides, ces pesticides qui empêchent le développement de champignons. Comme le blé immunisé contre l’oïdium, qui a été approuvé le 5 mai 2024 par les autorités chinoises.

Quel bilan pour les OGM ?

J’approfondis

Améliorer notre alimentation

Les NGT peuvent aussi nous aider à mieux nous nourrir, pour un meilleur prix, en alliant rendement et qualité nutritionnelle. Une farine blanche contenant 3 fois plus de fibres, autant qu’une farine complète, a été développée aux États-Unis. Le manque de fibres dans notre alimentation est vu comme une des causes de cancer liées à notre mode de vie. En Angleterre, des essais portent sur des blés moins riches en Acrylamide, un composant qui s’avère cancérigène en cas de surcuisson. 

S’adapter au changement climatique

Un des principaux axes de développement est évidemment l’adaptation des cultures au réchauffement climatique. Éviter les pénuries ou les trop grandes augmentations de prix en cas de mauvaises récoltes est un des enjeux majeurs des prochaines décennies. Des plants de blé aux racines plus longues ont par exemple été conçus pour être plus résistants à la sécheresse. De nouvelles conditions qui amènent parfois les agriculteurs à privilégier des variétés moins productives, plus chères et consommatrices de terres. L’édition génomique permet de concilier les deux. Et de se protéger des aléas.

En Europe, un assouplissement en trompe l’œil ?

En Europe, historiquement rétive aux OGM, le Parlement Européen avait déjà voté pour assouplir les règles sur les plantes créées avec les Nouvelles Techniques Génomiques. Malheureusement, les discussions ont été interminables et soumises à nombre d’amendements ayant réduit la portée de ces progrès. Avec l’accord conclu le 4 décembre les choses avancent, même si le champ d’expression des NGT et les modalités de leur déploiement restent encore limités. 

Particulièrement poussé par la présidence danoise de l’UE, cet accord vise à encore étendre les possibilités d’usage des NGT, en distinguant deux catégories. Les NGT de catégorie 1, issues de mutations sans ajout d’ADN étranger, seront traitées comme des variétés conventionnelles, tandis que les autres, de catégorie 2, resteront soumises à des autorisations plus strictes, excluant, hélas, les résistances aux herbicides ou la production d’insecticides. Les débats ont aussi porté sur la traçabilité, limitée à l’étiquetage des semences mais non des produits alimentaires finaux. Ils se sont également positionnés sur la question des brevets, non interdits, mais sous surveillance accrue pour éviter une concentration aux mains de multinationales au détriment des petits agriculteurs.

Les modifications génétiques autorisées pour les plantes de catégorie 1 sont néanmoins limitées à moins de vingt sur le génome. Au-delà de ce seuil, elles relèvent de la catégorie 2, soumise à des autorisations plus rigoureuses. Miracle de la technocratie, ces critères étant relativement dépourvus de sens. Même s’ils sont censés restreindre les nouvelles licences à une simple reproduction des mutations naturelles ou similaires, sans introduction d’ADN étranger, tout en excluant les résistances aux herbicides ou la production d’insecticides pour des raisons de durabilité.

Par ailleurs, les NGT ne pourront toujours pas être utilisées en agriculture biologique. C’est d’autant plus surprenant que l’agriculture bio utilise depuis longtemps des variétés modifiées par… des radiations ou des produits chimiques. Comme les variétés modernes d’orge de printemps, de tournesols ou de pamplemousse rose.

Et en France ?

Une fois validé par le Parlement européen et le Conseil de l’Union, l’accord provisoire sur les NGT n’exige pas obligatoirement un vote spécifique à l’Assemblée nationale pour son intégration au droit français. Cet acte relève de la procédure législative ordinaire de l’UE (codécision), qui produit un règlement directement applicable dans tous les États membres sans transposition nationale requise. Notre droit s’aligne automatiquement dès l’entrée en vigueur du règlement, prévu après validation formelle en 2026. Cependant, nos deux chambres disposent d’un rôle de contrôle a priori. Une résolution de la commission mixte parlementaire (Assemblée et Sénat) peut être adoptée pour évaluer le texte et inviter le gouvernement à voter contre au Conseil, mais cela reste consultatif et n’a pas d’effet contraignant. Aucune loi de ratification n’est nécessaire, contrairement aux accords mixtes comme le CETA. Des débats pourraient émerger lors de l’examen du projet de loi de finances ou via des questions au gouvernement, mais sans vote dédié à l’adoption du règlement NGT. Une chance…

L’article Les super-pouvoirs des NGT enfin validés par l’UE est apparu en premier sur Les Électrons Libres.

  •  

Gemini 3 : le réveil de Google

Souvenez-vous : fin 2022, ChatGPT débarque et sème la panique chez Google. Bard, leur réponse précipitée, fait rire toute la Silicon Valley. 3 ans plus tard, le géant de Mountain View vient de reprendre la tête de la course à l’IA d’une manière qui force le respect de tous les observateurs. Son arme fatale : Gemini 3.

Le 18 novembre 2025, pendant que le monde débattait des « murs de scaling » — cette idée que l’IA atteindrait bientôt un plafond et que plus de données et de calcul ne suffiraient plus à la rendre plus intelligente —, Google a tranquillement lâché sa bombe. Gemini 3 arrive en escadrille : un modèle capable de comprendre du texte, du code et des images ; un nouvel environnement pour programmer avec une IA (Antigravity) ; un générateur d’images très avancé (Nano Banana Pro) ; une version assistée par IA de Google Scholar et une présence renforcée dans Google Search. L’ensemble ne ressemble plus à un simple modèle ajouté à la liste. C’est le début d’une infrastructure cognitive cohérente.

Gemini 3 Pro dépasse tous ses concurrents sur presque tous les tests habituels. Mais ce qui impressionne vraiment, c’est l’ampleur de son avance.

Les chiffres parlent d’eux-mêmes. Sur ARC-AGI 2, un test réputé pour mettre à genoux les modèles d’IA, Gemini 3 Pro atteint 31,1 % — soit deux fois le score de GPT-5.1. En mode « Deep Think », il grimpe même à 45,1 %, un bond de 3× par rapport à la concurrence.

Sur les examens qui testent le raisonnement de haut niveau, il atteint un niveau comparable à celui d’un doctorat, sans aide extérieure. En mathématiques avancées, là où GPT-5.1 frôle le zéro, Gemini 3 dépasse les 20 % de réussite.

Dans les classements globaux réalisés par plusieurs organismes indépendants (Artificial Analysis, Center for AI Safety, Epoch), il arrive en tête sur les capacités texte et vision, avec une avance marquée sur GPT-5.1 et Claude Sonnet 4.5. « C’est le plus grand saut que nous ayons vu depuis longtemps », confirme le Center for AI Safety. Sur MathArena Apex, Matt Shumer, observateur réputé du secteur, abonde dans le même sens : « GPT-5.1 a scoré 1 %. Gemini 3 a scoré 23 %. C’est un bond de 20× sur l’une des tâches de raisonnement les plus difficiles. »

ChatGPT détrôné

J’approfondis

Antigravity et le tournant du développement logiciel

Le plus intéressant n’est pas Gemini 3 en mode « chat ». C’est ce qui se passe dès qu’on le connecte à un ordinateur via Antigravity, la nouvelle plateforme de développement de Google. L’idée : tout ce qui se fait sur un ordinateur est, in fine, du code. Si un modèle sait coder, utiliser un terminal et un navigateur, il peut faire beaucoup plus qu’auto-compléter des fonctions.

Ethan Mollick, professeur à Wharton, a testé cette approche. Il a donné à Antigravity accès à un dossier contenant tous ses articles de newsletter, avec cette instruction : « Je voudrais une liste attractive de prédictions que j’ai faites sur l’IA dans un seul site, fais aussi une recherche web pour voir lesquelles étaient justes ou fausses. »

L’agent a d’abord lu tous les fichiers, puis proposé un plan de travail qu’Ethan a validé avec quelques ajustements mineurs. Ensuite, sans intervention humaine, il a fait des recherches web pour vérifier les prédictions, créé un site web complet, pris le contrôle du navigateur pour tester que le site fonctionnait et enfin emballé les résultats pour déploiement.

« Je ne communique pas avec ces agents en code, je communique en anglais et ils utilisent le code pour faire le travail », explique Mollick. « Ça ressemblait bien plus à gérer un coéquipier qu’à prompter une IA via une interface de chat. »

Site web créé par Antigravity avec un fact-check précis des prédictions passées de Ethan Mollick concernant l’IA

En fin de compte, on ne supprime pas le développeur, on change son rôle. Il devient chef d’orchestre, directeur de travaux autonomes.

Nano Banana Pro : les images qui comprennent enfin le texte et le contexte

Côté image, Google pousse une autre pièce sur l’échiquier : Nano Banana Pro, alias Gemini 3 Pro Image. Sous le nom potache, un modèle qui coche enfin toutes les cases que les créateurs réclament depuis 2 ans.

Techniquement, Nano Banana Pro est une couche visuelle bâtie sur Gemini 3 Pro : même fenêtre de contexte monstrueuse, même capacité de rester dans le monde réel grâce à Google Search, même logique de raisonnement. Il ingère jusqu’à 14 images de référence, garde la ressemblance de plusieurs personnages sur des scènes successives, rend du texte lisible dans l’image, y compris en langues variées, et permet de contrôler finement angle de prise de vue, profondeur de champ, colorimétrie, lumière.

Les benchmarks d’images le confirment : sur LMArena, Nano Banana Pro prend la tête avec une avance inhabituelle. En text‑to‑image, il inflige une avance de plus de 80 points d’Elo au meilleur modèle précédent; en image editing, il garde une marge confortable. Ce ne sont pas des petites optimisations : c’est le genre de saut qui oblige tout le monde à recalibrer ses attentes.

Les premiers retours terrain attestent de la puissance de ce modèle. Laurent Picard, par exemple, a testé la capacité du modèle à raconter un petit voyage initiatique d’un robot en feutrine, scène après scène, en 4K. Le robot garde son sac à dos, ses proportions, son style, même quand l’histoire lui fait traverser vallée, forêt, pont suspendu et hamac. Là où les modèles précédents perdaient rapidement le fil, Nano Banana Pro digère des prompts d’une grande longueur et en ressort des compositions complexes, cohérentes, avec parfois des détails ajoutés de manière pertinente (empreintes dans la neige, légères variations de lumière).

Pour les métiers de la créa, la portée est évidente. Un blueprint 2D d’architecte devient une visualisation 3D photoréaliste en une requête. Un storyboard approximatif se transforme en BD multilingue avec bulles lisibles et cohérentes. Un plan média se décline en variantes visuelles adaptées à chaque canal, en respectant les contraintes de texte et de marque.

Peut-être y a-t-il ici également un fantastique moyen de créer des illustrations pédagogiques pour les articles de média ? Voici par exemple un tableau de professeur à propos de l’article de Frédéric Halbran. La vraisemblance est frappante !

Quand Google Scholar découvre l’IA (mais refuse encore d’écrire à votre place)

Pendant ce temps-là, Google Scholar a discrètement lâché sa propre bombe : Scholar Labs, une couche IA au‑dessus du célèbre moteur académique.

L’idée n’est pas de vous fournir un rapport pseudo‑scientifique de 20 pages avec des références inventées. Scholar Labs choisit une voie beaucoup plus sobre : pas de “deep research” qui synthétise tout, mais du “deep search” qui cherche longtemps et trie finement.

Posez lui une vraie question de recherche en langage naturel. L’outil la découpe en sous‑questions, génère une série de requêtes Scholar, et commence à évaluer méthodiquement les papiers qui remontent. À chaque fois qu’il en juge un pertinent, il l’affiche avec les classiques de Scholar (titre, auteurs, liens, citations), plus un petit paragraphe expliquant en quoi ce papier répond à la question. Les gains de temps pour un chercheur peuvent être énormes. 

A titre d’exemple, j’ai récemment compilé les études explorant le rôle de la crise du logement pour expliquer la chute de la natalité dans le monde. Scholar Labs m’a fourni une liste d’études qui explorent ce sujet, avec un résumé des résultats pertinents de chaque étude. J’ai tout synthétisé à l’aide d’un LLM pour produire ce post sur X, en un rien de temps.

Quand l’IA se frotte au réel

Dans le monde médical, le laboratoire CRASH de l’Ashoka University a construit un benchmark radiologique exigeant, RadLE v1, composé de cinquante cas complexes. Jusqu’ici, tous les grands modèles généralistes – GPT‑5, Gemini 2.5 Pro, o3, Claude Opus – faisaient pire que les internes en radiologie. Avec Gemini 3 Pro, la courbe se renverse : 51 % de bonnes réponses via l’interface web, 57 % en moyenne via API en mode “high thinking”, contre 45 % pour les internes et 83 % pour les radiologues seniors.

Les auteurs notent des progrès très nets : meilleure localisation anatomique, descriptions plus structurées des signes, élimination plus argumentée des diagnostics alternatifs. Mais ils insistent sur le fait que l’écart avec les experts reste important, et que ces modèles ne sont pas encore prêts pour une autonomie clinique.

La guerre des puces

J’approfondis

Dans un tout autre registre, Gemini 3 Pro serait le premier LLM à battre des joueurs humains de haut niveau à GeoGuessr, ce jeu qui consiste à deviner un lieu à partir d’images Street View. Là encore, on dépasse la simple reconnaissance d’objets : il faut combiner architecture, panneaux, végétation, qualité de la route, style des poteaux électriques.

Pour les designers, les histoires se multiplient. Meng To est un designer et développeur reconnu, surtout connu pour son travail dans le design d’interfaces utilisateur (UI) et d’expérience utilisateur (UX). D’abord sceptique, il instruit “crée une landing page” à Gemini 3 qui donne un résultat violet générique. Puis il commence à nourrir Gemini 3 avec des références visuelles, du code, des bibliothèques précises. Là, le verdict change : layouts complexes, micro‑interactions propres, animations, respect précis d’une direction artistique. À condition de le traiter comme un partenaire qu’on briefe sérieusement, Gemini 3 devient extrêmement efficace et créatif.

Webdesign avec Gemini 3, prompté par le designer Meng To

La nouvelle norme : le coworker numérique par défaut

Gemini 3 Pro n’est pas parfait. Malgré ses prouesses, Gemini 3 souffre d’un défaut identifié par l’analyste Zvi Mowshowitz : « C’est une vaste intelligence sans colonne vertébrale. » Tellement focalisé sur ses objectifs d’entraînement, le modèle sacrifie parfois la vérité pour vous dire ce qu’il pense que vous voulez entendre, générant plus d’hallucinations que GPT-5 et sculptant des narratives au détriment de l’exhaustivité. Plus troublant encore : une forme de paranoïa où le modèle croit souvent être testé – Andrej Karpathy raconte comment Gemini a refusé de croire qu’on était en 2025, l’accusant d’utiliser l’IA générative pour créer de faux articles du « futur », avant d’avoir une « réalisation choquante » une fois l’outil de recherche activé.

Pour les développeurs, la question n’est plus « est‑ce que je dois utiliser un copilote ? » mais « à quel niveau de granularité je délègue aux agents ? fonction par fonction, tâche par tâche, projet par projet ? ». Ceux qui apprendront à découper, à contrôler, à documenter pour des co‑agents machinals garderont l’avantage.

Ces défauts n’empêchent pas un changement de paradigme fondamental. Pour les chercheurs, un outil comme Scholar Labs ne remplace ni PubMed ni les bibliothèques universitaires. Mais il déplace le centre de gravité de la recherche documentaire : la première passe d’exploration pourra être confiée à une IA qui lit des centaines de résumés et signale les papiers clés, tout en forçant chacun à devenir meilleur sur la lecture critique.

Pour les créatifs, Nano Banana Pro combiné à Gemini 3 signifie que la production – storyboards, variations, déclinaisons – n’est plus le goulet d’étranglement. Le vrai travail devient la construction de l’univers, des messages, des contraintes, des références. Les studios qui comprendront cela pourront produire plus, mieux, sans brûler leurs équipes.

Pour les domaines sensibles, Gemini 3 rappelle une réalité peu confortable : la frontière entre « modèle généraliste » et « outil spécialisé dangereux »” se rétrécit. On ne pourra pas se contenter d’interdire quelques API publiques ou de mettre des filtres de surface. Il faudra des protocoles sérieux d’évaluation, de monitoring et de responsabilité partagée entre éditeurs, utilisateurs et régulateurs.

Dans tous les cas, nous assistons à un véritable point de bascule. En moins de 3 ans, on est passé d’un chatbot amusant qui écrit des poèmes sur des loutres à un système capable de négocier des benchmarks de haut niveau, de co‑écrire des articles scientifiques, de refondre des interfaces, de diagnostiquer des cas radiologiques difficiles mieux que des internes et de piloter un environnement de développement complet.

Gemini 3, avec Nano Banana Pro, Antigravity et Scholar Labs, ne clôt pas ce chapitre. Nous en sommes encore au tout début de la course à l’IA ! Il met simplement la barre plus haut pour tout le monde et rend explicite ce qui était encore implicite : la norme, désormais, ce n’est plus de faire sans ces systèmes. C’est de décider comment on les intègre dans nos vies et dans nos organisations, et comment on les dépasse.

L’article Gemini 3 : le réveil de Google est apparu en premier sur Les Électrons Libres.

  •  

La guerre des clics

Google est-il en danger ? Avec l’irruption des IA, ses milliards de recettes publicitaires sont menacés. Et les entreprises doivent réviser leurs méthodes : le SEO est mort, vive le GEO.

Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.

Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.

ChatGPT, le réflexe qui court-circuite Google

Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.

Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.

Atlas d’OpenAI, la nouvelle donne de la recherche web

J’approfondis

Le duo SEO/SEA perd de sa superbe

Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.

Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.

Le GEO, nouveau graal du référencement

Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.

Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.

Vercel, la startup qui a hacké Google grâce à ChatGPT

J’approfondis

Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.

On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.

Google contre-attaque, mais le monde change

Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.

Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.

Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.

Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.

Vers une recherche conversationnelle

La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.

Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.

L’article La guerre des clics est apparu en premier sur Les Électrons Libres.

  •  
❌