Mozilla évoque une « fenêtre IA » pour Firefox et reçoit une volée de bois vert - Next
(Permalink)
Imaginez un simple prélèvement sanguin capable de repérer plus de 50 cancers avant même les premiers symptômes. Pour des millions de personnes, cela signifie passer d’une attente anxieuse à une prise en charge ultra-précoce, quand les chances de guérison sont les plus élevées.
C’est la promesse du test Galleri, développé par la biotech américaine GRAIL. Les résultats de l’étude PATHFINDER 2, présentés en octobre 2025, sont éloquents. Chez 35 000 adultes de 50 ans et plus, ajouter Galleri aux dépistages classiques a permis de détecter sept fois plus de cancers en un an. Sur 100 personnes testées positives, plus de 60 ont bien un cancer confirmé. Et la moitié de ces tumeurs étaient au stade précoce (I ou II), où les traitements sont souvent curatifs. Galleri cible surtout les cancers « silencieux » – pancréas, foie, ovaires – pour lesquels aucun dépistage n’existe aujourd’hui. Un signal positif entraîne des examens complémentaires, malgré un risque de faux négatifs de 26,3 %. Pas encore remboursé ni approuvé par la Food and Drug Administration (FDA) américaine, le test coûte environ 950 dollars. Mais les données accumulées ouvrent la voie à une nouvelle ère, où un cancer deviendra une simple alerte que l’on peut traiter à temps.
Et si l’intelligence artificielle nous aidait à sauver les forêts, à repérer les espèces menacées et à entendre les cris d’alarme de la biodiversité ? Pour les habitants de régions vulnérables comme l’Amazonie ou les récifs coralliens, ces applications pourraient transformer la surveillance en action concrète, prévenant la déforestation avant qu’elle ne frappe et protégeant des animaux invisibles à l’œil nu. C’est la révolution que propose Google DeepMind avec son trio d’outils IA tout juste dévoilé.
D’abord, un modèle innovant pour prédire le risque de déforestation. Basé sur des images satellites, il permet d’anticiper les zones à haut risque avec une précision de 30 mètres. Il couvre de vastes régions en temps réel, aidant les décideurs à cibler les efforts de protection et à freiner la déforestation. Vient ensuite un projet ambitieux de cartographie des aires de répartition des espèces. En fusionnant des milliards d’images satellites, radar et laser, cette nouveauté, baptisée Alpha Earth Foundations, génère des cartes ultra-détaillées de la planète. Elle excelle pour suivre l’expansion urbaine, la santé des cultures ou les ressources en eau.
Enfin, Perch 2.0, le champion de la bioacoustique. Ce modèle analyse les sons de la nature pour identifier près de 15 000 espèces – oiseaux, amphibiens, mammifères, insectes –, y compris sous l’eau comme sur les récifs coralliens. Formé sur des milliers d’heures d’enregistrements, il détecte les vocalisations rares, accélère les classements d’espèces et s’adapte à de nouveaux environnements. Les écologues y voient un allié pour monitorer les populations en danger sans perturber les habitats. Ces avancées, open source pour l’essentiel, marquent un pas géant vers une écologie boostée par l’IA.
Effectuer le trajet entre Hambourg et Copenhague en seulement 2h30, en filant sous la mer Baltique, au lieu de 5 heures avec le ferry ? Ce sera bientôt possible !
C’est la promesse offerte par le tunnel de Fehmarn Belt, en pleine construction. Long de 18 kilomètres, il sera le plus long édifice routier et ferroviaire souterrain immergé au monde, reliant l’île danoise de Lolland à celle de Fehmarn, en Allemagne. Composé de 79 éléments en béton préfabriqués de 73 000 tonnes chacun, plus 10 éléments spéciaux, il comprendra deux tubes routiers à quatre voies, deux tubes ferroviaires pour des trains à 200 km/h et un tube de service d’urgence. Creusé dans une tranchée sous-marine à 40 mètres de profondeur, il traversera le détroit de Fehmarn Belt sans perturber la navigation en surface. En février 2025, les deux premiers éléments ont été transférés dans les bassins de Rødbyhavn, au Danemark, en attendant leur immersion prévue cet automne. Côté allemand, les approbations pour les connexions ferroviaires ont été accordées en juillet, mais des délais supplémentaires pourraient repousser l’ouverture au-delà de 2029. Coût total : 7,1 milliards d’euros, financés par le Danemark, l’Allemagne et l’UE via le programme CEF. Ce projet renforcera les échanges économiques et touristiques, avec un impact estimé à 4,6 milliards d’euros annuels pour la région.
Diagnostiquée à 3 mois seulement, en 2014, Eliana a été forcée de vivre dans un total isolement médicalisé. Confinée pour éviter les infections mortelles, elle ne pouvait ni aller à l’école ni jouer avec des camarades de son âge. « C’était comme vivre dans une bulle », raconte sa famille. Car les enfants atteints d’ADA-SCID naissent sans système immunitaire fonctionnel. Le moindre rhume peut leur être fatal. Mais une nouvelle thérapie génique expérimentale, appelée OTL-101 et développée à l’UCLA, offre un espoir formidable. Le traitement a déjà changé la vie de 59 d’entre eux, dont Eliana.
Ses cellules souches ont été corrigées pour produire l’enzyme manquante. Aujourd’hui, à 11 ans, elle est en parfaite santé. Elle court, rit et fréquente l’école sans crainte. Elle fait partie des cinq enfants suivis depuis plus de dix ans, tous guéris sans complications. « C’est un miracle stable », souligne le Dr Donald Kohn, qui a mené l’étude.
Dans un ciel encombré de près de 40 000 débris et satellites actifs, la sécurité orbitale devient cruciale. Une collision peut priver des millions de GPS de communications ou de données météorologiques. La start-up française Look Up Space répond à cette problématique avec SORASYS 1, un radar de nouvelle génération installé à 1 200 mètres d’altitude en Lozère, opérationnel fin 2025. Capable de détecter des objets de 10 cm jusqu’à 2 000 km d’altitude, ce système utilise des antennes actives numériques et des ondes submétriques pour un suivi précis, en temps réel, quelles que soient les conditions météo ou lumineuses.
Fondée en 2022 par le général Michel Friedling et Juan Carlos Dolado Perez, Look Up Space a levé 50 millions d’euros en 2025. Prochaines étapes : deux radars SORASYS 2A et 2B en Polynésie française, puis un réseau de 7 stations interconnectées d’ici 2030. Objectif : une souveraineté européenne en surveillance spatiale, pour contrer la dépendance au matériel américain.
L’article Électroscope #3 : le plus long tunnel sous-marin, une révolution dans la détection du cancer et l’IA au chevet de la planète est apparu en premier sur Les Électrons Libres.
See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.
#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure}()
#2 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#3 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure}()
#4 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#5 middlewares/CacheMiddleware.php(44): RssBridge->{closure}()
#6 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#7 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure}()
#8 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#9 middlewares/SecurityMiddleware.php(19): RssBridge->{closure}()
#10 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#11 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(164): BlueskyBridge->getAuthorFeed()
#18 bridges/BlueskyBridge.php(633): getContents()
#19 lib/contents.php(104): CurlHttpClient->request()
#20 lib/http.php(185)
mruac
Le Diagnostic de performance énergétique (DPE) en est un cas d’école. Pensé pour inciter à la rénovation et rendre nos logements moins énergivores, il a, malgré ses imperfections, été transformé par la loi Climat et Résilience de 2021 en véritable couperet. Tous les logements classés F et G, synonymes de « passoires thermiques », indépendamment des consommations réelles, se sont ainsi retrouvés progressivement interdits à la location. Conséquence : l’offre locative se raréfie, les loyers s’envolent et les plus modestes, ceux que cette mesure devait protéger, se retrouvent les plus pénalisés.
Ce genre de fiasco n’est pas un accident isolé mais le résultat d’un problème structurel. Des décisions sont prises, et des lois votées, sur des bases fragiles, sans véritable évaluation préalable ni possibilité de retour en arrière.
Au démarrage est le chiffre, souvent choc.
Ainsi, celui des 48 000 morts annuels dus à la pollution atmosphérique, justifiant l’impérieuse nécessité de généraliser les zones à faibles émissions (ZFE). Il a été répété sur tous les plateaux télé, qualifié d’« hécatombe » par le président de la République lui-même, repris dans l’exposé des motifs de la loi et martelé par la ministre Barbara Pompili à l’ouverture des débats au Parlement. Un chiffre à la fois gonflé et trompeur, destiné à faire primer l’émotion sur la raison. Et parmi ces émotions, la plus puissante, la peur.
Le principe de précaution, inscrit dans la Constitution en 2005, illustre cette dérive. Pensé pour obliger à prendre des mesures de prévention des risques de « dommages graves et irréversibles », il s’est peu à peu transformé en culture du statu quo. L’aversion au risque a fini par remplacer son évaluation. L’interdiction est devenue la solution de facilité.
Une fois le train législatif parti sur de mauvais rails, il devient difficilement arrêtable. L’étape suivante, l’étude d’impact, pourtant cruciale, se révèle trop souvent une simple formalité.
Depuis la révision constitutionnelle de 2008 et l’article 8 de la loi organique de 2009, les projets de loi d’origine gouvernementale doivent être obligatoirement accompagnés de cette étude d’impact. Sur le papier, l’exigence est claire. En pratique, l’exercice tourne souvent à l’exposé de motifs à rallonge : peu de données fiables ni d’identification claire des risques, et pas d’analyse de scénarios alternatifs.
La loi Climat et Résilience en offre un exemple parfait. Outre le DPE et les ZFE, elle contient d’autres mesures structurantes dont le zéro artificialisation nette. Son étude d’impact a été qualifiée de « superficielle » par le Conseil d’État, qui relevait « des insuffisances notables » dans plusieurs volets du texte.
Sur les ZFE, le document s’attarde sur des détails — jusqu’à chiffrer à 890 000 euros le coût de la rénovation du Panthéon « imputable à la pollution de l’air » — mais passe sous silence les risques sociaux : ségrégation territoriale, sentiment d’exclusion.
L’article Le mal français est apparu en premier sur Les Électrons Libres.
Techniques Spatiales @techspatiales.bsky.social posted:
Oui, c'est gigantesque.
Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.
Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.
Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.
Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.
Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.
Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.
Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.
Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.
Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.
On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.
Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.
Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.
Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.
Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.
La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.
Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.
L’article La guerre des clics est apparu en premier sur Les Électrons Libres.