Vue lecture

Glyphosate, le retour

Chaque semaine, un nouveau signal d’alarme sanitaire vient semer l’effroi sur nos fils d’actualité : aspartame, cadmium, pesticides… C’est le festival de « Tu cannes ! ». Mais la star des produits faisant vendre du papier est le glyphosate. Le voilà de retour dans l’actualité avec la parution de ce qui est présenté par nos confrères, allant du Monde, en passant par Le Quotidien du Médecin ou Mediapart, comme « la plus vaste étude jamais menée » sur le sujet. Verdict : il augmenterait le risque de cancer. Frissons garantis.

Mais avant de réclamer son interdiction immédiate, une analyse de l’étude s’impose. Spoiler alerte, ça ne va pas faire plaisir à tous ceux qui sont atteints de glyphosatophobie chronique…

Mode d’action et usage

Découvert dans les années 1970, le glyphosate est un herbicide non sélectif : il bloque la synthèse de certains acides aminés chez les plantes. Il est utilisé seul ou dans des formulations commerciales, comme Roundup Bioflow (en Europe) ou RangerPro (aux États-Unis), enrichies en surfactants (substances qui réduisent la tension de surface d’un liquide facilitant leur mélange avec d’autres). Son usage massif et mondial en fait un candidat régulier aux polémiques sanitaires.

Flashback : l’étude Séralini, dix ans plus tôt

En 2012, le biologiste Gilles-Éric Séralini affirme avoir observé une hausse de tumeurs mammaires chez des rats exposés au Roundup. L’étude est vite contestée : seulement dix rats par groupe, analyses statistiques faibles, et surtout, rats Sprague-Dawley, connus pour développer spontanément des tumeurs au cours de leur vie. L’article est rétracté un an plus tard. Pourtant, la nouvelle étude reprend… le même modèle animal.

Que montre l’étude Ramazzini ?

Menée par un laboratoire italien engagé de longue date contre divers produits chimiques, l’étude suit 1 020 rats Sprague-Dawley (51 mâles et 51 femelles par groupe), exposés dès la gestation à trois doses de glyphosate : 0,5 mg/kg/j (la DJA européenne, bien au-dessus de l’exposition humaine réelle), 5 mg/kg/j et 50 mg/kg/j. Le glyphosate est administré pur ou sous forme de Roundup Bioflow ou RangerPro. Les auteurs annoncent une augmentation « significative » de tumeurs bénignes et malignes à toutes les doses : leucémies, hémangiosarcomes, cancers du foie, de la thyroïde, du système nerveux…

Des résultats inquiétants, mais fragiles

Le problème ? Il est multiple. Les rats utilisés développent déjà spontanément des tumeurs avec l’âge. Sans corrections statistiques pour les dizaines de comparaisons réalisées, le risque de faux positifs est considérable. Certaines données sont incohérentes : à la dose la plus faible de Roundup Bioflow, aucun lymphome détecté, contre 10 % dans le groupe témoin. Comment un cancérogène pourrait-il « effacer » une tumeur ? Silence radio dans l’étude. On observe aussi des courbes en U (plus de tumeurs à faibles doses qu’à fortes), et surtout, de nombreux résultats reposent sur un ou deux cas par groupe. C’est trop peu. Un calcul simple montre qu’il faudrait presque le double de rats pour détecter de façon fiable un risque multiplié par dix sur une tumeur rare. Enfin, et c’est crucial : le glyphosate est administré ici en continu dans l’eau de boisson. Rien à voir avec l’exposition humaine, qui se fait par l’alimentation, à petites doses, par pics, et à des niveaux des milliers de fois inférieurs. En population générale, le glyphosate urinaire tourne autour de 1 à 5 µg/L. Seuls certains applicateurs agricoles atteignent des niveaux plus élevés, et chez eux, un léger sur-risque de lymphome non hodgkinien est débattu depuis vingt ans – un signal absent de l’étude Ramazzini.

Une couverture médiatique biaisée

La plupart des articles reprennent les conclusions sans mise en contexte. Pas un mot sur les limites du modèle animal, les erreurs statistiques, l’inadéquation des doses testées. On empile les tumeurs comme on aligne les arguments d’un procès. On oublie aussi de préciser que les rats exposés ont vécu aussi longtemps que les témoins : aucune surmortalité observée. Présenter ces résultats comme une preuve implacable, c’est confondre signal expérimental et démonstration scientifique.

Alerter, oui. Interdire dans la précipitation, non.

Oui, cette étude mérite d’être discutée. Mais elle ne prouve pas un danger immédiat pour l’humain. Elle appelle à des reproductions indépendantes, sur d’autres souches animales, avec des protocoles plus robustes et des données publiques. Interdire le glyphosate sans alternative viable reviendrait à rouvrir la porte au labour intensif, à l’érosion des sols, à plus de CO₂, et parfois à des herbicides plus toxiques. La vraie voie, c’est une transition agronomique intelligente : rotations, couverts végétaux, désherbage mécanique, robotique.

Science vs storytelling

L’étude Ramazzini ne change pas fondamentalement l’état des connaissances. Elle relance un débat déjà ancien, sans le faire progresser de façon décisive. La presse, elle, joue souvent le rôle de caisse de résonance plutôt que celui de filtre critique. La science avance par contradiction et rigueur. Pas par proclamation.

Aucun lien d’intérêt à déclarer en rapport avec l’article

L’article Glyphosate, le retour est apparu en premier sur Les Électrons Libres.

  •  

Bridge returned error 0! (20255)

See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.

Details

Type: HttpException
Code: 0
Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/com.atproto.identity.resolveHandle?handle=tristankamin.bsky.social
File: lib/http.php
Line: 184

Trace

#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure}()
#2 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#3 middlewares/CacheMiddleware.php(44): RssBridge->{closure}()
#4 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#5 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure}()
#6 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#7 middlewares/SecurityMiddleware.php(19): RssBridge->{closure}()
#8 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#9 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure}()
#10 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#11 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(152): BlueskyBridge->resolveHandle()
#18 bridges/BlueskyBridge.php(595): getContents()
#19 lib/contents.php(79): CurlHttpClient->request()
#20 lib/http.php(184)

Context

Query: action=display&bridge=BlueskyBridge&data_source=getAuthorFeed&user_id=tristankamin.bsky.social&feed_filter=posts_and_author_threads&include_reposts=on&format=Atom
Version: 2025-06-03 (git.master.354cea0)
OS: Linux
PHP: 8.2.28

Go back

mruac

  •  

Bridge returned error 0! (20254)

See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.

Details

Type: HttpException
Code: 0
Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/com.atproto.identity.resolveHandle?handle=tristankamin.bsky.social
File: lib/http.php
Line: 184

Trace

#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure}()
#2 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#3 middlewares/CacheMiddleware.php(44): RssBridge->{closure}()
#4 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#5 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure}()
#6 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#7 middlewares/SecurityMiddleware.php(19): RssBridge->{closure}()
#8 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#9 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure}()
#10 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#11 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(152): BlueskyBridge->resolveHandle()
#18 bridges/BlueskyBridge.php(595): getContents()
#19 lib/contents.php(79): CurlHttpClient->request()
#20 lib/http.php(184)

Context

Query: action=display&bridge=BlueskyBridge&data_source=getAuthorFeed&user_id=tristankamin.bsky.social&feed_filter=posts_and_author_threads&include_reposts=on&format=Atom
Version: 2025-06-03 (git.master.354cea0)
OS: Linux
PHP: 8.2.28

Go back

mruac

  •  

Matrix.org - Introducing premium accounts to fund the matrix.org homeserver

Pour éviter d'avoir à fermer le serveur principal matrix.org (parce que bien sûr, même si Matrix est décentralisé, tout le monde est sur ce serveur), ils ont besoin de financement. Donc ils vont faire des comptes "premium" payants. Sans ces comptes, les possibilités des comptes réduits seront restreints (fichiers médias plus petits, etc.)

Perso, j'avais déjà laissé tomber Matrix depuis longtemps. Trop de problèmes de synchronisation, de messages indéchiffrables...
(Permalink)
  •  

Sheriff Issues Death Threat to Americans: "We Will Kill You" - Freezenet.ca

La suite d'évènements en train de se dérouler aux USA est hallucinante. Vraiment.

EDIT: Le terrorisme stochastique de Trump fonctionne : Des démocrates se sont fait assassiner.
https://www.franceinfo.fr/monde/usa/aux-etats-unis-une-elue-democrate-du-minnesota-tuee-un-senateur-blesse-annonce-le-gouverneur-de-l-etat-tim-walz-qui-denonce-un-acte-de-violence-politique_7313406.html
( https://fr.wikipedia.org/wiki/Terrorisme_stochastique )

Les assassinats de personnes non-blanches et de LGBT vont arriver. Et de femmes aussi, bien entendu.
(Permalink)
  •  

Dompter le prompt : IA générative mode d’emploi

Oracle infaillible ou délire de démiurge transhumaniste ? Non, l’IA n’est qu’un outil, surpuissant mais imparfait — qu’il faut apprendre à manier pour éviter les désillusions. En commençant par formuler des requêtes claires, structurées et précises. Bref, dompter le prompt.

L’intelligence artificielle (IA) est partout : dans nos téléphones, les moteurs de recommandation, les traitements de texte ou les réseaux sociaux. Mais la révolution récente, celle qui change vraiment la donne, c’est le grand modèle linguistique, ou LLM. Imaginez un cerveau artificiel ayant ingurgité des milliards de pages, capable de générer du texte dans toutes les langues, sur tous les sujets. Il ne comprend pas ce qu’il écrit, mais prédit le mot suivant le plus probable dans une phrase. C’est une machine statistique à écriture automatique. À l’arrivée : un générateur de texte fluide, cohérent, souvent bluffant. Il sait synthétiser, reformuler, traduire, résumer… mais avec une compréhension limitée de ce qu’il produit. Et malgré des progrès constants, sa capacité à vérifier ce qu’il avance reste faible — surtout s’il n’est pas connecté à des sources fiables. C’est puissant. Mais parfois à côté de la plaque.

Le côté obscur : hallucinations et biais 

Le bug le plus fascinant des LLM s’appelle l’hallucination : ce moment où le modèle, avec aplomb, invente une loi, une citation ou une étude. Pourquoi ? Parce qu’il ne comprend rien. Il génère des mots selon des probabilités. Parfait pour une tarte aux pommes, plus périlleux pour un arrêt du Conseil d’État de 1995 sur le lancer de nains en discothèque. Ce qui vaut pour le texte vaut tout autant pour l’image.

Les modèles, sauf s’ils ont été spécifiquement entraînés à résoudre la tâche demandée, génèrent ce qui leur semble statistiquement plausible. Une horloge ? Très probablement 10h10. Même s’ils tentent de vous faire plaisir en glissant discrètement un petit 145 au milieu du cadran. Mais là aussi les progrès sont rapides et les humains à six doigts ont déjà (presque) disparu du paysage.

Les modèles peuvent aussi reproduire des biais. Non par intention, mais parce qu’ils sont abreuvés de textes issus du web — articles, forums, réseaux sociaux — qui, même filtrés, véhiculent stéréotypes et partis pris. À cela s’ajoutent des paramètres de fonctionnement qui influencent leurs réponses : la température, qui module leur créativité (et donc leur propension à halluciner), et le prompt système, rédigé par l’opérateur, qui définit le cadre général de leur comportement.

Exemple : celui de l’IA intégrée à WhatsApp précise que le modèle « n’est pas une personne et n’a pas de valeurs, de race, de culture ni d’opinion politique particulière. Il n’aime personne, ne hait personne, et n’offre aucune perspective qui lui soit propre. » Cadrage qui influe évidemment sur les réponses — surtout sur les sujets sensibles. En mars 2025, le cabinet Trickstr a soumis 14 LLM à plus de 41 000 questions issues de sondages politiques. Résultat : tous penchent à gauche. En France, avec une affinité marquée pour EELV.

Quand l’IA sort de sa bulle : la puissance augmentée

Depuis toujours, l’informatique progresse en corrigeant les effets secondaires de ses propres avancées — et l’IA ne fait pas exception. Les LLM, offrent une vision partielle du monde : une photo du web au moment de leur entraînement, parfois datée de plusieurs mois. La qualité varie selon les langues et les contextes. Une IA anglophone aura du mal à saisir les subtilités de l’arabe ou de l’indonésien. Résultat : des données parfois obsolètes, imprécises voire erronées.

Un LLM seul est une encyclopédie statistique, brillante mais périssable. Connecté à des sources fiables via différentes architectures logicielles (RAG, MCP, API – voir glossaire plus bas), il devient capable de croiser ses connaissances internes avec des données actuelles et vérifiables. Et ça change tout.

Ni secrets de famille, ni secrets d’état

J’approfondis

Entretien avec une IA : la logique du “contexte”

Les solutions d’IA basées sur les LLM ne se souviennent que de ce qui se passe dans la session en cours. Ce fil d’échange — appelé contexte — permet au modèle d’interpréter vos demandes à la lumière des messages précédents. Mais dès que vous ouvrez un nouveau chat, le contexte est réinitialisé : tout repart de zéro.

C’est pourquoi, si vous changez complètement de sujet, mieux vaut démarrer une nouvelle conversation. Cela évite au modèle de se mélanger les pinceaux en tentant de rapprocher des demandes qui n’ont rien à voir. Il est par ailleurs utile de rappeler régulièrement à votre LLM qui vous êtes et d’où vous parlez, ce qui lui permettra souvent d’adapter son niveau de réponse.

Nul n’est censé ignorer le LLM

J’approfondis

L’art de poser la bonne question : le Prompt Engineering

Pour toutes ces raisons, savoir prompter est devenu crucial. Un LLM ne lit pas entre les lignes : il exécute. Le prompt engineering est désormais une compétence à part entière : briefer clairement, formuler une demande structurée, ajuster, relancer. Si vous demandez « Parle-moi du climat », vous aurez une soupe tiède. Mais si vous réclamez « une courte synthèse critique sur les arguments scientifiques en faveur de l’origine anthropique du réchauffement climatique, avec sources », le modèle élève tout de suite son niveau de jeu.

Briefez-le comme un humain compétent : indiquez ce que vous attendez, dans quel style, avec quelles contraintes. « Écris-moi un thread X incisif, en dix tweets max, sur le bilan écologique du dernier quinquennat ». Voilà une commande exécutable. Et surtout, affinez. Testez. Relancez. « Fais plus court. », « Rajoute une vanne. », « Cite une source. » C’est l’itération qui fait la qualité et le sur mesure. N’ayez pas peur d’écrire un prompt long. Le LLM reçoit tout l’historique de la conversation à chaque requête, et les modèles connectés peuvent traiter plusieurs milliers de mots. Un bon prompt n’est jamais trop détaillé — à condition d’éviter les instructions contradictoires. Plus vous êtes clair et précis, mieux il répond.

L’arme fatale : prompt simple et implacable contre les hallucinations, par Benjamin Sire

Enfin, osez. Demandez-lui un manifeste sur le néo-libéralisme mangeur de chatons ou d’écrire une tribune d’Annie Ernaux contre l’abus de tribunes. C’est souvent dans l’absurde que l’IA surprend le plus.

L’âge du prompt

J’approfondis

C’est qui le patron ?

Cinq pièges, à éviter absolument, reviennent souvent. 

  1. Croire que l’IA a toujours raison. 
  2. Poser des questions floues (et comme toujours, si c’est flou, il y a un loup). 
  3. Oublier que le contexte ne suit pas d’une session à l’autre, ou au contraire, rester dans le même fil en changeant complètement de sujet — un bon moyen de se retrouver avec une recette de pizza au beau milieu d’un compte rendu de comité de direction. 
  4. Attendre une vérité unique sur un sujet polémique. La mode de l’appel à Grok dans les commentaires de X en dit long : chacun l’interroge pour confirmer son opinion… puis s’étonne qu’il réponde l’inverse dix minutes plus tard.
  5. Et lui déléguer des responsabilités qu’elle n’aura pas à assumer — décision médicale, arbitrage managérial, choix de vie.

Un LLM peut vous aider à repérer une fracture sur une radio, voire, ça s’est vu, à alerter sur un diagnostic manqué, mais reste un générateur de texte, pas un praticien, ni une autorité décisionnelle.

Malgré leurs limites — sans cesse repoussées — les grands modèles de langage offrent au plus grand nombre un accès à la pensée structurée, à la reformulation, et une aide précieuse à la créativité, sans pré requis (autre que cet article). De formidables alliés — à condition d’être bien maîtrisés. À l’heure de l’emoji et du vocabulaire appauvri, ils marquent le retour en force de l’écrit et de la culture générale : structuré, nuancé, précis. Cheh ! Ils peuvent répondre, dialoguer, accompagner — sans juger, sans interrompre, avec une patience infinie. Leur potentiel est immense : éducation, formation, recherche, analyse documentaire, accès à la culture, aide au diagnostic, développement informatique.

L’AGI, un Sphinx numérique aux défis existentiels

J’approfondis

L’IA peut vous faire gagner du temps. Beaucoup de temps. Vous ouvrir de nouvelles portes. Mais gardez votre cerveau en éveil : à la fin, c’est toujours vous qui décidez.

« AI won’t replace humans — but humans with AI will replace humans without AI. »

Karim R. Lakhani

Note : Cet article est issu d’une collaboration entre l’intelligence artificielle et ses auteurs, pour illustrer et appliquer les principes qu’il expose.

Glossaire

🧠 LLM — Large Language Model

Modèle d’intelligence artificielle entraîné à générer du texte, de l’image, de l’audio, du code, etc. à partir de vastes corpus de données, selon une logique probabiliste. La requête de l’utilisateur au LLM est appelée un prompt.

🔁 RAG — Retrieval-Augmented Generation

Technique consistant à fournir au modèle des extraits de documents externes pertinents avant qu’il ne réponde, pour éviter qu’il hallucine des réponses. Il reformule à partir de ces sources et peut facilement les citer.

📊 MCP — Model Context Protocol

Protocole qui permet à une solution d’IA d’accéder à des données actualisées, notamment locales sur le PC de l’utilisateur final, afin de contextualiser ses réponses en temps réel.

🔌 API — Application Programming Interface

Interface technique permettant à la solution d’IA ou autres logiciels de se connecter à une application tierce, sans passer par l’interface web. Par exemple, une IA pourrait commander des billets d’avion pour vous en utilisant l’API d’une compagnie aérienne ou effectuer une recherche google, pour trouver des informations qu’il lui manque.

🎯 AGI — Artificial General Intelligence

Niveau d’intelligence artificielle capable de raisonner de manière autonome, flexible et transversale, comme un humain (ou mieux)

L’article Dompter le prompt : IA générative mode d’emploi est apparu en premier sur Les Électrons Libres.

  •  

IA : le coup de Mistral

Cocorico ! C’est un véritable coup de Mistral qui vient de souffler sur le secteur de l’IA française. La start-up hexagonale et le géant américain des puces, Nvidia, viennent de sceller un accord record, qui confirme la place de la France parmi les ténors du secteur.

Vive VivaTech !

Il y a parfois des scènes où le réel ressemble à une mise en abyme de notre époque. Ce mardi 11 juin, au salon VivaTech à Paris, Emmanuel Macron, cravate ajustée et œil brillant, annonçait, tout sourire, un accord « historique » entre Mistral AI, pépite française de l’intelligence artificielle, et Nvidia, colosse californien des puces électroniques. Un partenariat « souverain », alors que l’autonomie économique et industrielle du pays, longtemps délaissée, figure désormais parmi les enjeux les plus sensibles de l’époque. Voilà qui méritait bien une ovation… et un enthousiaste cocorico.

L’annonce planait déjà sur VivaTech, après le show, quelques heures plus tôt, de Jensen Huang, le patron de Nvidia, qui organisait son propre évènement au cœur de la fête. L’entrepreneur américano-taïwanais ne s’est d’ailleurs pas contenté de célébrer cette nouvelle alliance avec Mistral. Entre deux blagues bien rodées pour séduire son auditoire, il a longuement exposé ses projets dans l’informatique quantique – en partie encore avec la France – et annoncé la construction en Europe d’un gigantesque cloud IA, à savoir une infrastructure de calcul dédiée à l’IA à très grande échelle. Mais revenons à notre sidérant accord.

Électricité bas-carbone et efficience environnementale

Il porte sur l’installation dans l’Essonne, à une trentaine de kilomètres de Paris, d’un centre de calcul massivement équipé en GPU Nvidia, les fameuses puces Blackwell de dernière génération. À terme, ce data center, en cours de déploiement, pourrait mobiliser jusqu’à 100 mégawatts d’électricité, soit trois fois plus que certains concurrents implantés en Europe, comme ceux de Google. De quoi entraîner de futurs modèles d’IA à des vitesses vertigineuses.

Un pari d’autant plus intéressant en matière de ressources qu’il s’appuie sur l’électricité décarbonée du nucléaire français. Comme nous le rappelle Charles Gorintin, cofondateur de la licorne française Alan et (non opérationnel) de Mistral AI : « Faire de l’IA en France, c’est développer une activité 20 fois moins carbonée qu’elle le serait aux États-Unis ». Par ailleurs, l’essentiel des composants du data center seront refroidis par de l’eau circulant en circuit fermé, évitant le gaspillage et le reste, par air. Ce qui répond en amont aux critiques communément soulevées par les opposants à ce type d’infrastructures.

Avec ce projet, Mistral franchit une étape décisive. Déjà valorisée à environ 6 milliards d’euros, la startup, qui s’apprête à lever un milliard supplémentaire, ne se contente plus de développer des modèles de langage (comme Mistral 7B ou Mixtral) : elle devient fournisseur d’un service complet, baptisé Mistral Compute. Une alternative tricolore aux géants du cloud que sont AWS, Azure ou Google. Rien que ça.

Emplois, rayonnement et… dépendances

Outre les bénéfices en matière de souveraineté technologique, notamment pour la recherche tricolore, l’accord offre de réelles perspectives économiques et en termes d’emploi. Les effectifs de Mistral, actuellement autour de 250 personnes, devraient croître rapidement, tandis que le fonctionnement du data center essonnien pourrait générer la création de plusieurs centaines de postes.

Si côté face, cette annonce rehausse la compétitivité de la France et de l’Europe dans la course à la domination de l’IA, côté pile, elle renforce aussi la position quasi monopolistique des américains de Nvidia dans le secteur. Leurs puces haut de gamme coûtent une fortune, et leur implantation dans l’Hexagone leur permet de grignoter encore davantage le marché et de gagner en respectabilité, tout en s’alignant habilement sur le discours européen de la « souveraineté numérique ». Néanmoins, pour Charles Gorintin : « Certes, Nvidia est évidemment un vainqueur du développement de l’IA en général. Et il serait bon d’avoir des alternatives, pour cultiver notre autonomie stratégique. En attendant, si nous souhaitons être compétitifs sur l’applicatif, nous devons nous doter des meilleures technologies actuelles. » Donc Nvidia…

VSORA : L’étoile montante française des puces IA

J’approfondis

Un monopole qui fait grincer des dents, mais relatif

Ce problème n’est pas propre à la France. Il est mondial. Aujourd’hui, plus de 90 % de l’IA de pointe fonctionne avec du Nvidia. Des puces H100 à la gamme Blackwell, les centres de calcul dépendent tous du même fournisseur. Et pour verrouiller le tout, Nvidia optimise une grande partie de la couche logicielle pour qu’elle fonctionne avec CUDA, une librairie dont elle est propriétaire, enfermant développeurs et chercheurs dans son écosystème. Une situation qui rappelle furieusement celle de Microsoft à la grande époque de Windows.

Pas étonnant, donc, que les autorités de régulation, des deux côtés de l’Atlantique, commencent à froncer les sourcils. Car le contrôle d’un maillon technologique stratégique par un seul acteur soulève un problème démocratique. Peut-on vraiment parler de souveraineté si l’on dépend intégralement d’un acteur privé américain pour accéder à l’infrastructure ? D’autant que les alternatives crédibles sont encore rares. Mais faut-il blâmer ceux qui créent pour absoudre les retardataires ? Faut-il reprocher à Mistral d’appuyer son développement sur la technologie la plus efficiente ? Sans doute pas. Surtout qu’en y regardant de plus près, Nvidia est aussi largement dépendant de l’Europe et notamment de la société néerlandaise ASML (Advanced Semiconductor Materials Lithography) – voir prolongement 1. Celle-ci produit les machines de photolithographie permettant de graver les circuits des puces les plus avancées, donc, celles sans lesquelles Nvidia n’aurait rien à vendre. Europe, États-Unis, un partout, balle au centre.

Lasers néerlandais, puces taïwanaises et ambitions chinoises

J’approfondis

En attendant, réjouissons-nous !

Alors que l’Europe était encore récemment moquée pour sa lenteur à réagir à la révolution de l’intelligence artificielle, cet accord, combiné aux nombreuses retombées du Sommet pour l’action sur l’IA, coorganisé par la France et l’Inde en février dernier, marque une inflexion majeure dans sa stratégie. Une prise de conscience qui débouche sur un véritable changement de paradigme, témoignant de la volonté de ne plus rater le coche du progrès. Et pour Mistral, c’est un levier immense. L’entreprise dispose désormais des moyens d’incarner la colonne vertébrale d’un écosystème IA français et européen à la fois compétitif, visible et ambitieux.

L’article IA : le coup de Mistral est apparu en premier sur Les Électrons Libres.

  •  

Bridge returned error 0! (20253)

See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.

Details

Type: HttpException
Code: 0
Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/com.atproto.identity.resolveHandle?handle=tristankamin.bsky.social
File: lib/http.php
Line: 184

Trace

#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure}()
#2 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#3 middlewares/CacheMiddleware.php(44): RssBridge->{closure}()
#4 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#5 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure}()
#6 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#7 middlewares/SecurityMiddleware.php(19): RssBridge->{closure}()
#8 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#9 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure}()
#10 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#11 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(152): BlueskyBridge->resolveHandle()
#18 bridges/BlueskyBridge.php(595): getContents()
#19 lib/contents.php(79): CurlHttpClient->request()
#20 lib/http.php(184)

Context

Query: action=display&bridge=BlueskyBridge&data_source=getAuthorFeed&user_id=tristankamin.bsky.social&feed_filter=posts_and_author_threads&include_reposts=on&format=Atom
Version: 2025-06-03 (git.master.354cea0)
OS: Linux
PHP: 8.2.28

Go back

mruac

  •  

Les Sénateurs ont refusé hier soir de voter pour la "taxe Zucman", soit taxer de 2% les patrimoines supérieurs à 100 millions d'euros. | Thomas Wagner

« Les Sénateurs ont refusé hier soir de voter pour la "taxe Zucman", soit taxer de 2% les patrimoines supérieurs à 100 millions d'euros.

Ils ont donc défendu les intérêts de 1800 ultra riches plutôt que de financer les services publics, l'école, la transition écologique... Les mêmes qui disent que la France est en faillite, que la dette explose, qu’on ne sait pas où trouver l’argent, alors que cela aurait pu rapporter environ 20 milliards d'euros.

Ils se moquent des 11 millions de Français en précarité énergique qui sautent des repas pour se chauffer l’hiver. Ils se moquent de l’état de nos hôpitaux publics ou de l’école. Ils se foutent royalement des rapports scientifiques qui disent que sans justice sociale la transition écologique est impossible.

C’est acté. Le gouvernement Macron, la droite et l’extrême-droite ne veulent pas taxer les ultra riches. Mais ce n’est que partie remise. On continuera à tout faire pour que tout le monde vive dignement, sans avoir à subir 50 degrés l’été.  »
(Permalink)
  •  

Bridge returned error 0! (20252)

See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.

Details

Type: HttpException
Code: 0
Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/com.atproto.identity.resolveHandle?handle=tristankamin.bsky.social
File: lib/http.php
Line: 184

Trace

#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure}()
#2 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#3 middlewares/CacheMiddleware.php(44): RssBridge->{closure}()
#4 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#5 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure}()
#6 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#7 middlewares/SecurityMiddleware.php(19): RssBridge->{closure}()
#8 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#9 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure}()
#10 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#11 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(152): BlueskyBridge->resolveHandle()
#18 bridges/BlueskyBridge.php(595): getContents()
#19 lib/contents.php(79): CurlHttpClient->request()
#20 lib/http.php(184)

Context

Query: action=display&bridge=BlueskyBridge&data_source=getAuthorFeed&user_id=tristankamin.bsky.social&feed_filter=posts_and_author_threads&include_reposts=on&format=Atom
Version: 2025-06-03 (git.master.354cea0)
OS: Linux
PHP: 8.2.28

Go back

mruac

  •  

Retraites : le piège de la dette

“L’âge de départ doit être relevé”.
Alors que le conclave sur les retraites patine, le Comité d’Orientation des Retraites (COR) jette un pavé dans la mare. Mais peut-il en être autrement ?

Le constat est simple, les retraites pèsent trop lourd dans les prélèvements et les dépenses. Une situation sans espoir de rémission et destinée à empirer. De fait, notre système a réussi le tour de force d’accroître le déficit, d’alourdir la dette, de nuire à la productivité et de réduire le pouvoir d’achat des travailleurs. Pour s’en convaincre, rien de mieux que les comparaisons internationales, même si cela est un peu douloureux.

Premièrement, la part des revenus consacrée aux retraites est de 14 % du PIB, une des plus fortes de l’OCDE, soit 25 % des dépenses publiques. Et alors me direz-vous ? Le problème tient à l’inefficacité économique et sociale de ces dépenses. D’une part, la France est le pays où l’on vit le plus longtemps à la retraite (y compris chez les ouvriers). D’autre part, nous sommes l’une des rares nations où le niveau de vie des retraités est aussi (voire plus) élevé que celui des actifs. Il n’est donc pas surprenant que ce poste soit la première cause de l’augmentation des dépenses des administrations publiques depuis 30 ans. 

Les retraités français 
ont les mêmes revenus
que les actifs
Source : OECD, Pensions at a glance 2023.
Lecture : En France le revenu des 65 ans et plus correspond à 99.8% du revenu de la population totale. Autrement dit, le revenu des 65+ est équivalent à celui du reste de la population.

Quid des impôts ? La France est sur le podium en matière de taxation du travail. Logique, il faut bien financer ce système où les individus partent à la retraite plus tôt malgré des pensions plus généreuses qu’ailleurs, même si elles sont loin d’être faramineuses. Cela pèse logiquement sur la fiche de paie, notamment pour les travailleurs les mieux rémunérés. En conséquence, le coût du travail est plus élevé en France, notamment pour les actifs les plus qualifiés, c’est-à-dire les plus productifs.

Des salaires parmi
les plus taxés de l’OCDE
Source : OCDE, Les impôts sur les salaires 2025
Note : couple marié ayant deux enfants et disposant de deux salaires, dont l’un est égal à 100 % et l’autre à 67 % du salaire moyen. Les taxes sur les salaires sont incluses si elles s’appliquent.
Lecture : le coin fiscal en France est de 41% pour les couples mariés avec deux enfants dont les revenus correspondent à la classe moyenne. Autrement dit, le salaire net des impôts de ce couple représente 59% des coûts totaux de main-d’œuvre pour son employeur.

La logique la plus élémentaire – et surtout la démagogie – inclinerait à davantage taxer les entreprises. Hélas, leurs marges ne sont pas aussi larges que certains l’affirment. Même si ces dernières reçoivent nombre de subventions et crédits d’impôt, ne nous y trompons pas, le taux de taxation net des subventions des entreprises françaises est parmi les plus élevés de l’OCDE. Pourquoi ? Parce que les cotisations patronales servant au financement des retraites pèsent lourd, très lourd même. En conséquence, ce qui aurait pu être mobilisé pour l’investissement et l’innovation d’une part et la rémunération nette des travailleurs, d’autre part, s’en trouve réduit. Ce qui, ici encore, nuit aux gains de productivité.

Des cotisations qui pèsent 
lourd sur les entreprises
Source : OCDE, comptes nationaux, tableau 14B
Note : le taux de taxation net des entreprises correspond à la somme des contributions sociales patronales, taxes nettes des subventions sur la production et impôts sur les bénéfices, le tout rapporté sur la valeur ajoutée nette.
Lecture : En France le taux de taxation des entreprises en 2019 est de 28%, soit 17.9% pour les contributions patronales, 4.2% pour les impôts sur la production et 5.9% pour les impôts sur les bénéfices.

En conséquence, travail et capital, les deux facteurs de production principaux, sont beaucoup plus taxés chez nous qu’ailleurs. À tel point que de nouvelles taxes risquent même de réduire les recettes, les effets négatifs sur la production faisant plus que compenser l’augmentation du taux de taxation. Il n’y a donc plus de marges de manœuvre, à moins que l’objectif soit de nuire à la croissance tout en augmentant le fardeau de la dette.

La bonne nouvelle est que, contrairement à nombre d’idées reçues, les inégalités de niveau de vie n’ont jamais été aussi faibles que depuis ces 10 dernières années. Autrement dit, ce point occupe une place médiatique et politique inversement proportionnelle à son coût social effectif. Dès lors, une bonne réforme des retraites devrait surtout s’attacher à ne pas réduire le niveau de vie des générations de travailleurs présentes et futures.

Source : WID
Note : Part des revenus des 10% les plus aisés dans le revenu disponible total.
Lecture : En France, le revenu disponible des 10% les plus aisés représente 23% du revenu disponible total en 2022.

La mauvaise nouvelle est que notre productivité stagne, voire décroît en tendance, ce qui vient rompre avec 70 ans de croissance, cas plutôt rare parmi les pays occidentaux. Seule la Grèce a fait pire depuis 2015… Rien de surprenant compte tenu du poids du système social (et notamment des retraites) sur la taxation du travail productif et l’investissement des entreprises. Tant pis si les gains de productivité sont essentiels pour accroître les revenus et réduire le poids des dettes et déficits. Les coûts politiques de court terme passent avant les coûts économiques et sociaux de long terme. Un classique délétère. D’ailleurs, un cercle vicieux s’est déjà enclenché, voyant le poids de notre système social porter atteinte à la croissance, accroître le déficit et conduire à imaginer davantage de taxes qui en retour affectent la productivité et la croissance.

Source : OCDE
Note : La productivité du travail est mesurée par le rapport du PIB au nombre d’heures travaillées.
Lecture : La productivité du travail a baissé de 0.2% depuis 2015 en France.

Quelles solutions alors ? Tout d’abord, l’abattement à 10 % des ménages retraités assujettis à l’impôt sur le revenu n’a pas de sens. Il favorise les retraités les plus aisés alors que l’objectif de celui-ci est de compenser les coûts associés au travail. Autre piste, la non-indexation des pensions les plus élevées (il ne s’agit bien évidemment pas de toucher aux retraités pauvres). Pour les plus craintifs (mais sincères), notez que cela n’augmentera ni les inégalités de revenu ni le taux de pauvreté. En revanche, cela redonnera un peu d’air aux finances publiques et au pouvoir d’achat des travailleurs. Et si l’on croit cela infaisable, la meilleure preuve du contraire demeure la non-revalorisation du point d’indice des fonctionnaires qui, depuis de nombreuses années, ne semble préoccuper que les principaux concernés (dont je fais partie). 

 Il y a enfin la question que tout le monde se pose, faut-il repousser l’âge de départ à la retraite ? De fait, la pyramide des âges est sans appel, le déséquilibre est structurel, large et persistant. Or, puisque le levier de la taxation du travail a déjà atteint ses limites économiques et politiques, et à défaut de gains de productivité, il ne reste que la réduction des dépenses et l’augmentation de la durée de cotisation. L’usage de ces deux leviers est nécessaire, chose que nos voisins ont comprise depuis bien longtemps.

L’article Retraites : le piège de la dette est apparu en premier sur Les Électrons Libres.

  •  

Bridge returned error 0! (20251)

See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.

Details

Type: HttpException
Code: 0
Message: cURL error Operation timed out after 5001 milliseconds with 0 bytes received: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/com.atproto.identity.resolveHandle?handle=tristankamin.bsky.social
File: lib/http.php
Line: 184

Trace

#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure}()
#2 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#3 middlewares/CacheMiddleware.php(44): RssBridge->{closure}()
#4 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#5 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure}()
#6 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#7 middlewares/SecurityMiddleware.php(19): RssBridge->{closure}()
#8 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#9 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure}()
#10 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#11 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(152): BlueskyBridge->resolveHandle()
#18 bridges/BlueskyBridge.php(595): getContents()
#19 lib/contents.php(79): CurlHttpClient->request()
#20 lib/http.php(184)

Context

Query: action=display&bridge=BlueskyBridge&data_source=getAuthorFeed&user_id=tristankamin.bsky.social&feed_filter=posts_and_author_threads&include_reposts=on&format=Atom
Version: 2025-06-03 (git.master.354cea0)
OS: Linux
PHP: 8.2.28

Go back

mruac

  •  

Une faille informatique détectée dans l’IA Microsoft 365 Copilot

Après SharePoint (https://sebsauvage.net/links/?yl9IXw), c'est au tour d'Office365 de subir des failles de sécurité à cause de l'IA CoPilot qui a accès à tout. En envoyant un mail correctement formulé, l'IA vous renvoie plein de données confidentielle de l'entreprise, sans même avoir besoin de l'intervention d'un employé. 😆

Microsoft n'a déjà pas un passif formidable en matière de sécurité, avec en voulant introduire son IA partout, elle introduit des failles partout.
(Permalink)
  •  

?? - France :

BucheBuche56 @buchebuche56.bsky.social posted:
🇫🇷 - France :

La crise de la #corrosion sous contrainte (#CSC), qui avait mis à l'arrêt près de la moitié du parc #nucléaire 🇫🇷 en 2022-2023, avait commencé à Civaux et les regards se tournent de nouveau vers le réacteur n°2 ...

Qu'en est il sur ce réacteur d'EDF ?

  •