Tristan K.@tristankamin.bsky.socialreplied: Et encore là je tape sur Orano parce que qui aime bien châtie bien, mais EDF en ce moment c'est une catastrophe, entre petits arrangements politiques pour ne pas brusquer les uns ou les autres et rétention d'informations cruciales pour le débat public...
Tristan K.@tristankamin.bsky.socialreplied: Nan mais franchement, je le redis, une des raisons pour lesquelles j'ai arrêté mon militantisme... c'est parce que la filière cherche ni à se défendre, ni à être défendue, ni à être défendable.
Tristan K.@tristankamin.bsky.socialposted: Est-ce que ce n'est pas le moment rêvé pour vanter les investissements de son entreprise aux USA ? 🤩Screenshot du compte Instagram du groupe Orano qui met en avant une « Étape majeure » dans le Tennessee : « Ike, un projet d'usine d'enrichissement de l'uranium sur le sol américain pour sécuriser l'approvisionnement ».
Discord utilise un prestataire externe pour vérifier l'âge de ses utilisateurs.
Ce prestataire exige des copies de la carte d'identité. 70000 de ces cartes viennent de fuiter sur le net, y compris des mineurs. Copies de cartes d'identité qui sont maintenant accessibles des escrocs et des éventuels pédophiles.
Alors, ça y est, est-ce que ça a bien protégé les enfants, là ? (Permalink)
Oh et merde. C'est pratiquement tous les jours, et plus personne ne semble en avoir rien à foutre. Surtout pas les autorités, ni même les détenteurs de ces fichiers.
Cent soixante-cinq heures. C’est, en moyenne, le temps nécessaire au travail de correction pour un enseignant français. Cent soixante-cinq heures d’un travail éprouvant et répétitif. Cent soixante-cinq heures qui, multipliées par des centaines de milliers de profs, constituent une charge aussi indispensable que colossale pour le système éducatif. Et si l’IA pouvait changer la donne ?
Soixante-huit milliards d’euros de budget annuel. Près d’un million d’enseignants. Un ministère tentaculaire, aujourd’hui confronté à une crise profonde. Crise des vocations, d’abord, avec des difficultés croissantes de recrutement. Crise du niveau des élèves, ensuite, illustrée par le décrochage de la France dans les classements internationaux, notamment PISA. Dans ce contexte, difficile de ne pas s’interroger sur les leviers capables d’enrayer cette spirale.
L’intelligence artificielle, entrée brutalement dans notre quotidien avec ChatGPT il y a trois ans, pourrait bien faire partie des solutions. Non pas en remplaçant les enseignants, scénario qui relève toujours de la science-fiction, mais en s’attaquant à un angle mort du débat public : le travail invisible du professeur. Car près de la moitié de son activité se déroule hors de la classe, entre préparation des cours et correction des copies.
À ce titre, l’Éducation nationale dispose d’un gisement considérable de gains d’efficacité grâce aux outils numériques. Un potentiel que les instances ministérielles ont d’ailleurs commencé à explorer, en lançant une stratégie de développement d’agents conversationnels destinés à accompagner élèves et personnels, et en proposant des parcours de formation spécifiquement dédiés à l’IA.
Sujet tabou
C’est dans ce cadre qu’en octobre dernier, la région Hauts-de-France organisait un vaste webinaire à destination de l’ensemble des enseignants, afin de présenter les promesses, les enjeux, mais aussi les risques liés à l’usage de l’intelligence artificielle. De nombreuses pistes ont été évoquées pour alléger le travail de préparation pédagogique. Mais une question, pourtant centrale, brillait par son absence : celle de l’assistance à la correction.
Il aura fallu qu’un enseignant ose poser la question frontalement pour que le sujet soit enfin abordé… et aussitôt refermé. Selon les formateurs présents, l’usage de l’IA comme aide à la correction n’est aujourd’hui « pas recommandé », voire carrément proscrit. En cause, des outils jugés encore peu fiables, des interrogations sur la protection des données personnelles et, surtout, une conviction profondément ancrée : la correction manuelle ferait partie intégrante de l’acte pédagogique et de l’identité professionnelle de l’enseignant.
Certes, reconnaissent-ils, la correction est « coûteuse en temps ». Mais elle participerait directement à la « construction de l’acte pédagogique ». Comment, sans elle, identifier les obstacles rencontrés par les élèves et ajuster son enseignement en conséquence ?
Une position ferme, et qui semble frappée au coin du bon sens.
Un lourd tribut
Et pourtant, ce débat mérite mieux que des postures dogmatiques, même lorsqu’elles se parent d’une évidence de façade. Prenons donc le temps de regarder les chiffres, car la fameuse « construction de l’acte pédagogique » par la correction a un coût. Un coût élevé. Et pas uniquement pour la santé mentale des enseignants.
Rien que pour le baccalauréat, plus d’un million de copies doivent être corrigées chaque année, mobilisant environ un demi-million d’heures de travail cumulées. Une tâche souvent ingrate, faiblement rémunérée, qui représente pourtant à elle seule plus de 4 millions d’euros pour l’État. Mais se limiter aux examens serait réducteur. En moyenne, un enseignant consacre environ 4,6 heures par semaine à la correction, soit près de 11 % de son temps de travail total. Rapporté au coût global des enseignants en activité (environ 50 milliards d’euros par an), la seule correction des copies représente un ordre de grandeur de 5,5 milliards d’euros annuels. L’équivalent, peu ou prou, du budget du ministère de l’Agriculture.
Gardons toutefois les pieds sur terre : confier la correction à des IA ne ferait pas disparaître mécaniquement cette dépense. En revanche, cela pourrait libérer du temps enseignant pour des tâches moins pénibles et potentiellement plus utiles aux élèves. Moins de travail à la maison, c’est aussi la possibilité d’imaginer davantage de soutien individualisé, voire une évolution vers des classes à effectifs réduits. La perte de connaissance fine des élèves, invoquée pour justifier la correction manuelle, serait-elle alors réellement un problème… ou pourrait-elle être compensée autrement ?
D’autant qu’une correction automatisée pourrait fournir des retours détaillés sur les erreurs individuelles, identifier les difficultés récurrentes à l’échelle d’une classe, et n’exclurait nullement que l’enseignant lise un échantillon de copies à chaque devoir. Autrement dit, la correction par IA ne signifie pas l’abandon du regard pédagogique, mais sa réorganisation.
Et les bénéfices potentiels ne seraient pas uniquement comptables. Ils pourraient aussi être d’ordre pédagogique : davantage d’annotations pour les élèves, plus d’évaluations au cours de l’année, et peut-être même une plus grande équité, les résultats ne dépendant plus de la fatigue ou de la sévérité variable du correcteur.
À une condition essentielle, toutefois : que l’intelligence artificielle soit capable de faire ce travail avec un niveau de fiabilité suffisant.
L’humain face à la machine
Printemps 2024. En pleine « GPT mania », Thibaud Hayette, professeur de français dans l’académie de Lyon, décide de passer de la théorie à l’expérimentation. Avec l’accord de sa hiérarchie, il se procure sept copies de brevet et les soumet à ChatGPT. L’objectif est simple : tester, concrètement, la fiabilité d’un outil d’intelligence artificielle dans une tâche de correction.
Ce qui relevait encore, quelques années plus tôt, d’un « fantasme de prof » se révèle rapidement bien plus sérieux que prévu. La correction est quasi instantanée, richement commentée, et surtout, les notes attribuées par l’agent conversationnel s’avèrent remarquablement proches de celles des correcteurs humains. Une surprise, même pour l’enseignant.
Un point noir subsiste néanmoins : la reconnaissance de l’écriture manuscrite. L’OCR (la Reconnaissance Optique de Caractère), encore imparfaite, contraint Thibaud à retaper lui-même les copies. Un frein réel, mais depuis, de nouveaux modèles ont vu le jour, affichant des progrès constants.
Nous avons pu récupérer les copies utilisées par Thibaud afin de mener nos propres tests, et les résultats sont encourageants. Avec un taux d’erreur limité à 6%, Google AI Studio (utilisant le modèle Gemini 3 Pro) ne se trompe en moyenne que sur un mot sur dix-sept. Un ratio suffisamment faible pour ne pas entacher la compréhension globale d’une copie, mais qui reste problématique pour certains exercices, comme la dictée. Et sur des écritures particulièrement difficiles, l’OCR reste un obstacle. Du moins, pour l’instant.
Une fois cette étape franchie, les performances des modèles deviennent franchement impressionnantes. Nous avons testé quatre systèmes parmi les plus réputés du moment : Gemini 3 Pro (via Google AI Studio), Claude Sonnet 4.5, ChatGPT 5.2 et Mistral Large 3. À cela s’ajoute l’évaluation de la plateforme spécialisée Examino. Résultat : quel que soit le modèle, l’écart moyen sur la note globale par rapport à une correction humaine reste systématiquement inférieur à 10 %. Pour les modèles les plus performants, comme pour Examino, il tourne même autour de 6 %. Mieux encore, lorsque l’on répète plusieurs fois la correction d’une même copie, la variabilité aléatoire reste contenue, entre 3 et 4 %.
Mais un écart de 10 % avec un correcteur humain, est-ce déjà trop ? Pas nécessairement. Car il ne faut pas oublier que les correcteurs humains eux-mêmes ne sont pas infaillibles. S’il n’existe pas de statistiques officielles, les expérimentations disponibles évoquent généralement des écarts-types de 2 à 3 points sur 20, soit 10 à 15 %. Et dans certains cas, les différences entre correcteurs peuvent grimper à 10 points… voire davantage.
À l’aune de ces éléments, la variabilité observée avec les IA apparaît donc nettement inférieure à celle qui existe entre correcteurs humains. D’autant plus que la correction automatisée offre un avantage décisif : la possibilité de faire corriger plusieurs fois la même copie par la machine, puis d’en calculer une moyenne, afin de lisser les variations aléatoires. Une option tout simplement impossible à grande échelle avec une correction manuelle.
L’inertie du mammouth
Si la faisabilité technique de la correction par IA ne fait désormais plus guère de doute, les principaux freins se situent ailleurs. Pour qu’une adoption à grande échelle devienne possible, encore faut-il que l’institution s’empare réellement du sujet. Or, à en juger par le contenu des webinaires et formations estampillés Éducation nationale, l’intelligence artificielle reste d’abord perçue comme un risque potentiel, bien plus que comme une solution opérationnelle.
Le « Cadre d’usage de l’IA en éducation » donne le ton sans ambiguïté, en rappelant que « l’utilisation de l’IA pose des questions éthiques, déontologiques et écologiques ». L’intention est louable : poser des garde-fous clairs pour prévenir les dérives. Mais le mieux est parfois l’ennemi du bien, et une focalisation quasi exclusive sur les risques supposés, au détriment des gains possibles, pourrait freiner durablement le déploiement de l’IA au sein des services.
Et quand bien même une volonté politique affirmée émergerait en faveur de l’usage de l’IA pour la correction des copies, sa traduction concrète dans les pratiques prendrait du temps. Avec ses effectifs pléthoriques et ses processus lourds, le ministère de l’Éducation nationale n’est pas réputé pour sa souplesse, et l’inertie institutionnelle y est souvent considérable.
À cela s’ajoute la réticence d’une partie du corps enseignant lui-même. Dans un climat général marqué à gauche par une technophobie ambiante, l’intelligence artificielle reste souvent perçue comme un outil superficiel et dispensable… voire comme une menace, en raison notamment des usages détournés qu’en font certains élèves.
Si, pour l’Éducation nationale, la perspective d’économies constitue sans doute le levier le plus efficace pour faire bouger les lignes, il ne faudrait pas perdre de vue l’essentiel. La correction automatisée pourrait avant tout apporter des bénéfices très concrets aux personnels, et plus encore à la jeunesse. Du temps et du confort retrouvés pour les enseignants, avec à la clé des heures précieuses libérées. Et, pour les élèves, des retours plus riches sur leurs productions, ainsi qu’une évaluation plus cohérente, plus lisible et mieux harmonisée.
S’il est probable que l’intelligence artificielle s’impose, dans un horizon relativement proche, comme un outil d’aide à la correction des copies d’examen, pour les usages plus quotidiens, en revanche, il faudra sans doute attendre que la profession ouvre les yeux sur cet outil, dont les promesses apparaissent aujourd’hui aussi enthousiasmantes que vertigineuses.
hahaha c'est énorme : NVidia entraîne ses propres modèles d'IA. Et comme les autres boîtes, elle s'est pris des procès pour violation de droit d'auteur.
Lors d'un de ces procès, on apprend que NVidia a contacté les responsables d'Anna's Archive pour avoir des accès haut débit à l'archive 500 Téra-octets de livres.
La première réponse d'Anna's Archive a été "Euh... vous êtes conscient que c'est illégal ? Vous voulez vraiment poursuivre ?".
La réponse de NVidia a été "oui". (Permalink)
Un simple câble USB ? Pas du tout. C'est une attaque de type HID: le câble USB, branché au PC, se comporte comme un clavier USB et pirate votre ordinateur.
Et cette version du câble est reliée au wifi d'un smartphone pour le contrôller à distance.
Donc n'empruntez pas des câbles USB : Ayez toujours les vôtres. (Permalink)
"La chute de la natalité affole les responsables politiques… Qui ne voient pas la fin du mythe imposant la maternité comme destin et bonheur unique des femmes. La propagation de la parole féministe, grâce à Internet, provoque une grève silencieuse des ventres." (Permalink)
Une police secrète, avec Palantir comme système de fichage pour les cibler. La Gestapo en aurait rêvé. Merci aussi aux GAFAMs et aux databrokers qui vendent toute vos informations au gouvernement afin de faciliter le travail de cette police. (Permalink)
Pas testé, mais je diffuse au cas où ça pourrait rendre service : des scripts pour nettoyer les navigateurs (Chrome, Firefox, Edge) de toutes les merdes de tracking, publicité et IA. (Permalink)
Réinventer l’autonomie avec des micro-batteries, améliorer ses réflexes de gamer, neutraliser un poison mortel, opérer un jumeau numérique du cœur humain, dessaler l’eau de mer en utilisant la pression des abysses… C’est parti pour Électroscope #10.
Iten et Lacroix : la micro-batterie solide qui réinvente l’autonomie
Dans l’univers de l’électronique, la loi de Moore a permis une miniaturisation considérable, laissant toutefois une technologie à la traîne : la batterie, qui n’a pas connu les mêmes gains de performance, car sa densité progresse de façon linéaire, et non exponentielle. C’était vrai, en tout cas, jusqu’à l’ascension d’Iten. Cette pépite française, installée à Dardilly, près de Lyon, a réussi là où les géants piétinent : créer des micro-batteries « tout-solide » aussi puissantes que sûres, sans cobalt et sans solvants lourds.
Oubliez les piles boutons encombrantes. Les batteries d’Iten sont des composants céramiques rechargeables (en moins de 10 minutes, selon l’entreprise), à peine plus gros qu’un grain de riz, mais capables de délivrer des puissances « cent fois supérieures » aux technologies lithium-ion classiques, tout en ayant des dimensions similaires. Cette incroyable densité de puissance va permettre notamment de lisser les pics de consommation des objets connectés et autres capteurs autonomes.
Mais une technologie de rupture ne vaut rien sans capacité de production massive. C’est là qu’intervient l’alliance stratégique nouée avec le groupe Lacroix, géant français méconnu de la sous-traitance électronique. Au cours des derniers mois, la faisabilité de l’intégration des solutions d’Iten directement sur des cartes électroniques a été testée, en conditions réelles, dans l’usine Symbiose de Beaupréau-en-Mauges (Maine-et-Loire). Les résultats ont été concluants, disent les deux partenaires : les micro-batteries sont bel et bien compatibles avec les lignes d’assemblage existantes, et donc industrialisables !
L’enjeu ? L’Internet des objets (IoT). Pour que nos montres, nos capteurs industriels ou nos implants médicaux deviennent réellement autonomes et miniatures, ils doivent s’affranchir des contraintes chimiques classiques. En industrialisant l’intégration de ces micro-batteries directement sur les cartes électroniques (comme n’importe quel composant standard), Iten, qui entend ouvrir sa propre usine en France en 2028, ne se contente pas de fabriquer une batterie : la jeune pousse nous débarrasse de l’un des derniers verrous matériels qui empêchent l’électronique de se fondre dans notre quotidien.
Neurable : quand votre casque gaming écoute votre cerveau
Quittons l’énergie pour plonger au cœur de notre cerveau. Avec la dernière prouesse de Neurable, entreprise américaine experte en neurotechnologie « non invasive », la frontière entre l’homme et la machine vient de s’estomper un peu plus, suite au lancement de son casque capable de lire les ondes cérébrales. Fruit d’une collaboration avec la marque de casques gaming HyperX, il vise à améliorer la « concentration des joueurs ».
Jusqu’à présent, l’interface cerveau-ordinateur (BCI) restait essentiellement cantonnée aux labos de recherche, nécessitant des bonnets bardés de fils et de gel conducteur, voire des implants cérébraux pour les dispositifs les plus complexes. Neurable a réussi l’impensable : miniaturiser des capteurs EEG (électroencéphalographie) au point de pouvoir les dissimuler dans les coussinets d’un casque grand public. Une fois en contact avec le contour de nos oreilles, ils captent les infimes variations électriques du cortex sans le moindre inconfort.
Loin de la science-fiction, le système agit comme une sorte de « traducteur instantané » : des algorithmes d’intelligence artificielle nettoient le signal brut pour convertir cette activité neuronale en métriques lisibles. Le résultat est troublant d’efficacité. Le casque « lit » notre niveau de concentration en temps réel et peut détecter les signes avant-coureurs de la fatigue cognitive avant même que nous n’en ayons conscience. L’idée est de s’en servir comme d’un outil d’entraînement mental pour améliorer les temps de réaction.
La démonstration de son efficacité a eu lieu lors du dernier salon CES 2026, à travers un test concret sur le jeu de tir d’entraînement Aimlabs. D’abord soumis à une épreuve de tir sans préparation préalable, un utilisateur a établi un premier score de 33 333 points, avec une latence de 478 millisecondes. C’est alors que l’interface de Neurable est entrée en scène : le testeur a effectué un autre exercice, cette fois « guidé » grâce à l’assistance de l’appareil. Le verdict fut sans appel : lors de la seconde tentative, le score a bondi à près de 40 000 points, accompagné d’une nette amélioration des réflexes !
Le Ricimed : un bouclier biologique « Made in France »
En ce début d’année 2026, d’autres innovations se déploient également sur le terrain de la sécurité nationale et de la protection contre le risque terroriste. En effet, la biotech française Fabentech a réalisé une première mondiale qui fera date dans l’histoire de la biodéfense : l’obtention de l’autorisation de mise sur le marché (AMM) pour le Ricimed.
Le nom peut sembler anodin, mais la menace qu’il neutralise est terrifiante : la ricine. Cette toxine naturelle, issue de la graine de ricin, une plante facile à produire, est 6 000 fois plus toxique que le cyanure et mortelle, y compris à d’infimes doses. Impossible à détecter immédiatement, elle est considérée comme l’arme de bioterrorisme par excellence, redoutée par tous les services de renseignement occidentaux. Elle a notamment été utilisée lors des fameux meurtres perpétrés par les espions de l’Est grâce au « parapluie bulgare », comme dans celui qui a coûté la vie au dissident bulgare Georgi Markov, en 1978.
Jusqu’ici, il n’existait aucun antidote. En cas d’exposition, la médecine était impuissante.
Fabentech change la donne grâce à sa technologie d’immunothérapie polyclonale, qui a déjà produit des traitements contre Ebola et la grippe H5N1. En termes simples, ses équipes produisent des anticorps ultra-spécifiques capables de neutraliser la toxine dans l’organisme avant que la ricine ne provoque des dégâts irréversibles. Plus précisément, le Ricimed est un médicament qui se fixe sur le poison pour l’empêcher de s’accrocher à nos cellules. Bloqué à l’extérieur, il devient inoffensif. Par ailleurs, cette technologie à large spectre peut neutraliser des attaques « quelle que soit la provenance » de la ricine, dit l’entreprise.
Cette autorisation n’est pas qu’une percée médicale : c’est aussi une victoire géopolitique. Elle permet à la France et à l’Europe de se constituer des stocks stratégiques souverains. Dans un monde où la menace asymétrique grandit, Fabentech, soutenue par la Direction générale de l’armement (DGA), nous dote d’une assurance-vie collective et conforte la France dans son rôle de leader européen de la gestion des risques NRBC (nucléaire, radiologique, biologique, chimique).
Le français inHEART produit des jumeaux numériques du cœur humain
Imaginez un outil offrant aux cardiologues la possibilité de naviguer en temps réel dans une représentation fidèle du cœur d’un patient. Une sorte de « Google Maps de l’organe ». Entre ce rêve et la réalité, il n’y a qu’un pas qu’inHEART est en train de franchir. Cette startup française, issue de l’IHU Liryc et de l’Inria à Bordeaux, incarne l’avènement de la médecine personnalisée au travers de « jumeaux numériques ».
Sa technologie répond à un problème complexe : chaque cœur est unique, mais les outils d’imagerie classiques (scanners, IRM) ne donnent souvent qu’une vision imparfaite, en 2D ou en fausse 3D, des tissus. Pour un cardiologue s’apprêtant à pratiquer une intervention complexe sur le cœur (tachycardies ventriculaires, cardio-neuro-ablations, radio-ablations), c’est un peu comme devoir désamorcer une bombe avec un plan flou.
La biotech inHEART utilise l’intelligence artificielle pour transformer ces images médicales brutes en un modèle 3D interactif et ultra-précis du cœur du patient. Ce double numérique offre une vision instantanée et précise de l’anatomie et permet de visualiser les cicatrices électriques invisibles à l’œil nu, responsables des courts-circuits cardiaques. Cerise sur le gâteau : ce modèle est directement exploitable par les cardiologues, car intégrable aux systèmes de cartographie électro-anatomique utilisés à l’hôpital.
Les résultats récents sont spectaculaires : les interventions préparées avec inHEART sont plus rapides, plus sûres et réduisent drastiquement les complications. Selon le CHU de Toulouse, premier hôpital en France à déployer cette technologie, celle-ci permet de réduire la durée moyenne de ce type de procédure de 5 à 2 heures, et le taux de réussite grimpe de 60 à 75 %. Car, avec la solution d’inHEART, le chirurgien n’opère plus « à vue », mais navigue dans un territoire qu’il a déjà exploré virtuellement…
Flocean : l’usine de dessalement qui utilise la force des abysses
Nous terminons ce tour d’horizon par ce qui est sans doute l’enjeu le plus vital du siècle : l’accès à l’eau douce. Alors que les méthodes de dessalement traditionnelles sont pointées du doigt pour leur voracité énergétique (bien qu’en nette baisse) et leurs rejets de saumure côtiers, la startup norvégienne Flocean opère, en 2026, une rupture radicale : exploiter la pression naturelle de l’océan. Bref, elle amène l’usine à l’eau, et non l’inverse.
Reconnue comme l’une des meilleures inventions par le TIME fin 2025, la technologie de Flocean repose sur un principe physique simple mais inexploité : la pression hydrostatique. Au lieu de construire de gigantesques usines sur les côtes, Flocean a pour ambition d’installer des modules de dessalement autonomes directement au fond de l’océan, à environ 400 à 600 mètres de profondeur. La pression naturelle de l’eau (d’environ 50 bars) est suffisante pour actionner le processus d’osmose inverse sans recourir aux pompes haute pression énergivores utilisées sur terre. Résultat ? Une consommation énergétique qui serait « réduite de 30 à 50 % » par rapport aux standards actuels, selon l’entreprise.
Cette innovation se veut aussi écologique. En puisant l’eau dans les abysses, là où la lumière ne pénètre pas, Flocean capte une eau pure, exempte d’algues et de pollution de surface, réduisant drastiquement le besoin de prétraitement chimique. Flocean annonce jusqu’à « 60 % d’infrastructures en moins » pour le prétraitement. Soit une autre source d’économies ! De plus, la saumure rejetée à cette profondeur se disperserait bien mieux dans les courants profonds qu’en zone côtière fragile, sans avoir besoin d’additifs…
Avec le lancement commercial de ses unités « Flocean One », dont le premier module doit être déployé à Mongstad en 2026 avec une capacité annoncée de 1 000 m³ d’eau douce par jour, la Norvège apporte ainsi une solution clé en main pour les régions arides et assoiffées. À terme, chaque module devra produire 5 000 m³ d’eau douce par jour, et leur conception permettra d’atteindre 50 000 m³ d’eau douce par jour, par site d’exploitation.
Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.
Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.
Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.
haha c'est vrai : à toutes les époques "on" a essayé de supprimer les développeurs. Avec un échec retentissant. Pas que ces technos aient disparues, mais elles n'ont jamais supprimé les développeurs.
Curieux de voir ce que ça va donner avec l'IA. (Permalink)
Jeunes parents, vous n’avez pas pu y échapper. Il y a une quinzaine d’années, l’éducation positive a déferlé sur la France, portée par un cocktail de grands principes, de références aux neurosciences… et d’injonctions parfois culpabilisantes. Mais ce modèle éducatif tient-il réellement ses promesses ? Et au fond, est-il vraiment si « positif » ?
Lorsque Isabelle Filliozat publie J’ai tout essayé en 2011, rien ne laissait présager un tel raz-de-marée éditorial. Jusqu’alors, l’auteure prêchait plutôt dans le désert. Son précédent ouvrage consacré à l’éducation, Au cœur des émotions de l’enfant, paru en 1999, n’avait rencontré qu’un écho modeste. Mais cette fois, le succès est immédiat et massif, et sera le point de départ d’un véritable phénomène de société : En quelques années à peine, l’éducation « positive » qu’elle promeut s’impose progressivement comme une évidence, presque comme une nouvelle norme. Et son premier livre, rétrospectivement, est élevé au rang de texte fondateur du mouvement.
Dans la foulée, en 2014, la pédiatre Catherine Gueguen publie Pour une enfance heureuse. Là encore, le succès est spectaculaire. Forte de sa formation médicale, elle vient appuyer les intuitions de Filliozat (psychologue de formation) par des arguments issus des neurosciences. Les principes de l’éducation bienveillante gagnent alors un vernis scientifique qui achève de la légitimer aux yeux du grand public.
Mais de quelles thèses parle-t-on exactement ?
Les axiomes de l’éducation bienveillante
Tous les parents le savent : la parentalité ressemble souvent à un parcours du combattant. Dans ce contexte, la soif de réponses est immense, et c’est précisément là que ces ouvrages rencontrent leur public. Ils promettent des clés simples, directement applicables, presque des modes d’emploi pour parents démunis. Le tout enveloppé de valeurs auxquelles personne ne peut décemment s’opposer : le bien-être de l’enfant, la sérénité familiale, l’amour, l’épanouissement. Rien d’étonnant, dès lors, à ce que ces livres deviennent des best-sellers.
D’autant que le message est clair : tout se joue pendant l’enfance. Faites les mauvais choix, commettez des erreurs éducatives (sous-entendu : ne respectez pas nos conseils), et vos enfants en paieront le prix toute leur vie.
Et parmi ces erreurs, la plus grave serait de stresser l’enfant. Catherine Gueguen alerte ainsi sur les effets délétères du cortisol, l’hormone du stress, qui provoquerait des dégâts irréversibles sur le cerveau en développement. À l’inverse, l’ocytocine — hormone de l’attachement et du bien-être — favoriserait un développement cérébral optimal. Conclusion : éviter à tout prix colères, frustrations et sanctions, au profit des câlins, et autres témoignages d’affection. Sous peine, là encore, de conséquences durables.
Dans cette logique, toute « violence éducative ordinaire » est proscrite. Bien sûr, les violences physiques sont bannies. Mais la notion s’étend bien au-delà : crier, punir, contraindre un enfant à faire quelque chose qu’il ne souhaite pas deviennent, eux aussi, des formes de violence psychologique.
Et si, malgré toute cette vigilance, une colère incontrôlée survient, il ne s’agit surtout pas d’un caprice. Les caprices, nous dit-on, n’existent pas. Ces débordements seraient des appels à l’aide, auxquels il faudrait répondre par de l’affection, de l’écoute, du réconfort, et surtout du dialogue. D’autant que, chez le jeune enfant, le cortex préfrontal, siège du raisonnement et du contrôle de soi, est immature. L’enfant serait donc gouverné par ses pulsions, incapable de planifier ou de se réguler. Dans ces conditions, toute sanction serait non seulement injuste, mais contre-productive. Alors qu’un sain dialogue permettrait de « reconnecter » le néocortex, qui reprendrait le dessus sur le cerveau limbique et le fameux « cerveau reptilien », responsables des émotions et des réactions instinctives.
Isabelle Filliozat pousse le raisonnement encore plus loin. Un enfant agité, qui court, grimpe, déborde d’énergie ? C’est parfaitement normal. « La vie, c’est le mouvement », affirme-t-elle. Chercher à canaliser ces comportements reviendrait à aller contre sa nature biologique. À l’inverse, un enfant trop obéissant devient suspect : il serait en réalité en état de stress ou de sidération. Face à un parent autoritaire, son cerveau reptilien déclencherait une réponse de paralysie.
Et chez l’adolescent ? La crise est présentée comme inévitable. Le cortex préfrontal, encore immature, empêche toute autorégulation efficace, tandis que le cerveau est inondé de dopamine, rendant le circuit de la récompense hyperactif. Punir un ado pour ses excès serait donc profondément injuste. Cela reviendrait à reprocher à un tout-petit de ne pas savoir marcher.
Pire encore, le cerveau adolescent étant en pleine reconfiguration, il doit expérimenter pour développer ses propres facultés. Si le parent décide à sa place, contrôle trop, cadre trop, le cerveau de l’adolescent ne « câble » pas l’autonomie attendue.
La conclusion logique est que, pour être juste et bienveillant, il faudrait laisser faire. Prendre du recul. Accepter les débordements comme des passages nécessaires. Insultes, violences, conduites à risque, consommation de substances ? Rien d’anormal : ce serait, là encore, la simple expression de sa nature.
Sous le vernis de la science
Pris isolément, ces axiomes peuvent sembler relever du bon sens. Mieux encore, ils paraissent solidement adossés à des résultats scientifiques. Mais dès que l’on gratte un peu le vernis, la fragilité de l’argumentation apparaît rapidement.