Un député RN affirme que les Trans Musicales de Rennes est un «festival de musique d’artistes transgenres» – Libération
(Via https://sammyfisherjr.net/Shaarli/?sLcfzw)
(Permalink)
Prédire précisément l’avenir de la santé d’un individu ? L’idée aurait semblé saugrenue il y a encore quelques années. Elle est pourtant en train de devenir une réalité concrète. Aujourd’hui, à partir d’une simple prise de sang, il est déjà possible d’estimer le risque de développer certaines maladies. L’analyse de gènes de prédisposition permet d’anticiper un cancer du sein, une maladie cardiovasculaire ou certains troubles neurologiques. La médecine dite prédictive progresse à grande vitesse.
Cette évolution repose sur deux piliers. D’abord, l’accumulation massive de données biologiques, génétiques et cliniques. Ensuite, l’essor de l’intelligence artificielle, capable de repérer, dans ces données, des signaux invisibles à l’œil humain. En 2025, plusieurs travaux publiés ont montré que les modèles d’IA pouvaient apprendre à partir de millions de données médicales hétérogènes et produire des prédictions de plus en plus fiables. L’IA n’invente rien. Elle révèle des régularités, des trajectoires, des probabilités.
Mais prédire ne veut pas dire savoir avec certitude. Toute la question est là.
Un exemple frappant vient du sommeil. Il ne représente pas seulement un temps de repos. C’est un phénomène biologique complexe qui reflète l’état du cerveau, du cœur, de la respiration et du métabolisme. Des troubles du sommeil peuvent précéder de plusieurs années l’apparition de maladies comme la démence, l’insuffisance cardiaque ou l’accident vasculaire cérébral.
Une étude récente, publiée début janvier 2026 dans Nature Medicine, a franchi une étape supplémentaire. Des chercheurs ont entraîné un modèle d’intelligence artificielle à partir de plus de 585 000 heures d’enregistrements de sommeil réalisés chez plus de 65 000 personnes. À partir d’une seule nuit, ce modèle, dénommé SleepFM, est capable d’estimer le risque de développer, dans les années suivantes, plus de 100 maladies différentes. Cela inclut la mortalité globale, les maladies cardiovasculaires, la démence ou certains troubles neurologiques.
Autrement dit, une nuit de sommeil permet de développer une sorte de photographie biologique du futur.
Cette performance impressionne. Elle interroge aussi.
Car que faire d’une information prédictive lorsque la probabilité annoncée est très élevée ? Imaginons qu’un test révèle un risque quasi certain de développer une maladie neurologique sévère dans les dix prochaines années. Comment vivre avec cette épée de Damoclès au-dessus de la tête ? Comment se projeter, travailler, aimer, faire des projets, lorsque l’avenir semble déjà écrit par un algorithme ? En réalité, cette situation existe déjà, notamment avec la maladie de Huntington, une pathologie génétique héréditaire. Quand on porte l’anomalie responsable, le risque de déclarer la maladie au cours de la vie est considéré comme quasi certain. C’est précisément pour cela que le dépistage prédictif y est très encadré, avec consultation de génétique, information, temps de réflexion et, souvent, un accompagnement psychologique. On reconnaît ainsi qu’un résultat biologique n’est pas seulement une donnée médicale : c’est aussi un choc possible dans une vie.
Le débat change profondément lorsque la prédiction ouvre une possibilité d’action. Si connaître un risque élevé permet de le limiter, de renforcer un suivi médical ou de proposer un traitement préventif, alors l’intérêt devient majeur. C’est déjà le cas pour certaines maladies cardiovasculaires ou certains cancers héréditaires, où une surveillance adaptée ou des chirurgies préventives sauvent des vies.
Dans le cas du sommeil, l’intérêt potentiel est considérable, car il est modifiable. On peut agir sur l’apnée, la régularité des horaires, la durée, la qualité respiratoire ou l’exposition à certains médicaments. Si un modèle d’IA identifie un risque accru de démence ou d’insuffisance cardiaque à partir du sommeil, cela ouvre la voie à des interventions précoces, simples et non invasives. Mieux dormir pour retarder ou éviter la maladie.
Il faut toutefois rester prudent. Les personnes incluses dans ces études ne représentent pas toute la population. Beaucoup ont été adressées pour des troubles du sommeil ou des problèmes de santé. Les prédictions sont statistiques, pas individuelles. Et les mécanismes biologiques précis reliant le sommeil à chaque maladie restent, pour une large part, à élucider.
La tentation serait grande de transformer ces outils en oracles modernes. Ce serait une erreur. L’IA ne doit pas décider à la place du patient ou du médecin. Elle doit éclairer, pas enfermer. La prédiction n’a de sens que si elle s’accompagne d’un choix, d’une discussion, d’une possibilité d’agir.
La médecine de demain ne sera ni totalement prédictive ni totalement curative. Elle sera plus anticipatrice, plus personnalisée, mais aussi plus exigeante sur le plan éthique. Savoir ce que l’on risque n’est pas toujours une bonne nouvelle. C’est une responsabilité.
L’étude sur le sommeil montre surtout une chose : notre corps parle avant que la maladie ne s’exprime. Encore faut-il savoir l’écouter, et surtout savoir quoi faire de ce qu’il nous dit.
L’article Quand l’IA analyse votre sommeil pour prédire votre avenir est apparu en premier sur Les Électrons Libres.
Tristan K. @tristankamin.bsky.social replied:
Et encore là je tape sur Orano parce que qui aime bien châtie bien, mais EDF en ce moment c'est une catastrophe, entre petits arrangements politiques pour ne pas brusquer les uns ou les autres et rétention d'informations cruciales pour le débat public...
Ah on est pas aidés hein !
Tristan K. @tristankamin.bsky.social replied:
Nan mais franchement, je le redis, une des raisons pour lesquelles j'ai arrêté mon militantisme... c'est parce que la filière cherche ni à se défendre, ni à être défendue, ni à être défendable.
Tristan K. @tristankamin.bsky.social posted:
Est-ce que ce n'est pas le moment rêvé pour vanter les investissements de son entreprise aux USA ? 🤩
Soixante-huit milliards d’euros de budget annuel. Près d’un million d’enseignants. Un ministère tentaculaire, aujourd’hui confronté à une crise profonde. Crise des vocations, d’abord, avec des difficultés croissantes de recrutement. Crise du niveau des élèves, ensuite, illustrée par le décrochage de la France dans les classements internationaux, notamment PISA. Dans ce contexte, difficile de ne pas s’interroger sur les leviers capables d’enrayer cette spirale.
L’intelligence artificielle, entrée brutalement dans notre quotidien avec ChatGPT il y a trois ans, pourrait bien faire partie des solutions. Non pas en remplaçant les enseignants, scénario qui relève toujours de la science-fiction, mais en s’attaquant à un angle mort du débat public : le travail invisible du professeur. Car près de la moitié de son activité se déroule hors de la classe, entre préparation des cours et correction des copies.
À ce titre, l’Éducation nationale dispose d’un gisement considérable de gains d’efficacité grâce aux outils numériques. Un potentiel que les instances ministérielles ont d’ailleurs commencé à explorer, en lançant une stratégie de développement d’agents conversationnels destinés à accompagner élèves et personnels, et en proposant des parcours de formation spécifiquement dédiés à l’IA.
C’est dans ce cadre qu’en octobre dernier, la région Hauts-de-France organisait un vaste webinaire à destination de l’ensemble des enseignants, afin de présenter les promesses, les enjeux, mais aussi les risques liés à l’usage de l’intelligence artificielle. De nombreuses pistes ont été évoquées pour alléger le travail de préparation pédagogique. Mais une question, pourtant centrale, brillait par son absence : celle de l’assistance à la correction.
Il aura fallu qu’un enseignant ose poser la question frontalement pour que le sujet soit enfin abordé… et aussitôt refermé. Selon les formateurs présents, l’usage de l’IA comme aide à la correction n’est aujourd’hui « pas recommandé », voire carrément proscrit. En cause, des outils jugés encore peu fiables, des interrogations sur la protection des données personnelles et, surtout, une conviction profondément ancrée : la correction manuelle ferait partie intégrante de l’acte pédagogique et de l’identité professionnelle de l’enseignant.
Certes, reconnaissent-ils, la correction est « coûteuse en temps ». Mais elle participerait directement à la « construction de l’acte pédagogique ». Comment, sans elle, identifier les obstacles rencontrés par les élèves et ajuster son enseignement en conséquence ?
Une position ferme, et qui semble frappée au coin du bon sens.
Et pourtant, ce débat mérite mieux que des postures dogmatiques, même lorsqu’elles se parent d’une évidence de façade. Prenons donc le temps de regarder les chiffres, car la fameuse « construction de l’acte pédagogique » par la correction a un coût. Un coût élevé. Et pas uniquement pour la santé mentale des enseignants.
Rien que pour le baccalauréat, plus d’un million de copies doivent être corrigées chaque année, mobilisant environ un demi-million d’heures de travail cumulées. Une tâche souvent ingrate, faiblement rémunérée, qui représente pourtant à elle seule plus de 4 millions d’euros pour l’État. Mais se limiter aux examens serait réducteur. En moyenne, un enseignant consacre environ 4,6 heures par semaine à la correction, soit près de 11 % de son temps de travail total. Rapporté au coût global des enseignants en activité (environ 50 milliards d’euros par an), la seule correction des copies représente un ordre de grandeur de 5,5 milliards d’euros annuels. L’équivalent, peu ou prou, du budget du ministère de l’Agriculture.

Gardons toutefois les pieds sur terre : confier la correction à des IA ne ferait pas disparaître mécaniquement cette dépense. En revanche, cela pourrait libérer du temps enseignant pour des tâches moins pénibles et potentiellement plus utiles aux élèves. Moins de travail à la maison, c’est aussi la possibilité d’imaginer davantage de soutien individualisé, voire une évolution vers des classes à effectifs réduits. La perte de connaissance fine des élèves, invoquée pour justifier la correction manuelle, serait-elle alors réellement un problème… ou pourrait-elle être compensée autrement ?
D’autant qu’une correction automatisée pourrait fournir des retours détaillés sur les erreurs individuelles, identifier les difficultés récurrentes à l’échelle d’une classe, et n’exclurait nullement que l’enseignant lise un échantillon de copies à chaque devoir. Autrement dit, la correction par IA ne signifie pas l’abandon du regard pédagogique, mais sa réorganisation.
Et les bénéfices potentiels ne seraient pas uniquement comptables. Ils pourraient aussi être d’ordre pédagogique : davantage d’annotations pour les élèves, plus d’évaluations au cours de l’année, et peut-être même une plus grande équité, les résultats ne dépendant plus de la fatigue ou de la sévérité variable du correcteur.
À une condition essentielle, toutefois : que l’intelligence artificielle soit capable de faire ce travail avec un niveau de fiabilité suffisant.
Printemps 2024. En pleine « GPT mania », Thibaud Hayette, professeur de français dans l’académie de Lyon, décide de passer de la théorie à l’expérimentation. Avec l’accord de sa hiérarchie, il se procure sept copies de brevet et les soumet à ChatGPT. L’objectif est simple : tester, concrètement, la fiabilité d’un outil d’intelligence artificielle dans une tâche de correction.
Ce qui relevait encore, quelques années plus tôt, d’un « fantasme de prof » se révèle rapidement bien plus sérieux que prévu. La correction est quasi instantanée, richement commentée, et surtout, les notes attribuées par l’agent conversationnel s’avèrent remarquablement proches de celles des correcteurs humains. Une surprise, même pour l’enseignant.
Un point noir subsiste néanmoins : la reconnaissance de l’écriture manuscrite. L’OCR (la Reconnaissance Optique de Caractère), encore imparfaite, contraint Thibaud à retaper lui-même les copies. Un frein réel, mais depuis, de nouveaux modèles ont vu le jour, affichant des progrès constants.
Nous avons pu récupérer les copies utilisées par Thibaud afin de mener nos propres tests, et les résultats sont encourageants. Avec un taux d’erreur limité à 6%, Google AI Studio (utilisant le modèle Gemini 3 Pro) ne se trompe en moyenne que sur un mot sur dix-sept. Un ratio suffisamment faible pour ne pas entacher la compréhension globale d’une copie, mais qui reste problématique pour certains exercices, comme la dictée. Et sur des écritures particulièrement difficiles, l’OCR reste un obstacle. Du moins, pour l’instant.
Une fois cette étape franchie, les performances des modèles deviennent franchement impressionnantes. Nous avons testé quatre systèmes parmi les plus réputés du moment : Gemini 3 Pro (via Google AI Studio), Claude Sonnet 4.5, ChatGPT 5.2 et Mistral Large 3. À cela s’ajoute l’évaluation de la plateforme spécialisée Examino. Résultat : quel que soit le modèle, l’écart moyen sur la note globale par rapport à une correction humaine reste systématiquement inférieur à 10 %. Pour les modèles les plus performants, comme pour Examino, il tourne même autour de 6 %. Mieux encore, lorsque l’on répète plusieurs fois la correction d’une même copie, la variabilité aléatoire reste contenue, entre 3 et 4 %.

Mais un écart de 10 % avec un correcteur humain, est-ce déjà trop ? Pas nécessairement. Car il ne faut pas oublier que les correcteurs humains eux-mêmes ne sont pas infaillibles. S’il n’existe pas de statistiques officielles, les expérimentations disponibles évoquent généralement des écarts-types de 2 à 3 points sur 20, soit 10 à 15 %. Et dans certains cas, les différences entre correcteurs peuvent grimper à 10 points… voire davantage.

À l’aune de ces éléments, la variabilité observée avec les IA apparaît donc nettement inférieure à celle qui existe entre correcteurs humains. D’autant plus que la correction automatisée offre un avantage décisif : la possibilité de faire corriger plusieurs fois la même copie par la machine, puis d’en calculer une moyenne, afin de lisser les variations aléatoires. Une option tout simplement impossible à grande échelle avec une correction manuelle.
Si la faisabilité technique de la correction par IA ne fait désormais plus guère de doute, les principaux freins se situent ailleurs. Pour qu’une adoption à grande échelle devienne possible, encore faut-il que l’institution s’empare réellement du sujet. Or, à en juger par le contenu des webinaires et formations estampillés Éducation nationale, l’intelligence artificielle reste d’abord perçue comme un risque potentiel, bien plus que comme une solution opérationnelle.
Le « Cadre d’usage de l’IA en éducation » donne le ton sans ambiguïté, en rappelant que « l’utilisation de l’IA pose des questions éthiques, déontologiques et écologiques ». L’intention est louable : poser des garde-fous clairs pour prévenir les dérives. Mais le mieux est parfois l’ennemi du bien, et une focalisation quasi exclusive sur les risques supposés, au détriment des gains possibles, pourrait freiner durablement le déploiement de l’IA au sein des services.
Et quand bien même une volonté politique affirmée émergerait en faveur de l’usage de l’IA pour la correction des copies, sa traduction concrète dans les pratiques prendrait du temps. Avec ses effectifs pléthoriques et ses processus lourds, le ministère de l’Éducation nationale n’est pas réputé pour sa souplesse, et l’inertie institutionnelle y est souvent considérable.
À cela s’ajoute la réticence d’une partie du corps enseignant lui-même. Dans un climat général marqué à gauche par une technophobie ambiante, l’intelligence artificielle reste souvent perçue comme un outil superficiel et dispensable… voire comme une menace, en raison notamment des usages détournés qu’en font certains élèves.
Si, pour l’Éducation nationale, la perspective d’économies constitue sans doute le levier le plus efficace pour faire bouger les lignes, il ne faudrait pas perdre de vue l’essentiel. La correction automatisée pourrait avant tout apporter des bénéfices très concrets aux personnels, et plus encore à la jeunesse. Du temps et du confort retrouvés pour les enseignants, avec à la clé des heures précieuses libérées. Et, pour les élèves, des retours plus riches sur leurs productions, ainsi qu’une évaluation plus cohérente, plus lisible et mieux harmonisée.
S’il est probable que l’intelligence artificielle s’impose, dans un horizon relativement proche, comme un outil d’aide à la correction des copies d’examen, pour les usages plus quotidiens, en revanche, il faudra sans doute attendre que la profession ouvre les yeux sur cet outil, dont les promesses apparaissent aujourd’hui aussi enthousiasmantes que vertigineuses.
L’article Corriger des copies par IA, fiction ou réalité ? est apparu en premier sur Les Électrons Libres.