Vue normale

L’IA ne raisonne pas comme un humain : la preuve par la couleur des bananes

21 janvier 2026 à 18:28

Les chatbots d'intelligence artificielle peuvent fournir des réponses convaincantes, tout en demeurant largement incompris de l’intérieur. Pour déconstruire cette « boîte noire », des chercheurs d’Anthropic développent des méthodes d’interprétabilité mécaniste, qui cartographient certains mécanismes internes des modèles de langage.

Nvidia se retrouve accusé d’utiliser la bibliothèque pirate Anna’s Archive pour entraîner ses IA

21 janvier 2026 à 17:04

nvidia piratage

Tous les coups sont-ils permis dans la course effrénée à l'intelligence artificielle ? La question se pose avec des documents judiciaires qui allèguent que Nvidia aurait activement cherché à récupérer le contenu d'Anna's Archive (une célèbre bibliothèque clandestine d'ouvrages piratés) pour entraîner ses IA. Et cela, en toute connaissance de cause.

Abonnés Free Mobile : attention, l’offre gratuite de Mistral arrive bientôt à expiration

21 janvier 2026 à 13:32

La période d’essai gratuite d’un an à Le Chat Pro de Mistral AI, déployée en février 2025 arrive bientôt à son terme, alerte Busyspider le 21 janvier 2026. Passé cette échéance, l’abonnement bascule automatiquement à 17,99 € par mois.

Kioxia annonce des hausses importantes de prix jusqu’en 2027

21 janvier 2026 à 13:05

Shunsuke Nakato vous connaissez ? Moi non plus. Ce haut responsable chez le fabricant de composants de stockage Kioxia est le triste porteur de très mauvaises nouvelles pour l’industrie informatique.

Un wafer de puces NAND de Kioxia

Un wafer de puces NAND de Kioxia

Un peu de contexte. Chez Kioxia comme chez les autres fabricants de stockage flash ou de mémoire vive, on fabrique des wafers. Des disques de siliciums qui embarquent des centaines de puces qui seront ensuite découpés pour devenir autant de composants NAND ou DRAM. Cette production est limitée. Chaque fabricant sait exactement combien il va pouvoir produire au maximum de wafers par an. Il peut y en avoir moins de produits pour diverses raisons techniques (panne électrique, tremblement de terre, problèmes divers) mais jamais plus. A moins d’étendre ses capacités avec de nouvelles machines et souvent d’ajouter des mètres carrés à ses usines, rien ne peut permettre d’augmenter cette production. On peut éspérer un meilleur rendement avec des optimisations de processus mais cela ne fait pas spécialement varier la capacité de production de manière significative. Les usines tournent déjà 24H sur 24, elles sont très automatisées et fonctionnent en continu.

SSD NVMe M.2 2280 KIOXIA

SSD NVMe M.2 2280 KIOXIA

Kioxia, comme les autres, sait donc faire une multiplication assez peu complexe. On entre le nombre de wafers dans une colonne de son tableur puis on le multiplie par le nombre de puces obtenues en moyenne par wafer en comptant le taux de pertes classique dans une autre colonne. On obtient alors le nombre de puces qui seront produites à l’année. Ce chiffre correspond à ce que la marque peut vendre, trimestre après trimestre.

Les clients de Kioxoa se positionnent donc pour obtenir ces composants non pas en sortie d’usine mais sur ce catalogue de production. Ils commandent par exemple 100 000 puces NAND sur toute l’année 2026. La marque leur établit alors un calendrier de livraison par trimestres. Elle reserve ensuite les 100 000 pièces par lots tout au long de l’année. 25 000 composants par trimestre. 

La mauvaise nouvelle de Kioxia

Ce qu’annonce Shunsuke Nakato est assez simple. Chez Kioxia, la totalité de la production de composants NAND nécessaires à la fabrication de SSD a déjà été vendue à ses clients. Cela ne veut pas dire qu’il n’y aura plus de composants disponibles pour 2026 mais bien qu’aucune autre puce ne pourra être achetée en plus de celles déjà vendues. Et nous sommes toujours au mois de janvier. Si Kioxia révèle cette information c’est parce que sur l’année 2025 par exemple, les commerciaux de Kioxia ne posaient pas leurs pieds sur le bureau pour doomscroller dès ce mois de janvier. Ils bossaient toute l’année pour écouler les puces produites par la marque auprès de leur client. En d’autres termes, la demande a été totalement folle et on peut se douter que, dès aujourd’hui, les clients du fabricant se positionnent pour la production de puces en… 2027.

30% d’augmentation sur le prix catalogue de Kioxia

Les fabricants de stockages SSD sont probablement sur la liste des acquéreurs de ces puces NAND et des SSD grand public seront évidemment disponibles sur le marché. Mais entre une année 2025 où l’offre était supérieure à la demande et une année 2026 où c’est totalement l’inverse, les tarifs ne seront pas les mêmes. Les centre de données liés à l’IA ont raflé une bonne partie du catalogue de la production anticipée pour cette année. Laissant le reste aux clients historiques de la marque  et à des prix largement plus importants qu’auparavant.

Et encore, la marque se targue d’une approche commerciale basée sur une relation à long terme. Kioxia n’a pas cédé à la pratique concernant à livrer les clients aux plus hautes enchères. Préférant proposer à ses partenaires historiques de la disponibilité sur cette année plutôt que de ramasser le plus gros pactole possible2

Chez Kioxia, cela se traduit par une hausse de 30% des tarifs à la source. Cette augmentation correspond en gros à ce qu’acceptent de payer les infrastructures nécessaires aux centre de données des IA aujourd’hui. Pour un fabricant de SSD grand public, il faut s’aligner là dessus. A ce prix, le catalogue de 2026 a été ouvert.

Cela ne veut pas dire que les prix des SSD ne vont augmenter que de 30% bien évidemment. C’est juste l’impact des prix sur le catalogue de Kioxia. Derrière vont se repercuter l’ensemble des impacts du marché. La rareté des puces va pousser les fabricants de SSD à monter leurs prix, simplement pour avoir une marge leur pemettant de survivre avec un plus faible volume de produits à vendre. Ensuite ce seront les mêmes échos qui se repercuteront sur toute la chaine. Les grossistes et les revendeurs auront eux aussi des salaires et des loyers à payer malgré une disponibilité de pièces inférieures. Ils augmenteront à leur tour leurs marges. Idem chez les fabricants de PC qui devront bien trouver l’argent nécessaire pour fonctionner avec moins de composants et donc moins de machines.

Sur la note du client final, je ne serais pas surpris de voir les tarifs plus que doubler d’ici la fin de l’année à capacité égale. Le pire étant que si le catalogue de Kioxoa est complet pour l’année 2026 dès ce mois de janvier, il est fort possible que la situation s’enlise ensuite plus durablement. Qui sait si les wafers de 2027 ne sont pas déjà en train d’être réquisitionnés par les centre de données d’IA ? Apprendrons nous en février que l’ensemble de la production de l’année prochaine a déjà été vendue ?

Si on regarde le marché aujourd’hui, le constat est déjà assez amer. On constate des hausses qui vont de 40 à plus de 120% entre les prix des SSDs de novembre 2025 et ceux de janvier 2026. 

Un espoir tout de même ?

Chez Kioxia, la hausse de la demande a été anticipée de deux manières. D’abord par l’augmentation de la production avec de nouvelles unités qui devraient entrer en service cette année. Le temps de roder tout cela et de l’optimiser au mieux, cela devrait permettre d’étendre les disponibilités du fabricant… l’année prochaine. 

La technologie BiCS Flash de 8e Génération de Kioxoa

Autre source d’espoirs ? L’évolution des technologies de la marque qui devrait permettre une augmentation des capacités des puces. Si la totalité des wafers de Kioxia n’aura surement pas droit à ces technologies, cette augmentation de densité des composants est une autre possibilité pour répondre à la demande.

Avec les autres acteurs de ce marché particulier qui cherchent des solutions du même type, on peut s’attendre à une embellie pour 2027 ? 2028 ? Peut être avant si le marché de l’IA ne répond pas aux ambitions et promesses de rentabilité promises. 

Source : TomsHardware

Kioxia annonce des hausses importantes de prix jusqu’en 2027 © MiniMachines.net. 2025

Claude peut désormais analyser vos données de santé : Anthropic muscle son IA médicale

21 janvier 2026 à 09:20

Claude, l'IA d'Anthropic, peut désormais se connecter à des données de santé grâce à quatre nouvelles intégrations : Apple Health (iOS), Health Connect (Android), HealthEx et Function Health. La fonctionnalité est pour l'instant proposée en bêta aux États-Unis pour les abonnés Pro et Max.

Quand l’IA analyse votre sommeil pour prédire votre avenir

21 janvier 2026 à 05:47

C’est vertigineux, et aussi précieux qu’angoissant. Savoir, en une nuit, si l’on développera un jour un cancer, une maladie cardiovasculaire ou des troubles neurologiques. De la science-fiction ? Non. Une prouesse déjà rendue possible par l’IA SleepFM.

Prédire précisément l’avenir de la santé d’un individu ? L’idée aurait semblé saugrenue il y a encore quelques années. Elle est pourtant en train de devenir une réalité concrète. Aujourd’hui, à partir d’une simple prise de sang, il est déjà possible d’estimer le risque de développer certaines maladies. L’analyse de gènes de prédisposition permet d’anticiper un cancer du sein, une maladie cardiovasculaire ou certains troubles neurologiques. La médecine dite prédictive progresse à grande vitesse.

Cette évolution repose sur deux piliers. D’abord, l’accumulation massive de données biologiques, génétiques et cliniques. Ensuite, l’essor de l’intelligence artificielle, capable de repérer, dans ces données, des signaux invisibles à l’œil humain. En 2025, plusieurs travaux publiés ont montré que les modèles d’IA pouvaient apprendre à partir de millions de données médicales hétérogènes et produire des prédictions de plus en plus fiables. L’IA n’invente rien. Elle révèle des régularités, des trajectoires, des probabilités.

Mais prédire ne veut pas dire savoir avec certitude. Toute la question est là.

Un exemple frappant vient du sommeil. Il ne représente pas seulement un temps de repos. C’est un phénomène biologique complexe qui reflète l’état du cerveau, du cœur, de la respiration et du métabolisme. Des troubles du sommeil peuvent précéder de plusieurs années l’apparition de maladies comme la démence, l’insuffisance cardiaque ou l’accident vasculaire cérébral.

Une étude récente, publiée début janvier 2026 dans Nature Medicine, a franchi une étape supplémentaire. Des chercheurs ont entraîné un modèle d’intelligence artificielle à partir de plus de 585 000 heures d’enregistrements de sommeil réalisés chez plus de 65 000 personnes. À partir d’une seule nuit, ce modèle, dénommé SleepFM, est capable d’estimer le risque de développer, dans les années suivantes, plus de 100 maladies différentes. Cela inclut la mortalité globale, les maladies cardiovasculaires, la démence ou certains troubles neurologiques.

Autrement dit, une nuit de sommeil permet de développer une sorte de photographie biologique du futur.

Cette performance impressionne. Elle interroge aussi.

Car que faire d’une information prédictive lorsque la probabilité annoncée est très élevée ? Imaginons qu’un test révèle un risque quasi certain de développer une maladie neurologique sévère dans les dix prochaines années. Comment vivre avec cette épée de Damoclès au-dessus de la tête ? Comment se projeter, travailler, aimer, faire des projets, lorsque l’avenir semble déjà écrit par un algorithme ? En réalité, cette situation existe déjà, notamment avec la maladie de Huntington, une pathologie génétique héréditaire. Quand on porte l’anomalie responsable, le risque de déclarer la maladie au cours de la vie est considéré comme quasi certain. C’est précisément pour cela que le dépistage prédictif y est très encadré, avec consultation de génétique, information, temps de réflexion et, souvent, un accompagnement psychologique. On reconnaît ainsi qu’un résultat biologique n’est pas seulement une donnée médicale : c’est aussi un choc possible dans une vie.

Le débat change profondément lorsque la prédiction ouvre une possibilité d’action. Si connaître un risque élevé permet de le limiter, de renforcer un suivi médical ou de proposer un traitement préventif, alors l’intérêt devient majeur. C’est déjà le cas pour certaines maladies cardiovasculaires ou certains cancers héréditaires, où une surveillance adaptée ou des chirurgies préventives sauvent des vies.

Dans le cas du sommeil, l’intérêt potentiel est considérable, car il est modifiable. On peut agir sur l’apnée, la régularité des horaires, la durée, la qualité respiratoire ou l’exposition à certains médicaments. Si un modèle d’IA identifie un risque accru de démence ou d’insuffisance cardiaque à partir du sommeil, cela ouvre la voie à des interventions précoces, simples et non invasives. Mieux dormir pour retarder ou éviter la maladie.

Il faut toutefois rester prudent. Les personnes incluses dans ces études ne représentent pas toute la population. Beaucoup ont été adressées pour des troubles du sommeil ou des problèmes de santé. Les prédictions sont statistiques, pas individuelles. Et les mécanismes biologiques précis reliant le sommeil à chaque maladie restent, pour une large part, à élucider.

La tentation serait grande de transformer ces outils en oracles modernes. Ce serait une erreur. L’IA ne doit pas décider à la place du patient ou du médecin. Elle doit éclairer, pas enfermer. La prédiction n’a de sens que si elle s’accompagne d’un choix, d’une discussion, d’une possibilité d’agir.

La médecine de demain ne sera ni totalement prédictive ni totalement curative. Elle sera plus anticipatrice, plus personnalisée, mais aussi plus exigeante sur le plan éthique. Savoir ce que l’on risque n’est pas toujours une bonne nouvelle. C’est une responsabilité.

L’étude sur le sommeil montre surtout une chose : notre corps parle avant que la maladie ne s’exprime. Encore faut-il savoir l’écouter, et surtout savoir quoi faire de ce qu’il nous dit.

L’article Quand l’IA analyse votre sommeil pour prédire votre avenir est apparu en premier sur Les Électrons Libres.

Bientôt des téléviseurs Sony moins chers ? Ce partenariat avec un constructeur chinois pourrait tout changer

20 janvier 2026 à 15:50

Le 20 janvier 2026, Sony a annoncé la création d’une coentreprise avec le constructeur chinois TCL. Cet accord prévoit le transfert de l’activité « home entertainment » du groupe japonais, qui comprend les téléviseurs et une large partie de son matériel audio domestique.

Google Gemini : cette nouvelle fonctionnalité va vous faire gagner un temps précieux

20 janvier 2026 à 13:18

Gemini, l’IA de Google, dispose désormais d’un bouton « Réponds maintenant », qui permet de sauter la phase de réflexion approfondie tout en conservant le modèle sélectionné, rapporte 9to5Google dans un article publié le 18 janvier 2025.

En pleine pénurie de RAM, ce constructeur historique arrête les smartphones

20 janvier 2026 à 10:26

Asus « ne proposera plus de nouveaux modèles de téléphones mobiles à l’avenir », a indiqué le patron de l’entreprise, Jonney Shih, le 16 janvier 2026. Le constructeur met ainsi fin à ses gammes ROG Phone et Zenfone, et choisit de concentrer ses investissements sur l’IA.

Corriger des copies par IA, fiction ou réalité ?

20 janvier 2026 à 05:35

Cent soixante-cinq heures. C’est, en moyenne, le temps nécessaire au travail de correction pour un enseignant français. Cent soixante-cinq heures d’un travail éprouvant et répétitif. Cent soixante-cinq heures qui, multipliées par des centaines de milliers de profs, constituent une charge aussi indispensable que colossale pour le système éducatif. Et si l’IA pouvait changer la donne ?

Soixante-huit milliards d’euros de budget annuel. Près d’un million d’enseignants. Un ministère tentaculaire, aujourd’hui confronté à une crise profonde. Crise des vocations, d’abord, avec des difficultés croissantes de recrutement. Crise du niveau des élèves, ensuite, illustrée par le décrochage de la France dans les classements internationaux, notamment PISA. Dans ce contexte, difficile de ne pas s’interroger sur les leviers capables d’enrayer cette spirale.

L’intelligence artificielle, entrée brutalement dans notre quotidien avec ChatGPT il y a trois ans, pourrait bien faire partie des solutions. Non pas en remplaçant les enseignants, scénario qui relève toujours de la science-fiction, mais en s’attaquant à un angle mort du débat public : le travail invisible du professeur. Car près de la moitié de son activité se déroule hors de la classe, entre préparation des cours et correction des copies.

À ce titre, l’Éducation nationale dispose d’un gisement considérable de gains d’efficacité grâce aux outils numériques. Un potentiel que les instances ministérielles ont d’ailleurs commencé à explorer, en lançant une stratégie de développement d’agents conversationnels destinés à accompagner élèves et personnels, et en proposant des parcours de formation spécifiquement dédiés à l’IA.

Sujet tabou

C’est dans ce cadre qu’en octobre dernier, la région Hauts-de-France organisait un vaste webinaire à destination de l’ensemble des enseignants, afin de présenter les promesses, les enjeux, mais aussi les risques liés à l’usage de l’intelligence artificielle. De nombreuses pistes ont été évoquées pour alléger le travail de préparation pédagogique. Mais une question, pourtant centrale, brillait par son absence : celle de l’assistance à la correction.

Il aura fallu qu’un enseignant ose poser la question frontalement pour que le sujet soit enfin abordé… et aussitôt refermé. Selon les formateurs présents, l’usage de l’IA comme aide à la correction n’est aujourd’hui « pas recommandé », voire carrément proscrit. En cause, des outils jugés encore peu fiables, des interrogations sur la protection des données personnelles et, surtout, une conviction profondément ancrée : la correction manuelle ferait partie intégrante de l’acte pédagogique et de l’identité professionnelle de l’enseignant.

Examino : la French Tech au service des profs

J’approfondis

Certes, reconnaissent-ils, la correction est « coûteuse en temps ». Mais elle participerait directement à la « construction de l’acte pédagogique ». Comment, sans elle, identifier les obstacles rencontrés par les élèves et ajuster son enseignement en conséquence ?

Une position ferme, et qui semble frappée au coin du bon sens.

Un lourd tribut

Et pourtant, ce débat mérite mieux que des postures dogmatiques, même lorsqu’elles se parent d’une évidence de façade. Prenons donc le temps de regarder les chiffres, car la fameuse « construction de l’acte pédagogique » par la correction a un coût. Un coût élevé. Et pas uniquement pour la santé mentale des enseignants.

Rien que pour le baccalauréat, plus d’un million de copies doivent être corrigées chaque année, mobilisant environ un demi-million d’heures de travail cumulées. Une tâche souvent ingrate, faiblement rémunérée, qui représente pourtant à elle seule plus de 4 millions d’euros pour l’État. Mais se limiter aux examens serait réducteur. En moyenne, un enseignant consacre environ 4,6 heures par semaine à la correction, soit près de 11 % de son temps de travail total. Rapporté au coût global des enseignants en activité (environ 50 milliards d’euros par an), la seule correction des copies représente un ordre de grandeur de 5,5 milliards d’euros annuels. L’équivalent, peu ou prou, du budget du ministère de l’Agriculture.

Source : Ministère de l’Éducation Nationale

Gardons toutefois les pieds sur terre : confier la correction à des IA ne ferait pas disparaître mécaniquement cette dépense. En revanche, cela pourrait libérer du temps enseignant pour des tâches moins pénibles et potentiellement plus utiles aux élèves. Moins de travail à la maison, c’est aussi la possibilité d’imaginer davantage de soutien individualisé, voire une évolution vers des classes à effectifs réduits. La perte de connaissance fine des élèves, invoquée pour justifier la correction manuelle, serait-elle alors réellement un problème… ou pourrait-elle être compensée autrement ?

D’autant qu’une correction automatisée pourrait fournir des retours détaillés sur les erreurs individuelles, identifier les difficultés récurrentes à l’échelle d’une classe, et n’exclurait nullement que l’enseignant lise un échantillon de copies à chaque devoir. Autrement dit, la correction par IA ne signifie pas l’abandon du regard pédagogique, mais sa réorganisation.

Et les bénéfices potentiels ne seraient pas uniquement comptables. Ils pourraient aussi être d’ordre pédagogique : davantage d’annotations pour les élèves, plus d’évaluations au cours de l’année, et peut-être même une plus grande équité, les résultats ne dépendant plus de la fatigue ou de la sévérité variable du correcteur.

À une condition essentielle, toutefois : que l’intelligence artificielle soit capable de faire ce travail avec un niveau de fiabilité suffisant.

L’humain face à la machine

Printemps 2024. En pleine « GPT mania », Thibaud Hayette, professeur de français dans l’académie de Lyon, décide de passer de la théorie à l’expérimentation. Avec l’accord de sa hiérarchie, il se procure sept copies de brevet et les soumet à ChatGPT. L’objectif est simple : tester, concrètement, la fiabilité d’un outil d’intelligence artificielle dans une tâche de correction.

Ce qui relevait encore, quelques années plus tôt, d’un « fantasme de prof » se révèle rapidement bien plus sérieux que prévu. La correction est quasi instantanée, richement commentée, et surtout, les notes attribuées par l’agent conversationnel s’avèrent remarquablement proches de celles des correcteurs humains. Une surprise, même pour l’enseignant.

Un point noir subsiste néanmoins : la reconnaissance de l’écriture manuscrite. L’OCR (la Reconnaissance Optique de Caractère), encore imparfaite, contraint Thibaud à retaper lui-même les copies. Un frein réel, mais depuis, de nouveaux modèles ont vu le jour, affichant des progrès constants.

Correction pour un champion

J’approfondis

Nous avons pu récupérer les copies utilisées par Thibaud afin de mener nos propres tests, et les résultats sont encourageants. Avec un taux d’erreur limité à 6%, Google AI Studio (utilisant le modèle Gemini 3 Pro) ne se trompe en moyenne que sur un mot sur dix-sept. Un ratio suffisamment faible pour ne pas entacher la compréhension globale d’une copie, mais qui reste problématique pour certains exercices, comme la dictée. Et sur des écritures particulièrement difficiles, l’OCR reste un obstacle. Du moins, pour l’instant.

Une fois cette étape franchie, les performances des modèles deviennent franchement impressionnantes. Nous avons testé quatre systèmes parmi les plus réputés du moment : Gemini 3 Pro (via Google AI Studio), Claude Sonnet 4.5, ChatGPT 5.2 et Mistral Large 3. À cela s’ajoute l’évaluation de la plateforme spécialisée Examino. Résultat : quel que soit le modèle, l’écart moyen sur la note globale par rapport à une correction humaine reste systématiquement inférieur à 10 %. Pour les modèles les plus performants, comme pour Examino, il tourne même autour de 6 %. Mieux encore, lorsque l’on répète plusieurs fois la correction d’une même copie, la variabilité aléatoire reste contenue, entre 3 et 4 %.

Mais un écart de 10 % avec un correcteur humain, est-ce déjà trop ? Pas nécessairement. Car il ne faut pas oublier que les correcteurs humains eux-mêmes ne sont pas infaillibles. S’il n’existe pas de statistiques officielles, les expérimentations disponibles évoquent généralement des écarts-types de 2 à 3 points sur 20, soit 10 à 15 %. Et dans certains cas, les différences entre correcteurs peuvent grimper à 10 points… voire davantage.

À l’aune de ces éléments, la variabilité observée avec les IA apparaît donc nettement inférieure à celle qui existe entre correcteurs humains. D’autant plus que la correction automatisée offre un avantage décisif : la possibilité de faire corriger plusieurs fois la même copie par la machine, puis d’en calculer une moyenne, afin de lisser les variations aléatoires. Une option tout simplement impossible à grande échelle avec une correction manuelle.

L’inertie du mammouth

Si la faisabilité technique de la correction par IA ne fait désormais plus guère de doute, les principaux freins se situent ailleurs. Pour qu’une adoption à grande échelle devienne possible, encore faut-il que l’institution s’empare réellement du sujet. Or, à en juger par le contenu des webinaires et formations estampillés Éducation nationale, l’intelligence artificielle reste d’abord perçue comme un risque potentiel, bien plus que comme une solution opérationnelle.

Le « Cadre d’usage de l’IA en éducation » donne le ton sans ambiguïté, en rappelant que « l’utilisation de l’IA pose des questions éthiques, déontologiques et écologiques ». L’intention est louable : poser des garde-fous clairs pour prévenir les dérives. Mais le mieux est parfois l’ennemi du bien, et une focalisation quasi exclusive sur les risques supposés, au détriment des gains possibles, pourrait freiner durablement le déploiement de l’IA au sein des services.

Et quand bien même une volonté politique affirmée émergerait en faveur de l’usage de l’IA pour la correction des copies, sa traduction concrète dans les pratiques prendrait du temps. Avec ses effectifs pléthoriques et ses processus lourds, le ministère de l’Éducation nationale n’est pas réputé pour sa souplesse, et l’inertie institutionnelle y est souvent considérable.

À cela s’ajoute la réticence d’une partie du corps enseignant lui-même. Dans un climat général marqué à gauche par une technophobie ambiante, l’intelligence artificielle reste souvent perçue comme un outil superficiel et dispensable… voire comme une menace, en raison notamment des usages détournés qu’en font certains élèves.

Si, pour l’Éducation nationale, la perspective d’économies constitue sans doute le levier le plus efficace pour faire bouger les lignes, il ne faudrait pas perdre de vue l’essentiel. La correction automatisée pourrait avant tout apporter des bénéfices très concrets aux personnels, et plus encore à la jeunesse. Du temps et du confort retrouvés pour les enseignants, avec à la clé des heures précieuses libérées. Et, pour les élèves, des retours plus riches sur leurs productions, ainsi qu’une évaluation plus cohérente, plus lisible et mieux harmonisée.

S’il est probable que l’intelligence artificielle s’impose, dans un horizon relativement proche, comme un outil d’aide à la correction des copies d’examen, pour les usages plus quotidiens, en revanche, il faudra sans doute attendre que la profession ouvre les yeux sur cet outil, dont les promesses apparaissent aujourd’hui aussi enthousiasmantes que vertigineuses.

L’article Corriger des copies par IA, fiction ou réalité ? est apparu en premier sur Les Électrons Libres.

Elon Musk veut vider les caisses d’OpenAI et Microsoft : il réclame 134 milliards de dollars

19 janvier 2026 à 15:57

Elon Musk réclame désormais 134 milliards de dollars à OpenAI et à son partenaire Microsoft, dénonçant la transformation de son projet humaniste initial en une structure commerciale lucrative. Un procès devant jury est officiellement attendu pour avril 2026.

Revue de presse de l’April pour la semaine 3 de l’année 2026

Par : echarp
19 janvier 2026 à 14:24

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Numerama] Contrôles CAF: comment fonctionne le nouvel algorithme de data mining?

✍ Amine Baba Aissa, le dimanche 18 janvier 2026.

Alors que le dispositif avait suscité de nombreuses critiques au sein d’associations en France, la CNAF a choisi de ne pas renoncer à son algorithme de contrôle des allocataires et vient de déployer un nouveau modèle de «data mining».​ Cette fois, l’organisme mise sur une communication plus transparente et a décidé

[Mediapart] Wikipédia, les 25 ans d'une utopie réussie devenue le punching-ball de l'extrême droite (€)

✍ Dan Israel, le jeudi 15 janvier 2026.

L’encyclopédie en ligne, gratuite et coopérative, a été lancée le 15 janvier 2001. Avec 65 millions d’articles en 326 langues, son succès a dépassé toutes les attentes, malgré les critiques régulière…"

[Républik IT Le Média] Software Heritage: dix ans de préservation du patrimoine applicatif

✍ Bertrand Lemaire, le mercredi 14 janvier 2026.

Le 28 janvier 2026, Software Heritage fêtera ses dix ans à l’Unesco. Morane Gruenpeter, directrice de la verticale Open-Science, et Bastien Guerry, responsable des partenariats, présentent cette initiative qui vise à préserver le patrimoine applicatif quelque soit le sort des éditeurs ou les feuilles de route de ceux-ci.

[ZDNET] Logiciel libre et souveraineté: la Commission européenne lance un appel à contributions

✍ Thierry Noisette, le lundi 12 janvier 2026.

La Commission propose jusqu’au 3 février aux développeurs, entreprises et communautés open source, administrations et chercheurs de contribuer à la future stratégie européenne d’écosystème numérique ouvert. En identifiant les obstacles à l’adoption de l’open source et en suggérant des mesures concrètes.

Et aussi:

Commentaires : voir le flux Atom ouvrir dans le navigateur

La Chine ouvre des « écoles publiques » pour éduquer ses robots humanoïdes

19 janvier 2026 à 13:12

Depuis plusieurs mois, la Chine ouvre des centres publics dédiés à l’entraînement des robots humanoïdes. Dans ces sortes de lycées professionnels pour machines, des cybertravailleurs -- souvent étudiants -- répètent inlassablement des gestes du quotidien pour apprendre aux robots à évoluer dans le monde réel.

Nearly 5 Million Accounts Removed Under Australia's New Social Media Ban

Par : BeauHD
17 janvier 2026 à 13:00
An anonymous reader quotes a report from the New York Times: Nearly five million social media accounts belonging to Australian teenagers have been deactivated or removed, a month after a landmark law barring those younger than 16 from using the services took effect, the government said on Thursday. The announcement was the first reported metric reflecting the rollout of the law, which is being closely watched by several other countries weighing whether the regulation can be a blueprint for protecting children from the harms of social media, or a cautionary tale highlighting the challenges of such attempts. The law required 10 social media platforms, including Instagram, Facebook, Snapchat and Reddit, to prevent users under 16 from accessing their services. Under the law, which came into force in December, failure by the companies to take "reasonable steps" to remove underage users could lead to fines of up to 49.5 million Australian dollars, about $33 million. [...] The number of removed accounts offered only a limited picture of the ban's impact. Many teenagers have said in the weeks since the law took effect that they were able to get around the ban by lying about their age, or that they could easily bypass verification systems. The regulator tasked with enforcing and tracking the law, the eSafety Commissioner, did not release a detailed breakdown beyond announcing that the companies had "removed access" to about 4.7 million accounts belonging to children under 16. Meta, the parent company of Instagram and Facebook, said this week that it had removed almost 550,000 accounts of users younger than 16 before the ban came into effect. "Change doesn't happen overnight," said Prime Minister Anthony Albanese. "But these early signs show it's important we've acted to make this change."

Read more of this story at Slashdot.

La marque low-cost Dacia remporte le Dakar 2026 avec Nasser Al-Attiyah et Fabian Lurquin !

17 janvier 2026 à 11:01

Les Dacia Sandriders sont venus, ils ont vu, ils ont vaincu ! C’est la première victoire de la marque roumaine Dacia (groupe Renault) sur un [...]

L’article La marque low-cost Dacia remporte le Dakar 2026 avec Nasser Al-Attiyah et Fabian Lurquin ! est apparu en premier sur Le Blog Auto.

Financement de Wikipédia : pourquoi Microsoft et Perplexity passent à la caisse ?

16 janvier 2026 à 17:09

wikipédia

L’encyclopédie libre fête son quart de siècle le 15 janvier 2026. Pour marquer le coup, la fondation officialise des contrats majeurs avec les géants de la tech : pour entraîner leurs IA, ils doivent désormais payer l'accès aux serveurs.

Fini l’open bar : Wikipédia obtient enfin des géants de l’IA qu’ils paient pour les chatbots

16 janvier 2026 à 15:45

wikipédia

L’encyclopédie libre fête son quart de siècle le 15 janvier 2026. Pour marquer le coup, la fondation officialise des contrats majeurs avec les géants de la tech : pour entraîner leurs IA, ils doivent désormais payer l'accès aux serveurs.

Raspberry Pi AI HAT+ 2 : l’étrange IA de monsieur Upton

16 janvier 2026 à 13:40

L’AI HAT+ 2 est une nouvelle solution destinée à proposer des fonctions d’Intelligence Artificielle aux cartes Raspberry Pi 5. L’extension est pensée pour fonctionner sans consommer trop de ressources et localement. Elle fonctionne avec un NPU plus performant que les précédentes versions et elle est pensée pour prendre en charge aussi bien des applications de détection d’objets que de piloter des LLM.

Raspberry Pi AI HAT+ 2

L’extension Raspberry Pi AI HAT+ 2 m’apparait toutefois assez étrange, car si elle proposera plus de fonctions, elle ne semble pas du tout révolutionner les possibilités offertes par la carte de base qu’est la Pi 5. La nouvelle venue embarque bien un NPU Hailo-10H qui développe 40 TOPS d’inférence INT4. Elle est également proposée avec un module de 8 Go de mémoire vive LPDDR4x soudé. Ce qui lui donne un prix assez élevé, probablement à cause de la mémoire vive qu’elle embarque. On la trouve en Europe aux environs de 140€.

Sur le papier, le jeu en vaut la chandelle. L’ajout de la mémoire vive dédiée permet de ne pas venir amputer la mémoire vive de la carte Raspberry Pi 5. Avec 8 Go, on peut monter plusieurs modèles de LLM basiques directement sur cette mémoire et donc les exploiter en laissant tranquille ceux du système Linux embarqué. L’idée étant également de pouvoir profiter des compétences combinées des deux puces assemblées. La Broadcom du Raspberry 5 et la Hailo-10H de son HAT.

HAilo met en avant plusieurs LLM compatibles avec cette formule. Des modèles « basiques » avec 1.5 milliards de paramètres. On parle ici de DeepSeek-R1-Distill, de Llama3.2 et des séries Qwen2.5-Coder, Qwen2.5-Instruct et Qwen2. Et les résultats proposés ont l’air assez bons en termes de vitesse de traitement, comme le montre la vidéo en intro de ce billet. Les usages de ces LLM sont très variés : du chatbot à la rédaction de courriers, du traitement de données comme l’organisation de tableaux et même la promesse d’une aide au code. Et cela toujours en usage totalement local.

En pratique, pour avoir essayé ces LLMs avec d’autres matériels, les résultats proposés ne sont pas extraordinaires. Voir médiocres. Certains traitements simples sont excellents comme la fabrication de tableaux ou la mise en forme de données. D’autres sont simplement mauvais avec des informations erronées, des réponses hallucinées et des résultats souvent tellement catastrophiques qu’on passe plus de temps à vérifier ce qui est proposé qu’à rédiger la réponse sans aide… Les options de traduction Llama3.2, par exemple, sont assez ridicules. Les contresens sont nombreux, certaines formulations classiques sont comprises de travers et l’utilisation de  simples métaphores provoquent fréquemment de vrais fous rires.

Mais ce n’est pas vraiment le plus gros problème de cette proposition. On peut très bien imaginer l’intérêt de ce que propose ce Raspberry Pi AI HAT+ 2 ailleurs. Il y a quelques années, je vous expliquais pourquoi monter un cluster de Raspberry Pi était intéressant. Non pas parce que monter 10 cartes de ce type permettait une alternative à un véritable serveur beaucoup plus couteux. Non, plutôt de se faire la main sur ce type d’infrastructure. Un moyen de simuler le déploiement d’outils de supervision sur un matériel réel et très formateur. Il en est de même ici : la carte va permettre d’apprendre à piloter ce type de solution IA et donc de mener à bien des projets. D’acquérir de l’expérience et pouvoir en répliquer la logique sans avoir à acheter ou à louer des serveurs hors de prix.

D’un point de vue pratique, le Raspberry Pi AI HAT+ 2 embarque un Hailo-10H, un NPU plus puissant que les NPU Hailo-8 précédents. Ce qui lui offre deux autres avantages en plus de sa mémoire vive embarquée. Il est plus rapide en traitement et il est capable de piloter un LLM en plus d’un traitement de flux vidéo en même temps. L’extension reprend le format des modèles précédents. On a d’abord eu droit à un HAT Raspberry Pi AI Kit développant 13 TOPS sous Hailo 8L en juin 2024, puis, en octobre de la même année, à deux autres modèles : un en 13 TOPS toujours sous Hailo 8L et un en 26 TOPS avec le choix d’un Hailo 8

Toutes se ressemblent physiquement. Les extensions se montent grâce à des entretoises par-dessus la carte RPi5 en s’appuyant sur ses broches GPIO. Le  Raspberry Pi AI HAT+ 2 ne les exploite pas mais ne fait que les reporter un étage plus haut pour que l’utilisateur puisse les connecter. La liaison entre le NPU et la carte de base se est possible par la classique nappe fournie. L’extension nécessitera absolument la mise en place d’un système de refroidissement passif : la puce devra être couverte par un petit dissipateur en aluminium fourni. Il faudra également prévoir un peu d’aération au-dessus de celui-ci pour une intégration dans un projet. 

Je n’ai pas de Raspberry Pi AI HAT+ 2 sous la main mais Jeff Gerling en a reçu un et ses conclusions sont assez claires. Les performances apportées par l’extension ne sont pas révolutionnaires. À vrai dire, le Hailo-10H est moins performant dans tous les usages que le SoC Broadcom du Pi 5 quand il est également épaulé par 8 Go de mémoire vive LPDDR4x…

La seule différence vient de l’efficience de la solution externe qui consomme moins de watts pour arriver au même résultat, même si elle le fait plus lentement. Cela est lié à la consommation générale plus importante de la puce Broadcom qui n’est pas explicitement spécialisée dans le calcul d’IA.

Le plus gênant reste cependant que l’usage de ces modèles de LLM très léger reste indéniablement médiocre. La vidéo de Jeff est on ne peut plus claire. Les résultats proposés ne sont pas utiles. C’est très mignon de proposer une extension qui va pouvoir les embarquer, mais au-delà de la phase d’installation et de l’apprentissage des usages du dispositif, leur exploitation est finalement contre productive. 

C’est pour moi le syndrome du « piano désaccordé ». Vous allez apprendre le solfège, maitriser la technique des accords et même apprendre à jouer par cœur des morceaux sur votre piano totalement désaccordé. Mais jamais vous ne vous enregistrerez dessus, pas plus que vous donnerez un récital avec. Ces petits LLM sont là pour se faire la main et apprendre leur mécanique d’installation pour le jour où vous devrez travailler sur un grand modèle. Ce jour-là, vous donnerez votre récital sur un magnifique piano à queue en provenance d’un grand fabricant. C’est-à-dire un LLM beaucoup plus complet et riche en paramètres monté sur une machine autrement plus chère.

Jeff est tout aussi perplexe que moi

C’est tout le paradoxe de cette offre de Raspberry Pi. Un Pi 5 avec 16 Go de mémoire vive sera finalement plus compétent que cette extension avec 8 Go dédié. A la fois en vitesse mais aussi et surtout en pertinence des résultats. Reste la possibilité de fabriquer votre propre LLM en l’entrainant vous-même. Dans ce cas précis, l’extension pourrait avoir tout son sens. Mais il ne s’agit plus ici d’un emploi « out of the box » du HAT. Plutôt d’un travail de longue haleine avec des besoins extrêmement spécifiques et souvent le besoin de matériel supplémentaire autrement plus cher pour conduire cet entraînement.

Le principal intérêt du Raspberry Pi AI HAT+ 2 est donc ailleurs

La gestion des VLM ou « modèle vision-langage » est excellente avec le Hailo-10H. Il s’agit de faire analyser ce que voit le système avec une caméra pour en déduire des choses en langage naturel. Les précédents modèles d’extensions IA de Raspberry Pi étaient déjà capables de multiples choses du genre : compter des personnes dans une pièce, reconnaitre des objets, lire des plaques d’immatriculation ou faire des statistiques de trafic routier.

Le module Raspberry Pi AI Camera

Le module Raspberry Pi AI Camera

La nouvelle extension permet de voir le monde et de reconnaitre des objets en temps réel avec une vitesse assez impressionnante. On pourra analyser une scène vue par l’oeil d’une webcam et en dresser le listing en format texte. Il sera par exemple possible de faire réagir le système si certaines correspondances sont trouvées dans une liste. Un lecteur est, par exemple, en train de monter un système qui analyse les entrées et sorties devant une de ses ruches dans l’espoir d’entrainer une IA pour reconnaitre et différencier ses abeilles d’éventuels prédateurs comme le frelon asiatique. Son objectif étant de pouvoir les chasser en les aspergeant dès qu’ils seront reconnus. Ce travail est fait grâce à une solution Raspberry Pi AI Camera. Module à 80€ et qui fonctionne déjà extrêmement bien. Son NPU permet un traitement VLM à 30 images par seconde. Ce type de traitement très spécifique est impossible pour la puce Broadcom seule à cette vitesse. On tournera au mieux à 1 ou 2 images par seconde. 

Ce qui sera donc intéressant, ici, est la capacité de cette extension à ouvrir la porte à un pilotage des deux usages en parallèle. Par exemple la vision et l’identification d’objets et le traitement de ces données par un LLM. Une fois bien entrainé, on peut imaginer une solution assez simple de vérification visuelle et la gestion d’un rapport synthétique de cette analyse.

Raspberry Pi AI HAT+ 2

Raspberry Pi AI HAT+ 2

Pour le moment la partie logicielle semble en retrait pour cette extension et je suppose que cela a tout à voir avec la nouvelle vision de Raspberry Pi. La fondation des débuts est désormais remplacée par une société classique qui se préoccupe plus de ses clients industriels que des simples particuliers. Or ces clients professionnels  vont trouver très rapidement un intérêt à ce type de produit qu’ils vont entrainer pour des tâches hyper spécifiques. Les particuliers, de leur côté, ont pour la majorité besoin d’une solution clés en main qui n’existe pas pour le moment. 

Quand un industriel va construire une machine qui exigera le suivi d’un protocole ou la présence de certains éléments avant son actionnement, on comprend tout l’intérêt de ce type de produit. Un ascenseur qui ne doit pas accueillir plus de x personnes refusera de se mettre en marche s’il en détecte une de plus. Un vendeur qui veut une vérification de la présence de l’ensemble des produits d’une commande dans un colis pourra coller une caméra sur un tapis roulant et analyser en temps réel la correspondance des produits vendus par rapport à la liste de colisage. Des milliers d’usages professionnels sont imaginables avec ce Raspberry Pi AI HAT+ 2.

L’exemple donné par Hailo pour une exploitation des LLM et VLM en parallèle avec ses puces 10H est assez parlant. La marque met en avant un système de caisse autonome qui va surveiller ce que l’utilisateur fait, ce qu’il pose dans son panier et ce qu’il paye. Tout cela pour contrôler et déduire si le client n’oublie pas de payer des produits. C’est quelque chose de très spécifique qui demandera des aménagements précis et une programmation sur mesure. Les industriels n’ont donc pas besoin d’un développement logiciel, ils vont s’en charger eux-mêmes. 

Les particuliers, quant à eux, vont devoir attendre que les solutions fonctionnent, soit parce que Raspberry Pi proposera des mises à jour, soit parce que Hailo s’en chargera. Aujourd’hui, la cohabitation VLM et LLM sur l’extension ne semble pas fonctionnelle. Peut-être que la solution viendra des utilisateurs et développeurs chevronnés toujours très présents sur la plateforme. Dans quel délai et avec quelles performances ? Impossible à dire.

Il y a sans doute plein de choses à imaginer avec ce kit Raspberry Pi AI HAT+ 2 et la combinaison des deux IA peut avoir beaucoup de sens. En robotique par exemple, on peut très bien imaginer des prises de décision ou d’adaptation à l’environnement grâce à cet équipement local et peu gourmand en énergie. Mais pour les usages qui ne mixent pas ces deux univers LLM et VLM, il paraît plus utile de choisir entre un duo Raspberry Pi 5 16 Go pour le premier et Raspberry Pi 5 8 Go associé à une Raspberry Pi AI Camera pour le second.

Raspberry Pi AI HAT+ 2 : l’étrange IA de monsieur Upton © MiniMachines.net. 2025

Plus besoin de cloud : Google rend la traduction automatique locale avec TranslateGemma

16 janvier 2026 à 10:34

Google DeepMind a dévoilé, le 15 janvier 2026, « TranslateGemma », une nouvelle suite de modèles de traduction ouverts capables de fonctionner entièrement en local. Et ce, aussi bien sur un smartphone que sur des serveurs personnels.

Wikipedia Signs AI Licensing Deals On Its 25th Birthday

Par : msmash
15 janvier 2026 à 15:20
Wikipedia turns 25 today, and the online encyclopedia is celebrating that with an announcement that it has signed new licensing deals with a slate of major AI companies -- Amazon, Microsoft, Meta Platforms, Perplexity and Mistral AI. The deals allow these companies to access Wikipedia content "at a volume and speed designed specifically for their needs." The Wikimedia Foundation did not disclose financial terms. Google had already signed on as one of the first enterprise customers back in 2022. The agreements follow the Wikimedia Foundation's push last year for AI developers to pay for access through its enterprise platform. The foundation said human traffic had fallen 8% while bot visits -- sometimes disguised to evade detection -- were heavily taxing its servers. Wikipedia founder Jimmy Wales said he welcomes AI training on the site's human-curated content but that companies "should probably chip in and pay for your fair share of the cost that you're putting on us." The site remains the ninth most visited on the internet, hosting more than 65 million articles in 300 languages maintained by some 250,000 volunteer editors.

Read more of this story at Slashdot.

❌