Vue lecture

Corriger des copies par IA, fiction ou réalité ?

Cent soixante-cinq heures. C’est, en moyenne, le temps nécessaire au travail de correction pour un enseignant français. Cent soixante-cinq heures d’un travail éprouvant et répétitif. Cent soixante-cinq heures qui, multipliées par des centaines de milliers de profs, constituent une charge aussi indispensable que colossale pour le système éducatif. Et si l’IA pouvait changer la donne ?

Soixante-huit milliards d’euros de budget annuel. Près d’un million d’enseignants. Un ministère tentaculaire, aujourd’hui confronté à une crise profonde. Crise des vocations, d’abord, avec des difficultés croissantes de recrutement. Crise du niveau des élèves, ensuite, illustrée par le décrochage de la France dans les classements internationaux, notamment PISA. Dans ce contexte, difficile de ne pas s’interroger sur les leviers capables d’enrayer cette spirale.

L’intelligence artificielle, entrée brutalement dans notre quotidien avec ChatGPT il y a trois ans, pourrait bien faire partie des solutions. Non pas en remplaçant les enseignants, scénario qui relève toujours de la science-fiction, mais en s’attaquant à un angle mort du débat public : le travail invisible du professeur. Car près de la moitié de son activité se déroule hors de la classe, entre préparation des cours et correction des copies.

À ce titre, l’Éducation nationale dispose d’un gisement considérable de gains d’efficacité grâce aux outils numériques. Un potentiel que les instances ministérielles ont d’ailleurs commencé à explorer, en lançant une stratégie de développement d’agents conversationnels destinés à accompagner élèves et personnels, et en proposant des parcours de formation spécifiquement dédiés à l’IA.

Sujet tabou

C’est dans ce cadre qu’en octobre dernier, la région Hauts-de-France organisait un vaste webinaire à destination de l’ensemble des enseignants, afin de présenter les promesses, les enjeux, mais aussi les risques liés à l’usage de l’intelligence artificielle. De nombreuses pistes ont été évoquées pour alléger le travail de préparation pédagogique. Mais une question, pourtant centrale, brillait par son absence : celle de l’assistance à la correction.

Il aura fallu qu’un enseignant ose poser la question frontalement pour que le sujet soit enfin abordé… et aussitôt refermé. Selon les formateurs présents, l’usage de l’IA comme aide à la correction n’est aujourd’hui « pas recommandé », voire carrément proscrit. En cause, des outils jugés encore peu fiables, des interrogations sur la protection des données personnelles et, surtout, une conviction profondément ancrée : la correction manuelle ferait partie intégrante de l’acte pédagogique et de l’identité professionnelle de l’enseignant.

Examino : la French Tech au service des profs

J’approfondis

Certes, reconnaissent-ils, la correction est « coûteuse en temps ». Mais elle participerait directement à la « construction de l’acte pédagogique ». Comment, sans elle, identifier les obstacles rencontrés par les élèves et ajuster son enseignement en conséquence ?

Une position ferme, et qui semble frappée au coin du bon sens.

Un lourd tribut

Et pourtant, ce débat mérite mieux que des postures dogmatiques, même lorsqu’elles se parent d’une évidence de façade. Prenons donc le temps de regarder les chiffres, car la fameuse « construction de l’acte pédagogique » par la correction a un coût. Un coût élevé. Et pas uniquement pour la santé mentale des enseignants.

Rien que pour le baccalauréat, plus d’un million de copies doivent être corrigées chaque année, mobilisant environ un demi-million d’heures de travail cumulées. Une tâche souvent ingrate, faiblement rémunérée, qui représente pourtant à elle seule plus de 4 millions d’euros pour l’État. Mais se limiter aux examens serait réducteur. En moyenne, un enseignant consacre environ 4,6 heures par semaine à la correction, soit près de 11 % de son temps de travail total. Rapporté au coût global des enseignants en activité (environ 50 milliards d’euros par an), la seule correction des copies représente un ordre de grandeur de 5,5 milliards d’euros annuels. L’équivalent, peu ou prou, du budget du ministère de l’Agriculture.

Source : Ministère de l’Éducation Nationale

Gardons toutefois les pieds sur terre : confier la correction à des IA ne ferait pas disparaître mécaniquement cette dépense. En revanche, cela pourrait libérer du temps enseignant pour des tâches moins pénibles et potentiellement plus utiles aux élèves. Moins de travail à la maison, c’est aussi la possibilité d’imaginer davantage de soutien individualisé, voire une évolution vers des classes à effectifs réduits. La perte de connaissance fine des élèves, invoquée pour justifier la correction manuelle, serait-elle alors réellement un problème… ou pourrait-elle être compensée autrement ?

D’autant qu’une correction automatisée pourrait fournir des retours détaillés sur les erreurs individuelles, identifier les difficultés récurrentes à l’échelle d’une classe, et n’exclurait nullement que l’enseignant lise un échantillon de copies à chaque devoir. Autrement dit, la correction par IA ne signifie pas l’abandon du regard pédagogique, mais sa réorganisation.

Et les bénéfices potentiels ne seraient pas uniquement comptables. Ils pourraient aussi être d’ordre pédagogique : davantage d’annotations pour les élèves, plus d’évaluations au cours de l’année, et peut-être même une plus grande équité, les résultats ne dépendant plus de la fatigue ou de la sévérité variable du correcteur.

À une condition essentielle, toutefois : que l’intelligence artificielle soit capable de faire ce travail avec un niveau de fiabilité suffisant.

L’humain face à la machine

Printemps 2024. En pleine « GPT mania », Thibaud Hayette, professeur de français dans l’académie de Lyon, décide de passer de la théorie à l’expérimentation. Avec l’accord de sa hiérarchie, il se procure sept copies de brevet et les soumet à ChatGPT. L’objectif est simple : tester, concrètement, la fiabilité d’un outil d’intelligence artificielle dans une tâche de correction.

Ce qui relevait encore, quelques années plus tôt, d’un « fantasme de prof » se révèle rapidement bien plus sérieux que prévu. La correction est quasi instantanée, richement commentée, et surtout, les notes attribuées par l’agent conversationnel s’avèrent remarquablement proches de celles des correcteurs humains. Une surprise, même pour l’enseignant.

Un point noir subsiste néanmoins : la reconnaissance de l’écriture manuscrite. L’OCR (la Reconnaissance Optique de Caractère), encore imparfaite, contraint Thibaud à retaper lui-même les copies. Un frein réel, mais depuis, de nouveaux modèles ont vu le jour, affichant des progrès constants.

Correction pour un champion

J’approfondis

Nous avons pu récupérer les copies utilisées par Thibaud afin de mener nos propres tests, et les résultats sont encourageants. Avec un taux d’erreur limité à 6%, Google AI Studio (utilisant le modèle Gemini 3 Pro) ne se trompe en moyenne que sur un mot sur dix-sept. Un ratio suffisamment faible pour ne pas entacher la compréhension globale d’une copie, mais qui reste problématique pour certains exercices, comme la dictée. Et sur des écritures particulièrement difficiles, l’OCR reste un obstacle. Du moins, pour l’instant.

Une fois cette étape franchie, les performances des modèles deviennent franchement impressionnantes. Nous avons testé quatre systèmes parmi les plus réputés du moment : Gemini 3 Pro (via Google AI Studio), Claude Sonnet 4.5, ChatGPT 5.2 et Mistral Large 3. À cela s’ajoute l’évaluation de la plateforme spécialisée Examino. Résultat : quel que soit le modèle, l’écart moyen sur la note globale par rapport à une correction humaine reste systématiquement inférieur à 10 %. Pour les modèles les plus performants, comme pour Examino, il tourne même autour de 6 %. Mieux encore, lorsque l’on répète plusieurs fois la correction d’une même copie, la variabilité aléatoire reste contenue, entre 3 et 4 %.

Mais un écart de 10 % avec un correcteur humain, est-ce déjà trop ? Pas nécessairement. Car il ne faut pas oublier que les correcteurs humains eux-mêmes ne sont pas infaillibles. S’il n’existe pas de statistiques officielles, les expérimentations disponibles évoquent généralement des écarts-types de 2 à 3 points sur 20, soit 10 à 15 %. Et dans certains cas, les différences entre correcteurs peuvent grimper à 10 points… voire davantage.

À l’aune de ces éléments, la variabilité observée avec les IA apparaît donc nettement inférieure à celle qui existe entre correcteurs humains. D’autant plus que la correction automatisée offre un avantage décisif : la possibilité de faire corriger plusieurs fois la même copie par la machine, puis d’en calculer une moyenne, afin de lisser les variations aléatoires. Une option tout simplement impossible à grande échelle avec une correction manuelle.

L’inertie du mammouth

Si la faisabilité technique de la correction par IA ne fait désormais plus guère de doute, les principaux freins se situent ailleurs. Pour qu’une adoption à grande échelle devienne possible, encore faut-il que l’institution s’empare réellement du sujet. Or, à en juger par le contenu des webinaires et formations estampillés Éducation nationale, l’intelligence artificielle reste d’abord perçue comme un risque potentiel, bien plus que comme une solution opérationnelle.

Le « Cadre d’usage de l’IA en éducation » donne le ton sans ambiguïté, en rappelant que « l’utilisation de l’IA pose des questions éthiques, déontologiques et écologiques ». L’intention est louable : poser des garde-fous clairs pour prévenir les dérives. Mais le mieux est parfois l’ennemi du bien, et une focalisation quasi exclusive sur les risques supposés, au détriment des gains possibles, pourrait freiner durablement le déploiement de l’IA au sein des services.

Et quand bien même une volonté politique affirmée émergerait en faveur de l’usage de l’IA pour la correction des copies, sa traduction concrète dans les pratiques prendrait du temps. Avec ses effectifs pléthoriques et ses processus lourds, le ministère de l’Éducation nationale n’est pas réputé pour sa souplesse, et l’inertie institutionnelle y est souvent considérable.

À cela s’ajoute la réticence d’une partie du corps enseignant lui-même. Dans un climat général marqué à gauche par une technophobie ambiante, l’intelligence artificielle reste souvent perçue comme un outil superficiel et dispensable… voire comme une menace, en raison notamment des usages détournés qu’en font certains élèves.

Si, pour l’Éducation nationale, la perspective d’économies constitue sans doute le levier le plus efficace pour faire bouger les lignes, il ne faudrait pas perdre de vue l’essentiel. La correction automatisée pourrait avant tout apporter des bénéfices très concrets aux personnels, et plus encore à la jeunesse. Du temps et du confort retrouvés pour les enseignants, avec à la clé des heures précieuses libérées. Et, pour les élèves, des retours plus riches sur leurs productions, ainsi qu’une évaluation plus cohérente, plus lisible et mieux harmonisée.

S’il est probable que l’intelligence artificielle s’impose, dans un horizon relativement proche, comme un outil d’aide à la correction des copies d’examen, pour les usages plus quotidiens, en revanche, il faudra sans doute attendre que la profession ouvre les yeux sur cet outil, dont les promesses apparaissent aujourd’hui aussi enthousiasmantes que vertigineuses.

L’article Corriger des copies par IA, fiction ou réalité ? est apparu en premier sur Les Électrons Libres.

  •  

Revue de presse de l’April pour la semaine 3 de l’année 2026

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Numerama] Contrôles CAF: comment fonctionne le nouvel algorithme de data mining?

✍ Amine Baba Aissa, le dimanche 18 janvier 2026.

Alors que le dispositif avait suscité de nombreuses critiques au sein d’associations en France, la CNAF a choisi de ne pas renoncer à son algorithme de contrôle des allocataires et vient de déployer un nouveau modèle de «data mining».​ Cette fois, l’organisme mise sur une communication plus transparente et a décidé

[Mediapart] Wikipédia, les 25 ans d'une utopie réussie devenue le punching-ball de l'extrême droite (€)

✍ Dan Israel, le jeudi 15 janvier 2026.

L’encyclopédie en ligne, gratuite et coopérative, a été lancée le 15 janvier 2001. Avec 65 millions d’articles en 326 langues, son succès a dépassé toutes les attentes, malgré les critiques régulière…"

[Républik IT Le Média] Software Heritage: dix ans de préservation du patrimoine applicatif

✍ Bertrand Lemaire, le mercredi 14 janvier 2026.

Le 28 janvier 2026, Software Heritage fêtera ses dix ans à l’Unesco. Morane Gruenpeter, directrice de la verticale Open-Science, et Bastien Guerry, responsable des partenariats, présentent cette initiative qui vise à préserver le patrimoine applicatif quelque soit le sort des éditeurs ou les feuilles de route de ceux-ci.

[ZDNET] Logiciel libre et souveraineté: la Commission européenne lance un appel à contributions

✍ Thierry Noisette, le lundi 12 janvier 2026.

La Commission propose jusqu’au 3 février aux développeurs, entreprises et communautés open source, administrations et chercheurs de contribuer à la future stratégie européenne d’écosystème numérique ouvert. En identifiant les obstacles à l’adoption de l’open source et en suggérant des mesures concrètes.

Et aussi:

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

La Chine ouvre des « écoles publiques » pour éduquer ses robots humanoïdes

Depuis plusieurs mois, la Chine ouvre des centres publics dédiés à l’entraînement des robots humanoïdes. Dans ces sortes de lycées professionnels pour machines, des cybertravailleurs -- souvent étudiants -- répètent inlassablement des gestes du quotidien pour apprendre aux robots à évoluer dans le monde réel.

  •  

Nearly 5 Million Accounts Removed Under Australia's New Social Media Ban

An anonymous reader quotes a report from the New York Times: Nearly five million social media accounts belonging to Australian teenagers have been deactivated or removed, a month after a landmark law barring those younger than 16 from using the services took effect, the government said on Thursday. The announcement was the first reported metric reflecting the rollout of the law, which is being closely watched by several other countries weighing whether the regulation can be a blueprint for protecting children from the harms of social media, or a cautionary tale highlighting the challenges of such attempts. The law required 10 social media platforms, including Instagram, Facebook, Snapchat and Reddit, to prevent users under 16 from accessing their services. Under the law, which came into force in December, failure by the companies to take "reasonable steps" to remove underage users could lead to fines of up to 49.5 million Australian dollars, about $33 million. [...] The number of removed accounts offered only a limited picture of the ban's impact. Many teenagers have said in the weeks since the law took effect that they were able to get around the ban by lying about their age, or that they could easily bypass verification systems. The regulator tasked with enforcing and tracking the law, the eSafety Commissioner, did not release a detailed breakdown beyond announcing that the companies had "removed access" to about 4.7 million accounts belonging to children under 16. Meta, the parent company of Instagram and Facebook, said this week that it had removed almost 550,000 accounts of users younger than 16 before the ban came into effect. "Change doesn't happen overnight," said Prime Minister Anthony Albanese. "But these early signs show it's important we've acted to make this change."

Read more of this story at Slashdot.

  •  

Raspberry Pi AI HAT+ 2 : l’étrange IA de monsieur Upton

L’AI HAT+ 2 est une nouvelle solution destinée à proposer des fonctions d’Intelligence Artificielle aux cartes Raspberry Pi 5. L’extension est pensée pour fonctionner sans consommer trop de ressources et localement. Elle fonctionne avec un NPU plus performant que les précédentes versions et elle est pensée pour prendre en charge aussi bien des applications de détection d’objets que de piloter des LLM.

Raspberry Pi AI HAT+ 2

L’extension Raspberry Pi AI HAT+ 2 m’apparait toutefois assez étrange, car si elle proposera plus de fonctions, elle ne semble pas du tout révolutionner les possibilités offertes par la carte de base qu’est la Pi 5. La nouvelle venue embarque bien un NPU Hailo-10H qui développe 40 TOPS d’inférence INT4. Elle est également proposée avec un module de 8 Go de mémoire vive LPDDR4x soudé. Ce qui lui donne un prix assez élevé, probablement à cause de la mémoire vive qu’elle embarque. On la trouve en Europe aux environs de 140€.

Sur le papier, le jeu en vaut la chandelle. L’ajout de la mémoire vive dédiée permet de ne pas venir amputer la mémoire vive de la carte Raspberry Pi 5. Avec 8 Go, on peut monter plusieurs modèles de LLM basiques directement sur cette mémoire et donc les exploiter en laissant tranquille ceux du système Linux embarqué. L’idée étant également de pouvoir profiter des compétences combinées des deux puces assemblées. La Broadcom du Raspberry 5 et la Hailo-10H de son HAT.

HAilo met en avant plusieurs LLM compatibles avec cette formule. Des modèles « basiques » avec 1.5 milliards de paramètres. On parle ici de DeepSeek-R1-Distill, de Llama3.2 et des séries Qwen2.5-Coder, Qwen2.5-Instruct et Qwen2. Et les résultats proposés ont l’air assez bons en termes de vitesse de traitement, comme le montre la vidéo en intro de ce billet. Les usages de ces LLM sont très variés : du chatbot à la rédaction de courriers, du traitement de données comme l’organisation de tableaux et même la promesse d’une aide au code. Et cela toujours en usage totalement local.

En pratique, pour avoir essayé ces LLMs avec d’autres matériels, les résultats proposés ne sont pas extraordinaires. Voir médiocres. Certains traitements simples sont excellents comme la fabrication de tableaux ou la mise en forme de données. D’autres sont simplement mauvais avec des informations erronées, des réponses hallucinées et des résultats souvent tellement catastrophiques qu’on passe plus de temps à vérifier ce qui est proposé qu’à rédiger la réponse sans aide… Les options de traduction Llama3.2, par exemple, sont assez ridicules. Les contresens sont nombreux, certaines formulations classiques sont comprises de travers et l’utilisation de  simples métaphores provoquent fréquemment de vrais fous rires.

Mais ce n’est pas vraiment le plus gros problème de cette proposition. On peut très bien imaginer l’intérêt de ce que propose ce Raspberry Pi AI HAT+ 2 ailleurs. Il y a quelques années, je vous expliquais pourquoi monter un cluster de Raspberry Pi était intéressant. Non pas parce que monter 10 cartes de ce type permettait une alternative à un véritable serveur beaucoup plus couteux. Non, plutôt de se faire la main sur ce type d’infrastructure. Un moyen de simuler le déploiement d’outils de supervision sur un matériel réel et très formateur. Il en est de même ici : la carte va permettre d’apprendre à piloter ce type de solution IA et donc de mener à bien des projets. D’acquérir de l’expérience et pouvoir en répliquer la logique sans avoir à acheter ou à louer des serveurs hors de prix.

D’un point de vue pratique, le Raspberry Pi AI HAT+ 2 embarque un Hailo-10H, un NPU plus puissant que les NPU Hailo-8 précédents. Ce qui lui offre deux autres avantages en plus de sa mémoire vive embarquée. Il est plus rapide en traitement et il est capable de piloter un LLM en plus d’un traitement de flux vidéo en même temps. L’extension reprend le format des modèles précédents. On a d’abord eu droit à un HAT Raspberry Pi AI Kit développant 13 TOPS sous Hailo 8L en juin 2024, puis, en octobre de la même année, à deux autres modèles : un en 13 TOPS toujours sous Hailo 8L et un en 26 TOPS avec le choix d’un Hailo 8

Toutes se ressemblent physiquement. Les extensions se montent grâce à des entretoises par-dessus la carte RPi5 en s’appuyant sur ses broches GPIO. Le  Raspberry Pi AI HAT+ 2 ne les exploite pas mais ne fait que les reporter un étage plus haut pour que l’utilisateur puisse les connecter. La liaison entre le NPU et la carte de base se est possible par la classique nappe fournie. L’extension nécessitera absolument la mise en place d’un système de refroidissement passif : la puce devra être couverte par un petit dissipateur en aluminium fourni. Il faudra également prévoir un peu d’aération au-dessus de celui-ci pour une intégration dans un projet. 

Je n’ai pas de Raspberry Pi AI HAT+ 2 sous la main mais Jeff Gerling en a reçu un et ses conclusions sont assez claires. Les performances apportées par l’extension ne sont pas révolutionnaires. À vrai dire, le Hailo-10H est moins performant dans tous les usages que le SoC Broadcom du Pi 5 quand il est également épaulé par 8 Go de mémoire vive LPDDR4x…

La seule différence vient de l’efficience de la solution externe qui consomme moins de watts pour arriver au même résultat, même si elle le fait plus lentement. Cela est lié à la consommation générale plus importante de la puce Broadcom qui n’est pas explicitement spécialisée dans le calcul d’IA.

Le plus gênant reste cependant que l’usage de ces modèles de LLM très léger reste indéniablement médiocre. La vidéo de Jeff est on ne peut plus claire. Les résultats proposés ne sont pas utiles. C’est très mignon de proposer une extension qui va pouvoir les embarquer, mais au-delà de la phase d’installation et de l’apprentissage des usages du dispositif, leur exploitation est finalement contre productive. 

C’est pour moi le syndrome du « piano désaccordé ». Vous allez apprendre le solfège, maitriser la technique des accords et même apprendre à jouer par cœur des morceaux sur votre piano totalement désaccordé. Mais jamais vous ne vous enregistrerez dessus, pas plus que vous donnerez un récital avec. Ces petits LLM sont là pour se faire la main et apprendre leur mécanique d’installation pour le jour où vous devrez travailler sur un grand modèle. Ce jour-là, vous donnerez votre récital sur un magnifique piano à queue en provenance d’un grand fabricant. C’est-à-dire un LLM beaucoup plus complet et riche en paramètres monté sur une machine autrement plus chère.

Jeff est tout aussi perplexe que moi

C’est tout le paradoxe de cette offre de Raspberry Pi. Un Pi 5 avec 16 Go de mémoire vive sera finalement plus compétent que cette extension avec 8 Go dédié. A la fois en vitesse mais aussi et surtout en pertinence des résultats. Reste la possibilité de fabriquer votre propre LLM en l’entrainant vous-même. Dans ce cas précis, l’extension pourrait avoir tout son sens. Mais il ne s’agit plus ici d’un emploi « out of the box » du HAT. Plutôt d’un travail de longue haleine avec des besoins extrêmement spécifiques et souvent le besoin de matériel supplémentaire autrement plus cher pour conduire cet entraînement.

Le principal intérêt du Raspberry Pi AI HAT+ 2 est donc ailleurs

La gestion des VLM ou « modèle vision-langage » est excellente avec le Hailo-10H. Il s’agit de faire analyser ce que voit le système avec une caméra pour en déduire des choses en langage naturel. Les précédents modèles d’extensions IA de Raspberry Pi étaient déjà capables de multiples choses du genre : compter des personnes dans une pièce, reconnaitre des objets, lire des plaques d’immatriculation ou faire des statistiques de trafic routier.

Le module Raspberry Pi AI Camera

Le module Raspberry Pi AI Camera

La nouvelle extension permet de voir le monde et de reconnaitre des objets en temps réel avec une vitesse assez impressionnante. On pourra analyser une scène vue par l’oeil d’une webcam et en dresser le listing en format texte. Il sera par exemple possible de faire réagir le système si certaines correspondances sont trouvées dans une liste. Un lecteur est, par exemple, en train de monter un système qui analyse les entrées et sorties devant une de ses ruches dans l’espoir d’entrainer une IA pour reconnaitre et différencier ses abeilles d’éventuels prédateurs comme le frelon asiatique. Son objectif étant de pouvoir les chasser en les aspergeant dès qu’ils seront reconnus. Ce travail est fait grâce à une solution Raspberry Pi AI Camera. Module à 80€ et qui fonctionne déjà extrêmement bien. Son NPU permet un traitement VLM à 30 images par seconde. Ce type de traitement très spécifique est impossible pour la puce Broadcom seule à cette vitesse. On tournera au mieux à 1 ou 2 images par seconde. 

Ce qui sera donc intéressant, ici, est la capacité de cette extension à ouvrir la porte à un pilotage des deux usages en parallèle. Par exemple la vision et l’identification d’objets et le traitement de ces données par un LLM. Une fois bien entrainé, on peut imaginer une solution assez simple de vérification visuelle et la gestion d’un rapport synthétique de cette analyse.

Raspberry Pi AI HAT+ 2

Raspberry Pi AI HAT+ 2

Pour le moment la partie logicielle semble en retrait pour cette extension et je suppose que cela a tout à voir avec la nouvelle vision de Raspberry Pi. La fondation des débuts est désormais remplacée par une société classique qui se préoccupe plus de ses clients industriels que des simples particuliers. Or ces clients professionnels  vont trouver très rapidement un intérêt à ce type de produit qu’ils vont entrainer pour des tâches hyper spécifiques. Les particuliers, de leur côté, ont pour la majorité besoin d’une solution clés en main qui n’existe pas pour le moment. 

Quand un industriel va construire une machine qui exigera le suivi d’un protocole ou la présence de certains éléments avant son actionnement, on comprend tout l’intérêt de ce type de produit. Un ascenseur qui ne doit pas accueillir plus de x personnes refusera de se mettre en marche s’il en détecte une de plus. Un vendeur qui veut une vérification de la présence de l’ensemble des produits d’une commande dans un colis pourra coller une caméra sur un tapis roulant et analyser en temps réel la correspondance des produits vendus par rapport à la liste de colisage. Des milliers d’usages professionnels sont imaginables avec ce Raspberry Pi AI HAT+ 2.

L’exemple donné par Hailo pour une exploitation des LLM et VLM en parallèle avec ses puces 10H est assez parlant. La marque met en avant un système de caisse autonome qui va surveiller ce que l’utilisateur fait, ce qu’il pose dans son panier et ce qu’il paye. Tout cela pour contrôler et déduire si le client n’oublie pas de payer des produits. C’est quelque chose de très spécifique qui demandera des aménagements précis et une programmation sur mesure. Les industriels n’ont donc pas besoin d’un développement logiciel, ils vont s’en charger eux-mêmes. 

Les particuliers, quant à eux, vont devoir attendre que les solutions fonctionnent, soit parce que Raspberry Pi proposera des mises à jour, soit parce que Hailo s’en chargera. Aujourd’hui, la cohabitation VLM et LLM sur l’extension ne semble pas fonctionnelle. Peut-être que la solution viendra des utilisateurs et développeurs chevronnés toujours très présents sur la plateforme. Dans quel délai et avec quelles performances ? Impossible à dire.

Il y a sans doute plein de choses à imaginer avec ce kit Raspberry Pi AI HAT+ 2 et la combinaison des deux IA peut avoir beaucoup de sens. En robotique par exemple, on peut très bien imaginer des prises de décision ou d’adaptation à l’environnement grâce à cet équipement local et peu gourmand en énergie. Mais pour les usages qui ne mixent pas ces deux univers LLM et VLM, il paraît plus utile de choisir entre un duo Raspberry Pi 5 16 Go pour le premier et Raspberry Pi 5 8 Go associé à une Raspberry Pi AI Camera pour le second.

Raspberry Pi AI HAT+ 2 : l’étrange IA de monsieur Upton © MiniMachines.net. 2025

  •  

Wikipedia Signs AI Licensing Deals On Its 25th Birthday

Wikipedia turns 25 today, and the online encyclopedia is celebrating that with an announcement that it has signed new licensing deals with a slate of major AI companies -- Amazon, Microsoft, Meta Platforms, Perplexity and Mistral AI. The deals allow these companies to access Wikipedia content "at a volume and speed designed specifically for their needs." The Wikimedia Foundation did not disclose financial terms. Google had already signed on as one of the first enterprise customers back in 2022. The agreements follow the Wikimedia Foundation's push last year for AI developers to pay for access through its enterprise platform. The foundation said human traffic had fallen 8% while bot visits -- sometimes disguised to evade detection -- were heavily taxing its servers. Wikipedia founder Jimmy Wales said he welcomes AI training on the site's human-curated content but that companies "should probably chip in and pay for your fair share of the cost that you're putting on us." The site remains the ninth most visited on the internet, hosting more than 65 million articles in 300 languages maintained by some 250,000 volunteer editors.

Read more of this story at Slashdot.

  •  

Une hallucination IA utilisée par la police britannique pour justifier une interdiction contre des supporters israéliens fait polémique

Une hallucination du chatbot d’intelligence artificielle Copilot de Microsoft s’est retrouvée dans un rapport de renseignement utilisé par la police des West Midlands au Royaume-Uni pour appuyer une interdiction visant des supporters israéliens. Une révélation qui fait scandale outre-Manche.

  •  
❌