Ghost in the Shell avait déjà tout compris à la cybersécurité, entre piratage massif, analyse des logiciels malveillants et espionnage 2.0 qui rappellent les méthodes actuelles. Un classique cyberpunk prémonitoire.
Six jours après Gemini 3 Pro de Google, qui a battu tous ses rivaux dans la quasi-totalité des tests, Anthropic dévoile Claude Opus 4.5, son nouveau grand modèle de langage qui promet de réparer le code des développeurs mieux que personne. Dans les benchmarks sur ce critère, Claude Opus 4.5 détrône complètement le modèle de Google.
OpenAI a dévoilé, le 24 novembre 2025, son nouvel outil Shopping Research, conçu pour trouver rapidement l’article le plus adapté à vos besoins. Une utilisation « quasi illimitée » est disponible pendant toute la période des fêtes, indique l'entreprise.
Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.
L’Assemblée nationale redonne de l’air aux éditeurs de logiciels de caisse. Un amendement adopté jeudi rétablit l’auto-attestation, alternative bienvenue à une certification qui mettait en péril les petites structures.
Tout reste à refaire au Sénat, car l’Assemblée nationale a finalement rejeté le projet de loi de finances.
Dix ans après le lancement du projet, Eugen Rochko cède les rênes à un trio déjà très impliqué dans le développement de Mastodon et du fédivers. La petite équipe qui pilote le projet confirme avoir engagé les travaux nécessaires à la création d’une association à but non lucratif de droit belge. Celle-ci doit faire perdurer la volonté historique de son fondateur : créer une alternative aux réseaux sociaux détenus par des milliardaires.
L’association April, pilier français du logiciel libre, appelle à récolter 30 000 € pour poursuivre ses actions en 2025. Une campagne originale, «Le Lama Déchaîné», retrace ses engagements.
Le Département de l’instruction publique a développé ces vingt dernières années une approche centrée sur les logiciels libres pour l’enseignement. Le Service écoles-médias l’a présentée mercredi à un représentant du Ministère de l’éducation nationale
C'est la nouvelle arme fatale de l'armée française : le projet Pendragon, une unité robotique autonome dont la révolution est comparée au premier essai nucléaire. La France dévoile ses travaux sur cet essaim de drones, dont la concrétisation opérationnelle est attendue pour 2027.
Dévoilé le 19 novembre 2025, Memo est le nouveau robot domestique de Sunday Robotics. Haut de 1,70 m et monté sur roues, il peut recopier les mouvements humains grâce à des gants connectés.
Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.
✍ Guillaume Belfiore, le dimanche 16 novembre 2025.
Face aux tensions entre les États-Unis et l’Union européenne et à la crainte d’une dépendance technologique américaine, Nextcloud a vu ses demandes de clients tripler au premier semestre. Son PDG nous explique comment cette plateforme open source, désormais adoptée par des dizaines de millions d’utilisateurs en Europe, symbolise aujourd’hui la souveraineté numérique face aux géants du cloud américain.
45 organisations dont Mozilla et Mistral AI demandent aux dirigeants français, allemand et européen de miser sur l’intelligence artificielle open source pour réduire leur dépendance aux modèles d’IA propriétaires et favoriser la construction d’une souveraineté numérique.
Le Syndicat de quartier de France a organisé une journée conviviale autour du logiciel libre GNU-Linux, avec les associations Terre d’Adeles et Abul, pour les Pessacais
Samedi 15 novembre, des experts du numérique responsable vous apprendront à adopter un logiciel libre pour prolonger la vie de vos ordis et vous détacher des Gafam
A bientôt 25 ans, l’encyclopédie est confrontée à plusieurs difficultés: accusations de biais «wokistes», contributeurs menacés, contenus générés par intelligence artificielle, baisse de fréquentation… Face à ces problèmes, Wikipédia tient bon. Jusqu’à quand?
En février 2024, une cour canadienne a obligé Air Canada à partiellement rembourser le billet d'avion acheté par l'un de ses clients. Le client avait demandé au bot du support client les conditions dans lesquelles Air Canada rembourse les billets d'avion achetés en urgence lorsqu'un proche décède. Or, le bot a répondu en hallucinant une politique de remboursement qui n'existe pas.
Air Canada a proposé un bon d'achat de 200 dollars canadiens à son client, qui l'a refusé et a porté l'affaire devant un tribunal. Air Canada a combattu la plainte, en argumentant que le client aurait dû se référer aux pages expliquant la politique de remboursement plutôt qu'aux propos du bot. Le juge n'a manifestement pas été réceptif à l'argument, considérant que les propos du bot ont la même valeur juridique que les pages rédigées par des humains.
Suite à ce jugement, Air Canada a semble-t-il rapidement arrêté son bot, dont la mise en place a pourtant été coûteuse. Le bot avait pour objectifs de diminuer les coûts du service client et d'améliorer la qualité du service rendu.
De mon point de vue, ce qui est intéressant dans cette anecdote est la confiance déraisonnable qu'Air Canada a accordé à son bot. Il est documenté, y compris dans la littérature scientifique, que les IA basées sur des large language models comme ChatGPT sont susceptibles d'hallucinations. Elles ont tendance à inventer des informations qui n'existent pas. Or, Air Canada a semble-t-il fait comme si cette limite, pourtant documentée, n'existait pas, ou était suffisamment mineure pour ne pas poser de problème.
Sur Threads, Gergely Orosz évoque une anecdote similaire dans ces deux posts.
I enjoy hearing companies use GenAI / LLMs as experiments (that can fail!) to improve developer productivity.
Lately, I'm hearing more stories of even large companies where leadership is treating it as a (desperate) solution that must succeed in increasing productivity.
Like there's ~$10B company, losing money big time, where they are pushing devs to dump what they know into the wiki; and hope their internal LLM can scoop it up and e.g. launch new features in new regions, autonomously, and without the need to have a dev involved.
Ugh.
En français :
J'aime bien entendre les entreprises utiliser les IA génératives / les LLM comme des expérimentations (qui peuvent échouer !) pour améliorer la productivité des développeurs.
Dernièrement, j'entends de plus en plus d'histoires de grandes entreprises dont les dirigeants traitent les IA génératives comme une solution (désespérée) qui doit réussir à tout prix à améliorer la productivité.
Par exemple, il y a une entreprise de 10 milliards de dollars qui perd beaucoup d'argent et qui pousse les développeurs à déverser tout ce qu'ils savent dans le wiki, en espérant que leur LLM interne puisse récupérer ces informations et, par exemple, lancer de nouvelles fonctionnalités dans de nouvelles régions [du monde], de manière autonome et sans avoir besoin d'impliquer un développeur.
Ugh.
Quiconque ayant déjà demandé à une IA générative de générer du code informatique sait que le code généré doit être revu méticuleusement. Souvent, c'est du code qui ressemble à du code qui tourne, mais qui ne tourne pas. Ou c'est du code qui tourne, mais qui ne fait pas ce qu'il est censé faire.
Comme pour Air Canada et son bot de service client, croire qu'une technologie aussi sujette à halluciner puisse servir à développer de nouvelles fonctionnalités sans intervention humaine relève de la pensée désidérative. Les IA génératives seront peut-être capables d'écrire du code fiable à 100 %, ou de ne pas halluciner des politiques de remboursement qui n'existent pas. Mais dans sa forme actuelle, la technologie n'en est pas capable.
Comme je l'écrivais l'été dernier, les IA génératives méritent mieux que des paniques morales.
Mais elles ne méritent pas non plus d'être traitées comme des solutions miracles, en oubliant leurs limites pourtant largement documentées. Le risque est alors de commettre des erreurs parfois coûteuses, pourtant faciles à éviter. Je présume qu'Air Canada ne sera pas la seule organisation à prendre ce genre de décision.