Le Pentagone et la société Anthropic renégocient l’accès au chatbot Claude sur les réseaux classifiés de l’armée, alors que le ministère américain de la Défense presse les acteurs de l'intelligence artificielle d’assouplir leurs garde-fous.
Un robot peut-il remplacer une brigade en cuisine ? À Düsseldorf, l’enseigne REWE teste depuis octobre 2025 le CA-1, un module autonome capable de préparer, cuire et nettoyer sans intervention humaine. Une expérimentation qui pourrait marquer une nouvelle étape dans l’automatisation des métiers de service.
Elon Musk aurait délibérément repoussé une mise à jour majeure de Grok pour une raison qui pourrait paraître totalement absurde : de mauvaises réponses sur le jeu vidéo Baldur's Gate 3.
Dans une série de tweets publiés sur X le 23 février 2026, l'entreprise américaine Anthropic, conceptrice des modèles de langage Claude, accuse plusieurs sociétés chinoises d'attaques par distillation. Comprenez : avoir élaboré leurs modèles en se basant sur les résultats produits par les siens.
En marge du sommet de New Delhi, le PDG d’OpenAI a justifié la consommation énergétique de l’IA en la comparant à celle d’un être humain, tout en qualifiant de « fausses » les affirmations sur la consommation d’eau de ChatGPT.
Des centaines de milliards de lignes de COBOL tournent encore dans les systèmes critiques des banques et des gouvernements. Problème : les développeurs capables de les maintenir disparaissent, à la retraite ou trop âgés. Claude, l'IA d'Anthropic, promet de résoudre l'équation impossible -- moderniser sans tout casser.
Ce 23 février 2026, Summer Yue est au centre des discussions tech sur X. La responsable de l’alignement IA chez Meta a raconté comment son agent autonome OpenClaw lui a désobéi, supprimant sans autorisation des emails de sa boîte Gmail. Un incident qui soulève de sérieuses questions sur la fiabilité des agents IA.
Le 20 février 2026, la société américaine Anthropic annonçait le lancement de Claude Code Security, une nouvelle brique de cybersécurité automatisée intégrée directement à son outil de génération de code. L’annonce a provoqué un vent de panique sur les marchés : les valeurs des grandes sociétés de cybersécurité ont vacillé, certains y voyant une rupture brutale du modèle existant. Pourtant, la réalité technique se révèle beaucoup plus nuancée.
La ruée vers les centres de données pousse les entreprises technologiques à sécuriser leur approvisionnement électrique en construisant leurs propres centrales, souvent au gaz. Une course à l’autonomie qui divise, entre sécurisation de l’alimentation et controverses environnementales.
Nouveauté de la bêta d'iOS 26.4, la fonctionnalité « Playlist Playground », qui génère des playlists avec de l'intelligence artificielle, a fait une arrivée surprise dans la version bêta d'Apple Music sur Android. Une première pour Apple qui réserve habituellement ses fonctions IA à ses propres appareils avec des modèles 100 % locaux.
Lors du sommet sur l’impact de l’intelligence artificielle organisé en Inde du 16 au 20 février 2026, Sam Altman et Dario Amodei ont refusé de se serrer la main pendant un salut collectif. Une interaction qui relance l’attention autour de la rivalité entre OpenAI et Anthropic.
Comment une simple variation d'ADN peut-elle nous rendre malades ? Pour le comprendre, l'IA AlphaGenome modélise la complexité génétique à une échelle inédite. Moins révolutionnaire qu'AlphaFold mais plus précis, ce modèle marque une étape clé pour la recherche fondamentale.
Le service cloud d'Amazon a subi des pannes ces dernières semaines à cause de l'intervention de Kiro, son outil IA de codage. La multinationale minimise les incidents, quand certains employés s'interrogent sur l'adoption de l'IA.
Derrière la promesse d'une éducation dopée à l'intelligence artificielle, le réseau scolaire américain Alpha School cache une réalité brutale : celle de cours incohérents, d’un plagiat industriel et d’une surveillance constante des élèves.
Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.
La centrale d’achat informatique hospitalière (CAIH) engage une nouvelle feuille de route sur cinq ans et initie le programme Alternative, destiné à bâtir un socle numérique souverain pour les systèmes d’information de santé.
✍ Valéry Rieß-Marchive, le mercredi 11 février 2026.
L’Agence nationale de la sécurité des systèmes d’information vient de réitérer son engagement en faveur du logiciel libre. Dans la continuité d’une politique établie et confortée de longue date.
The Document Foundation (TDF) intensifie sa critique contre Microsoft, accusant le géant américain de privilégier ses intérêts commerciaux au détriment de l’interopérabilité.
✍ Aymeric Geoffre-Rouland, le lundi 9 février 2026.
Quand un développeur demande à Claude ou ChatGPT d’écrire du code, l’IA pioche dans des milliers de bibliothèques libres sans que l’humain ne lise jamais leur documentation. Résultat: les mainteneurs de ces projets open-source, qui vivent de la visibilité générée par les visites et les interactions, voient leur audience s’effondrer. Une étude économique chiffre ce paradoxe: l’IA qui accélère le développement logiciel asphyxie l’écosystème qui le rend possible.
Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.
En générant du code à partir de multiples sources des logiciels libres, le vibe coding détourne en même temps nombre d’utilisateurs des personnes qui ont créé ces logiciels. Les financements, les rapports de bugs et les discussions s’amenuisent en parallèle à la destruction des communautés d’utilisateurs, constatent des chercheurs en économie.
La loi de finances 2026, enfin votée, rétablit l’auto-attestation des logiciels de caisse, après un an de mobilisation. Les éditeurs de solutions libres peuvent enfin respirer.
En février 2024, une cour canadienne a obligé Air Canada à partiellement rembourser le billet d'avion acheté par l'un de ses clients. Le client avait demandé au bot du support client les conditions dans lesquelles Air Canada rembourse les billets d'avion achetés en urgence lorsqu'un proche décède. Or, le bot a répondu en hallucinant une politique de remboursement qui n'existe pas.
Air Canada a proposé un bon d'achat de 200 dollars canadiens à son client, qui l'a refusé et a porté l'affaire devant un tribunal. Air Canada a combattu la plainte, en argumentant que le client aurait dû se référer aux pages expliquant la politique de remboursement plutôt qu'aux propos du bot. Le juge n'a manifestement pas été réceptif à l'argument, considérant que les propos du bot ont la même valeur juridique que les pages rédigées par des humains.
Suite à ce jugement, Air Canada a semble-t-il rapidement arrêté son bot, dont la mise en place a pourtant été coûteuse. Le bot avait pour objectifs de diminuer les coûts du service client et d'améliorer la qualité du service rendu.
De mon point de vue, ce qui est intéressant dans cette anecdote est la confiance déraisonnable qu'Air Canada a accordé à son bot. Il est documenté, y compris dans la littérature scientifique, que les IA basées sur des large language models comme ChatGPT sont susceptibles d'hallucinations. Elles ont tendance à inventer des informations qui n'existent pas. Or, Air Canada a semble-t-il fait comme si cette limite, pourtant documentée, n'existait pas, ou était suffisamment mineure pour ne pas poser de problème.
Sur Threads, Gergely Orosz évoque une anecdote similaire dans ces deux posts.
I enjoy hearing companies use GenAI / LLMs as experiments (that can fail!) to improve developer productivity.
Lately, I'm hearing more stories of even large companies where leadership is treating it as a (desperate) solution that must succeed in increasing productivity.
Like there's ~$10B company, losing money big time, where they are pushing devs to dump what they know into the wiki; and hope their internal LLM can scoop it up and e.g. launch new features in new regions, autonomously, and without the need to have a dev involved.
Ugh.
En français :
J'aime bien entendre les entreprises utiliser les IA génératives / les LLM comme des expérimentations (qui peuvent échouer !) pour améliorer la productivité des développeurs.
Dernièrement, j'entends de plus en plus d'histoires de grandes entreprises dont les dirigeants traitent les IA génératives comme une solution (désespérée) qui doit réussir à tout prix à améliorer la productivité.
Par exemple, il y a une entreprise de 10 milliards de dollars qui perd beaucoup d'argent et qui pousse les développeurs à déverser tout ce qu'ils savent dans le wiki, en espérant que leur LLM interne puisse récupérer ces informations et, par exemple, lancer de nouvelles fonctionnalités dans de nouvelles régions [du monde], de manière autonome et sans avoir besoin d'impliquer un développeur.
Ugh.
Quiconque ayant déjà demandé à une IA générative de générer du code informatique sait que le code généré doit être revu méticuleusement. Souvent, c'est du code qui ressemble à du code qui tourne, mais qui ne tourne pas. Ou c'est du code qui tourne, mais qui ne fait pas ce qu'il est censé faire.
Comme pour Air Canada et son bot de service client, croire qu'une technologie aussi sujette à halluciner puisse servir à développer de nouvelles fonctionnalités sans intervention humaine relève de la pensée désidérative. Les IA génératives seront peut-être capables d'écrire du code fiable à 100 %, ou de ne pas halluciner des politiques de remboursement qui n'existent pas. Mais dans sa forme actuelle, la technologie n'en est pas capable.
Comme je l'écrivais l'été dernier, les IA génératives méritent mieux que des paniques morales.
Mais elles ne méritent pas non plus d'être traitées comme des solutions miracles, en oubliant leurs limites pourtant largement documentées. Le risque est alors de commettre des erreurs parfois coûteuses, pourtant faciles à éviter. Je présume qu'Air Canada ne sera pas la seule organisation à prendre ce genre de décision.