Vue normale

Il confie une mise à jour à une IA, elle supprime toute sa base de production

20 mars 2026 à 18:10

Claude Code Sonnet

Des incidents récents survenus chez un développeur indépendant et, plus largement, au sein de grandes entreprises comme Amazon, relancent les questions sur l’usage de l’IA dans le développement logiciel.

Bernie Sanders interviewe Claude : pourquoi son réquisitoire contre l’IA est un contresens technique

20 mars 2026 à 10:15

Dans une vidéo publiée sur X le 19 mars 2026, le sénateur américain Bernie Sanders met en scène une interview avec Claude, l’IA d’Anthropic, pour dénoncer les dérives de la collecte de données et défendre une régulation plus stricte du secteur. Une séquence pensée comme un argument politique -- mais qui repose sur un contresens technique.

J'ai mis un proxy entre claude et Internet

Je sais que le mot "IA" sur LinuxFr, c'est un peu comme prononcer "systemd" en 2015 ; ça ne laisse personne indifférent. Et je comprends. La merdification est réelle, la bulle est réelle, les externalités sont réelles. Je n'ai aucune envie d'en rajouter une couche. Mais voilà, les lignes sont devenues floues, et j'ai pris le virage du coding assisté. D'abord avec curiosité et prudence, et maintenant les deux pieds dans le plat : ça ne remplace pas ma façon de penser, mais ça m'a ouvert des portes : des concepts que je ne maîtrisais pas, des langages que je n'aurais pas pris le temps de toucher avant ; l'assistant me permet d'explorer, de comprendre, et de construire des outils qui m'aident. Et j'espère qu'ils aident d'autres personnes aussi.

Sauf que voilà. Au début, j'étais prudent. Je vérifiais chaque commande, chaque accès. Et puis petit à petit, j'ai lâché prise. J'ai désactivé les confirmations, laissé l'agent tourner sans supervision, accepté les permissions sans lire. On connaît tous ce moment où on clique "Allow" les yeux fermés parce que c'est la quinzième fois qu'il demande. J'ai fait exactement ce qu'on ne devrait jamais faire en sécurité : faire confiance par défaut.

Et un jour, je me suis dit : je n'ai aucune idée de ce que cet agent envoie sur le réseau. Aucune.

Alors j'ai construit un proxy un peu.. particulier.

Sommaire

Cher journal,

Ça fait un bail que je n'ai pas vraiment contribué à l'open source. Mes derniers vrais projets publics, c'était Kivy et les projets autour… ça remonte à quelques années maintenant, et j'ai pris ma "retraite" sur ces projets.

Mais je n'ai jamais arrêté de coder. J'ai juste réalisé un truc sur moi-même : le code, c'est un peu comme la musique pour moi. J'aime construire des choses. Je m'exprime mieux avec un éditeur et un terminal qu'avec ma voix ou mes mots. C'est probablement pour ça que je suis là à t'écrire un journal au lieu de faire un talk quelque part.

Le constat

On a passé des années à construire des pare-feux, des IDS, du monitoring pour nos serveurs de prod. Sur des entreprises plus grandes, on traque les connexions suspectes… Et puis un agent IA débarque sur notre machine de dev, on lui dit "tiens, refactore-moi ce module", et il fait ce qu'il veut sur le réseau sans qu'on le sache.

C'est quand même un peu absurde, non ?

Le truc, c'est qu'il n'existe pas vraiment d'équivalent à tcpdump ou iptables pour les agents IA sur nos machines. Pas de couche d'observabilité entre l'agent et Internet. Ou on contrôle, on se fait notre liste d'outils qu'on accepte, ou on fait confiance parce que bon, la sécurité, c'est pas si important… vraiment ?

Greywall et greyproxy

Avec l'équipe de Greyhaven, on a construit deux outils open source :

Greywall est un bac à sable deny-by-default pour les agents IA. Pas de Docker, pas de VM. Ça utilise directement les mécanismes du noyau Linux (namespaces, Landlock, Seccomp, eBPF) pour isoler le processus. Sur Linux, l'isolation réseau passe par un device TUN dans un namespace réseau dédié ; le processus sandboxé ne peut structurellement pas contourner le proxy. Sur macOS, c'est un peu moins élégant en utilisant des variables d'environnement pour forcer un proxy socks5h, si l'outil ne le supporte pas, il ne peut quand même pas sortir. Ça fait le job pour la plupart des outils.

Greyproxy est le plan de contrôle réseau. Un proxy SOCKS5/HTTP avec un dashboard web temps réel. Chaque connexion sortante de l'agent apparaît dans le dashboard. Si aucune règle ne matche, la connexion reste en attente et tu peux l'autoriser ou la refuser en direct, sans relancer la session.

Concrètement, ça donne :

greywall -- claude

Et hop, Claude Code tourne dans son bac à sable. Tu ouvres http://localhost:43080 et tu vois en direct chaque domaine qu'il tente de contacter. Tu autorises api.anthropic.com, tu autorises github.com pour les pushes, tu refuses le reste. Tout est interactif, tout est visible.

Ce que j'ai observé

Au début, c'était juste des connexions supplémentaires. Tiens, c'est quoi ces appels à opencode.ai quand je démarre opencode ? Tiens, pourquoi Claude appelle 2x toutes les 4 minutes un domaine chez Google ? Entre de la télémétrie que l'on ne peut pas désactiver, ou des requêtes qui font "office" de regarder si une nouvelle version est disponible… 2x toutes les 4 minutes. Ce n'est pas le meilleur argument, mais contrairement aux autres sandboxes, au moins ici je le vois en temps réel, et je peux dire oui ou non sur ce que peut accéder la commande.

Le dashboard de greyproxy rend tout ça visible. Tu vois passer les requêtes DNS, les connexions TCP, les domaines contactés. Tu peux construire progressivement une liste d'autorisations adaptée à ton projet. Il y a même un mode apprentissage qui trace les accès filesystem avec strace et génère automatiquement un profil de sécurité.

Ce n'est pas un outil pour les paranos. C'est un outil pour ceux qui pensent que l'observabilité, c'est un droit, pas un luxe.

Pourquoi ça compte

Je sais que l'enthousiasme pour l'IA est réellement différent en fonction des gens. Les questions sur la qualité du code généré, la consommation énergétique, la centralisation chez les GAFAM ; tout ça est légitime.

Mais justement. Si on utilise ces outils (et beaucoup d'entre nous le font, même ceux qui restent prudents), autant le faire avec les yeux ouverts. Greywall, c'est pas un outil pour promouvoir l'usage des agents IA. C'est un outil pour que, si tu en utilises un, tu gardes le contrôle.

Il y a une phrase qu'on a mise sur le site et qui résume bien l'idée :

"The security layer around your tools should be independent of the company selling you the AI."

La couche de sécurité autour de tes outils ne devrait pas dépendre de la boîte qui te vend l'IA. Claude a son propre sandbox intégré, Codex a le sien. Mais tu fais confiance aux entreprises pour te protéger d'elles-mêmes ? C'est un problème d'indépendance, pas de technologie.

Greywall est agnostique. Ça marche avec Claude Code, Codex, Cursor, Aider, Goose, Gemini CLI, Cline, et une dizaine d'autres. Tu changes d'agent, ta couche de sécurité reste la même.

Et après : vers un proxy sémantique

Le greyproxy actuel travaille au niveau des connexions : il voit les domaines, les ports, les IPs. Il ne déchiffre pas le TLS, il ne lit pas le contenu. C'est déjà très utile pour contrôler les accès réseau.

Mais là où ça devient vraiment intéressant, c'est quand on commence à reconstruire les conversations LLM qui passent par le proxy. Pas en cassant le chiffrement ; en instrumentant le flux côté client. L'idée, c'est de construire un proxy sémantique qui comprend ce que l'agent envoie et reçoit, qui peut faire du remplacement de variables d'environnement à la volée (pour ne jamais exposer tes vrais secrets à l'API du LLM), et qui te donne une vision complète de ce que l'IA fait en ton nom.

On en est au début, mais la direction est claire : remettre l'humain au milieu du système. Pas comme un goulot d'étranglement, mais comme un observateur informé qui peut intervenir quand c'est nécessaire. C'est ce qui manque cruellement à des systèmes comme OpenClaw et à la plupart des outils d'orchestration d'agents.

Pour essayer

Installation rapide :

# Homebrew
brew tap greyhavenhq/tap && brew install greywall

# Ou via curl (pas taper)
curl -fsSL https://raw.githubusercontent.com/GreyhavenHQ/greywall/main/install.sh | sh

Ça tourne sur Linux et macOS. Sur Linux, il te faut bubblewrap et socat comme dépendances. Greyproxy s'installe comme service systemd si tu veux qu'il tourne en permanence.

Si tu veux comprendre les détails techniques de l'architecture (les 5 couches de sécurité, pourquoi on a abandonné Docker, comment fonctionne la capture réseau transparente), on a écrit un article technique détaillé ici : https://greyhaven.co/insights/why-we-built-our-own-sandboxing-sytem

La question

J'ai une vraie question pour la communauté. Ceux d'entre vous qui utilisent des agents IA pour coder (même occasionnellement, même à contrecœur) : comment vous gérez la sécurité ? Vous faites confiance par défaut ? Vous avez mis en place quelque chose ? Ou vous préférez ne pas y penser ?

Et pour ceux qui n'utilisent pas d'agents IA : est-ce que le manque de transparence et de contrôle fait partie des raisons ?

Ça m'intéresse vraiment de savoir :)

Commentaires : voir le flux Atom ouvrir dans le navigateur

Claude Dispatch : piloter son bureau depuis son téléphone, la nouvelle promesse d’Anthropic

18 mars 2026 à 07:09

Le 17 mars 2026, Anthropic a annoncé le lancement de Dispatch, une fonctionnalité qui permet de confier des tâches à Claude depuis son téléphone pour qu'il les exécute sur son ordinateur. Une brique supplémentaire vers une utilisation plus autonome de l'IA.

« Alerte rouge » chez OpenAI : Sam Altman sacrifie ses projets annexes pour sauver ChatGPT

17 mars 2026 à 11:28

Tandis qu’Anthropic cartonne, OpenAI acté un revirement de stratégie clair : fini les projets annexes, la priorité passe désormais aux outils de productivité pour les entreprises, rapporte le Wall Street Journal le 16 mars 2026. Un changement de cap qui confirme, une nouvelle fois, que la course à l’IA s’accélère.

Faille Perplexity Computer : un accès gratuit à Claude Opus 4.6 est-il vraiment possible ?

13 mars 2026 à 15:12

Sur X, un chercheur en cybersécurité affirme avoir obtenu un accès illimité à Claude Opus 4.6 en exploitant l'infrastructure de Perplexity Computer. Si la démonstration technique est réelle, les conclusions sur la facturation sont à nuancer.

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA

11 mars 2026 à 16:23

En pleine guerre ouverte avec l'administration Trump et le Pentagone, Anthropic lance un nouvel organisme de recherche tourné vers le grand public. L'ambition affichée : préparer la société aux bouleversements que l'IA va provoquer.

Avec Code Review, Anthropic répond à un problème dont il est en partie responsable

10 mars 2026 à 13:57

Le 9 mars 2026, Anthropic a annoncé le lancement de Code Review, un système multi-agents capable d'examiner en profondeur chaque proposition de code. Une fonctionnalité qui arrive au moment précis où la communauté open source crie à l'asphyxie face au déluge de contributions générées par IA. Mais l'outil leur est-il réellement destiné ?

Ce projet open source efface la censure des IA en un clic

6 mars 2026 à 17:32

Un projet open source publié sur GitHub début mars 2026 promet de retirer en un clic les mécanismes de refus intégrés aux grands modèles de langage. Baptisé Obliteratus, cet outil analyse la « géométrie du refus » dans les réseaux de neurones afin de neutraliser les garde-fous qui poussent une IA à répondre « je ne peux pas vous aider avec ça ».

Intelligence artificielle : quand les États-Unis sabotent leur propre champion face à DeepSeek

6 mars 2026 à 15:39

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Le gouvernement américain traite DeepSeek mieux qu’Anthropic

6 mars 2026 à 13:49

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Pourquoi l’IA d’Anthropic est encore utilisée par l’armée américaine, malgré son bannissement

6 mars 2026 à 09:16

Bannie des agences fédérales fin février 2026, l'intelligence artificielle d'Anthropic s’avère décisive en pleine guerre contre l’Iran. Dario Amodei, le PDG de l’entreprise, tente donc de conclure un nouvel accord avec le Pentagone pour éviter l’exclusion durable.

Guerre froide de l’IA : pourquoi Nvidia lâche OpenAI et Anthropic en plein bras de fer avec le Pentagone

5 mars 2026 à 10:29

Le patron de Nvidia, Jensen Huang, a récemment laissé entendre que les investissements du géant des puces dans OpenAI et Anthropic seraient probablement les derniers. Officiellement, il s’agit surtout d’un timing financier lié aux futures introductions en Bourse des deux firmes. Un recul qui intervient en plein bras de fer avec le Pentagone.

« Je suis sous le choc » : l’IA Claude a résolu un casse-tête mathématique sur lequel butait cette légende de l’informatique

4 mars 2026 à 16:14

L'informaticien Donald Knuth, lauréat du prix Turing, pensait que l'IA avait encore de grandes limites. Pourtant, le modèle Claude d'Anthropic vient de réussir à résoudre un problème mathématique ardu sur lequel le chercheur séchait. Une percée inattendue qui prouve que l'IA devient un sacré partenaire pour les scientifiques, à condition de savoir comment lui parler.

C’est quoi la polémique avec ChatGPT et par quoi le remplacer ?

2 mars 2026 à 12:31

L'accord entre OpenAI et le Département américain de la Guerre provoque un tollé contre le créateur de ChatGPT. Plusieurs internautes suggèrent de remplacer ChatGPT par Claude, même si la plupart d'entre eux semblent ne pas réellement comprendre ce qu'il se passe.

Il paraît que les logiciels meurent en silence : c’est quoi la SaaSpocalypse ?

28 février 2026 à 14:30

C'est un mot et une projection qui font leur chemin dans la presse et l'écosystème tech : la SaaSpocalypse ou Software-mageddon serait imminente. C'est quoi, au juste ?

Anthropic tient tête au Pentagone et refuse de transformer son IA en outil de surveillance de masse 

27 février 2026 à 13:11

surveillance

Le bras de fer entre Anthropic et le Pentagone se durcit après la publication d’un billet de blog refusant de lever certaines restrictions d’usage de Claude. Le Department of War exige une autorisation d’emploi sans limites d'ici le 27 février à 17h01, sous peine de lourdes sanctions.

Le Pentagone intensifie la pression sur Anthropic et consulte ses partenaires industriels

26 février 2026 à 16:29

Le Department of War a sollicité Boeing et Lockheed Martin afin d’évaluer leur usage de Claude, l’IA d’Anthropic. Cette démarche intervient dans un contexte de tensions sur les conditions d’utilisation de l’outil par le ministère américain de la Défense, qui n’exclut pas de mettre au ban l’entreprise si elle ne revoit pas ses conditions d’utilisation militaires. 

Failles Claude Code : 3 vulnérabilités critiques corrigées par Anthropic

26 février 2026 à 06:32

Dans une étude publiée le 25 février 2026, les équipes de Check Point ont dévoilé trois vulnérabilités critiques affectant Claude Code, l'assistant de programmation IA développé par Anthropic.Ces failles exploitent la manière dont l'agent gère les fichiers de configuration du projet.

Le Pentagone donne 72 heures à Anthropic pour lui fournir un accès illimité à son IA

25 février 2026 à 11:34

Pentagone

Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.

❌