Vue lecture

J'ai mis un proxy entre claude et Internet

Je sais que le mot "IA" sur LinuxFr, c'est un peu comme prononcer "systemd" en 2015 ; ça ne laisse personne indifférent. Et je comprends. La merdification est réelle, la bulle est réelle, les externalités sont réelles. Je n'ai aucune envie d'en rajouter une couche. Mais voilà, les lignes sont devenues floues, et j'ai pris le virage du coding assisté. D'abord avec curiosité et prudence, et maintenant les deux pieds dans le plat : ça ne remplace pas ma façon de penser, mais ça m'a ouvert des portes : des concepts que je ne maîtrisais pas, des langages que je n'aurais pas pris le temps de toucher avant ; l'assistant me permet d'explorer, de comprendre, et de construire des outils qui m'aident. Et j'espère qu'ils aident d'autres personnes aussi.

Sauf que voilà. Au début, j'étais prudent. Je vérifiais chaque commande, chaque accès. Et puis petit à petit, j'ai lâché prise. J'ai désactivé les confirmations, laissé l'agent tourner sans supervision, accepté les permissions sans lire. On connaît tous ce moment où on clique "Allow" les yeux fermés parce que c'est la quinzième fois qu'il demande. J'ai fait exactement ce qu'on ne devrait jamais faire en sécurité : faire confiance par défaut.

Et un jour, je me suis dit : je n'ai aucune idée de ce que cet agent envoie sur le réseau. Aucune.

Alors j'ai construit un proxy un peu.. particulier.

Sommaire

Cher journal,

Ça fait un bail que je n'ai pas vraiment contribué à l'open source. Mes derniers vrais projets publics, c'était Kivy et les projets autour… ça remonte à quelques années maintenant, et j'ai pris ma "retraite" sur ces projets.

Mais je n'ai jamais arrêté de coder. J'ai juste réalisé un truc sur moi-même : le code, c'est un peu comme la musique pour moi. J'aime construire des choses. Je m'exprime mieux avec un éditeur et un terminal qu'avec ma voix ou mes mots. C'est probablement pour ça que je suis là à t'écrire un journal au lieu de faire un talk quelque part.

Le constat

On a passé des années à construire des pare-feux, des IDS, du monitoring pour nos serveurs de prod. Sur des entreprises plus grandes, on traque les connexions suspectes… Et puis un agent IA débarque sur notre machine de dev, on lui dit "tiens, refactore-moi ce module", et il fait ce qu'il veut sur le réseau sans qu'on le sache.

C'est quand même un peu absurde, non ?

Le truc, c'est qu'il n'existe pas vraiment d'équivalent à tcpdump ou iptables pour les agents IA sur nos machines. Pas de couche d'observabilité entre l'agent et Internet. Ou on contrôle, on se fait notre liste d'outils qu'on accepte, ou on fait confiance parce que bon, la sécurité, c'est pas si important… vraiment ?

Greywall et greyproxy

Avec l'équipe de Greyhaven, on a construit deux outils open source :

Greywall est un bac à sable deny-by-default pour les agents IA. Pas de Docker, pas de VM. Ça utilise directement les mécanismes du noyau Linux (namespaces, Landlock, Seccomp, eBPF) pour isoler le processus. Sur Linux, l'isolation réseau passe par un device TUN dans un namespace réseau dédié ; le processus sandboxé ne peut structurellement pas contourner le proxy. Sur macOS, c'est un peu moins élégant en utilisant des variables d'environnement pour forcer un proxy socks5h, si l'outil ne le supporte pas, il ne peut quand même pas sortir. Ça fait le job pour la plupart des outils.

Greyproxy est le plan de contrôle réseau. Un proxy SOCKS5/HTTP avec un dashboard web temps réel. Chaque connexion sortante de l'agent apparaît dans le dashboard. Si aucune règle ne matche, la connexion reste en attente et tu peux l'autoriser ou la refuser en direct, sans relancer la session.

Concrètement, ça donne :

greywall -- claude

Et hop, Claude Code tourne dans son bac à sable. Tu ouvres http://localhost:43080 et tu vois en direct chaque domaine qu'il tente de contacter. Tu autorises api.anthropic.com, tu autorises github.com pour les pushes, tu refuses le reste. Tout est interactif, tout est visible.

Ce que j'ai observé

Au début, c'était juste des connexions supplémentaires. Tiens, c'est quoi ces appels à opencode.ai quand je démarre opencode ? Tiens, pourquoi Claude appelle 2x toutes les 4 minutes un domaine chez Google ? Entre de la télémétrie que l'on ne peut pas désactiver, ou des requêtes qui font "office" de regarder si une nouvelle version est disponible… 2x toutes les 4 minutes. Ce n'est pas le meilleur argument, mais contrairement aux autres sandboxes, au moins ici je le vois en temps réel, et je peux dire oui ou non sur ce que peut accéder la commande.

Le dashboard de greyproxy rend tout ça visible. Tu vois passer les requêtes DNS, les connexions TCP, les domaines contactés. Tu peux construire progressivement une liste d'autorisations adaptée à ton projet. Il y a même un mode apprentissage qui trace les accès filesystem avec strace et génère automatiquement un profil de sécurité.

Ce n'est pas un outil pour les paranos. C'est un outil pour ceux qui pensent que l'observabilité, c'est un droit, pas un luxe.

Pourquoi ça compte

Je sais que l'enthousiasme pour l'IA est réellement différent en fonction des gens. Les questions sur la qualité du code généré, la consommation énergétique, la centralisation chez les GAFAM ; tout ça est légitime.

Mais justement. Si on utilise ces outils (et beaucoup d'entre nous le font, même ceux qui restent prudents), autant le faire avec les yeux ouverts. Greywall, c'est pas un outil pour promouvoir l'usage des agents IA. C'est un outil pour que, si tu en utilises un, tu gardes le contrôle.

Il y a une phrase qu'on a mise sur le site et qui résume bien l'idée :

"The security layer around your tools should be independent of the company selling you the AI."

La couche de sécurité autour de tes outils ne devrait pas dépendre de la boîte qui te vend l'IA. Claude a son propre sandbox intégré, Codex a le sien. Mais tu fais confiance aux entreprises pour te protéger d'elles-mêmes ? C'est un problème d'indépendance, pas de technologie.

Greywall est agnostique. Ça marche avec Claude Code, Codex, Cursor, Aider, Goose, Gemini CLI, Cline, et une dizaine d'autres. Tu changes d'agent, ta couche de sécurité reste la même.

Et après : vers un proxy sémantique

Le greyproxy actuel travaille au niveau des connexions : il voit les domaines, les ports, les IPs. Il ne déchiffre pas le TLS, il ne lit pas le contenu. C'est déjà très utile pour contrôler les accès réseau.

Mais là où ça devient vraiment intéressant, c'est quand on commence à reconstruire les conversations LLM qui passent par le proxy. Pas en cassant le chiffrement ; en instrumentant le flux côté client. L'idée, c'est de construire un proxy sémantique qui comprend ce que l'agent envoie et reçoit, qui peut faire du remplacement de variables d'environnement à la volée (pour ne jamais exposer tes vrais secrets à l'API du LLM), et qui te donne une vision complète de ce que l'IA fait en ton nom.

On en est au début, mais la direction est claire : remettre l'humain au milieu du système. Pas comme un goulot d'étranglement, mais comme un observateur informé qui peut intervenir quand c'est nécessaire. C'est ce qui manque cruellement à des systèmes comme OpenClaw et à la plupart des outils d'orchestration d'agents.

Pour essayer

Installation rapide :

# Homebrew
brew tap greyhavenhq/tap && brew install greywall

# Ou via curl (pas taper)
curl -fsSL https://raw.githubusercontent.com/GreyhavenHQ/greywall/main/install.sh | sh

Ça tourne sur Linux et macOS. Sur Linux, il te faut bubblewrap et socat comme dépendances. Greyproxy s'installe comme service systemd si tu veux qu'il tourne en permanence.

Si tu veux comprendre les détails techniques de l'architecture (les 5 couches de sécurité, pourquoi on a abandonné Docker, comment fonctionne la capture réseau transparente), on a écrit un article technique détaillé ici : https://greyhaven.co/insights/why-we-built-our-own-sandboxing-sytem

La question

J'ai une vraie question pour la communauté. Ceux d'entre vous qui utilisent des agents IA pour coder (même occasionnellement, même à contrecœur) : comment vous gérez la sécurité ? Vous faites confiance par défaut ? Vous avez mis en place quelque chose ? Ou vous préférez ne pas y penser ?

Et pour ceux qui n'utilisent pas d'agents IA : est-ce que le manque de transparence et de contrôle fait partie des raisons ?

Ça m'intéresse vraiment de savoir :)

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

« Alerte rouge » chez OpenAI : Sam Altman sacrifie ses projets annexes pour sauver ChatGPT

Tandis qu’Anthropic cartonne, OpenAI acté un revirement de stratégie clair : fini les projets annexes, la priorité passe désormais aux outils de productivité pour les entreprises, rapporte le Wall Street Journal le 16 mars 2026. Un changement de cap qui confirme, une nouvelle fois, que la course à l’IA s’accélère.

  •  

Nvidia veut mettre des serveurs dans l’espace : faut-il y croire ?

Lors du GTC 2026, Nvidia a officialisé son ambition de conquérir l’orbite terrestre avec sa gamme « Space Computing ». Si l’idée de déployer de véritables data centers spatiaux dédiés à l’IA fait rêver, le géant des puces se heurte à un obstacle redoutable et incontournable : les lois implacables de la thermodynamique.

  •  

Revue de presse de l’April pour la semaine 11 de l’année 2026

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[ZDNET] L'administration étudie un poste de travail sous Linux, une circulaire prône l’open source quand «c’est pertinent»

✍ Thierry Noisette, le dimanche 15 mars 2026.

La Dinum étudie le développement d’un poste de travail sous GNU/Linux. Sébastien Lecornu a publié le 5 février une circulaire qui «recommande de privilégier, lorsque c’est pertinent, le recours à des produits open source».

[La Tribune] L’Assemblée passe au crible l’usage d’outils numériques étrangers par les services de l’État

✍ Mathis Beautrais, le dimanche 15 mars 2026.

Une commission d’enquête de l’Assemblée nationale recense les usages d’outils numériques non européens dans les services de l’État, au nom de la souveraineté technologique et démocratique.

[Le Monde.fr] «J’ai décidé de faire mes adieux à Gmail»: ces initiatives pour se passer des Big Tech américaines (€)

✍ Nastasia Hadjadji, le samedi 14 mars 2026.

Accompagnés par des associations, des particuliers et des collectifs abandonnent les Gafam au profit d’autres solutions, libres, sobres, locales et non marchandes.

[Le Monde Informatique] Pourquoi l'IA menace les licences logicielles

✍ Reynald Fléchaux, le vendredi 13 mars 2026.

Comme le montre l’exemple d’une bibliothèque Python, les licences copyleft peuvent facilement être contournées par une réécriture du code dans une IA. Et la problématique concerne aussi le logiciel propriétaire.

[LeMagIT] Dossier: administrez le réseau avec des outils Open source

✍ Cyberhebdo, le mercredi 11 mars 2026.

Ce guide regroupe les solutions incroyablement puissantes et néanmoins accessibles gratuitement pour surveiller le trafic et la sécurité des réseaux. La connaissance de ces outils est considérée comme un avantage dans les entretiens d’embauche.

[Next] Interpellée par le logiciel libre, Bruxelles ajoute un ODS à sa consultation Cybersécurité

✍ Alexandre Laurent, le mercredi 11 mars 2026.

Il n’y a pas de petite victoire. La Document Foundation, qui pilote le développement de la suite bureautique libre et gratuite LibreOffice, s’est félicitée mardi 10 mars d’avoir obtenu gain de cause en 24 heures auprès de la Commission européenne.

[ITforBusiness] Entretien avec Tomasz Blanc, DSI de la DGFiP

✍ Thierry Derouet, le vendredi 27 février 2026.

La Direction générale des Finances publiques administre l’un des SI les plus stratégiques de l’État: près de 800 applications, 5 000 agents, l’impôt sur le revenu, le prélèvement à la source, bientôt des milliards de factures électroniques. À sa tête, Tomasz Blanc raconte comment la DGFiP fait monter en puissance le cloud souverain Nubo, prend le virage de l’IA tout en résorbant la dette technique d’un SI de plus de quarante ans.

Et aussi:

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Pas de porno mais de l’érotisme : ce que l’on sait du futur « mode adulte » de ChatGPT

Alors que le « mode adulte » de ChatGPT est de nouveau repoussé, le Wall Street Journal a révélé, ce dimanche 15 mars 2026, de nouveaux détails sur le fonctionnement de l’outil. Entre promesses de contenus érotiques textuels et failles inquiétantes du système de vérification d'âge, la firme de Sam Altman navigue en pleine zone grise.

  •  

Il refuse de voir son chien mourir : l’incroyable récit d’un maître qui a créé son propre vaccin avec l’IA

Condamné par les vétérinaires à voir sa chienne mourir d’un cancer avancé, un ingénieur australien a décidé de concevoir lui-même un traitement expérimental. En s’aidant notamment de ChatGPT et d’outils d’IA, il a participé à la création d’un vaccin anticancéreux personnalisé à ARN messager pour son animal.

  •  

L’économie du logiciel est-elle morte ?

Dan Blanchard vient de publier une nouvelle version de Chardet, une bibliothèque Python largement utilisée, sous licence MIT permissive, alors que les versions précédentes étaient sous licence GNU LGPL. Comment est-ce possible, étant donné que Dan est le responsable de cette bibliothèque, mais qu’il n’en est ni l’auteur originel ni le seul contributeur ? La réponse est très simple et d’actualité : cette version est une réécriture complète du projet, réalisée par l’IA Claude en cinq jours. Elle n’emprunte aucun fragment de code aux versions antérieures. Plus précisément, les quelques correspondances identifiées (1,3 % du code) ne sont pas spécifiques à Chardet. Elles correspondent à des idiomatismes dans les projets en Python.

Après avoir mené ses propres expériences, tout aussi convaincantes, Bruce Perens a récemment déclaré :

Je brise la vitre et déclenche l’alarme incendie ! Toute l’économie du développement logiciel est morte, disparue, finie, kaput !

Comme le souligne Bruce Perens, ce problème n’est pas spécifique aux logiciels libres. Les éditeurs de logiciels indépendants et leur modèle économique sont également ubérisés par les IA génératives. Et, bien sûr, cette question existentielle concerne également les ESN (i.e. les sociétés de service).

NdM: des infos complémentaires en provenance du lien ayant déjà généré quelques commentaires : d’abord l’auteur originel de Chardet demande d’annuler ce changement de licence qu’il considère comme une violation des droits ; et déjà au moins un ticket considérant un risque juridique « v7.0.0 presents unacceptable legal risk to users due to copyright controversy ». Sont aussi mentionnés un article LWN (accès réservé aux abonnés jusqu’au 19 mars et accès libre ensuite), et un autre cas de réécriture d’une application dans un autre langage et une autre licence, mais faite d’une toute autre manière avec GNU Coreutils (C, GPL) et uutils (Rust, MIT). Encore d’autres articles via Phoronix ou Slashdot ou LinkedIn ou…

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Perplexity mise sur le Mac mini pour concurrencer OpenClaw : le début d’une révolution ?

Avec « Personal Computer », Perplexity propose d'héberger une instance locale de son Perplexity Computer sur un Mac mini toujours connecté au réseau. L'idée est de pouvoir traiter des documents à distance et d'utiliser Perplexity en guise d'interface. Mais son idée divise : peut-on vraiment parler d'une IA locale si tout passe par Internet ?

  •  
❌