Vue normale

L’École 3.0 : quand l’IA enseigne, le prof éduque enfin

19 avril 2026 à 05:38

Doit-on confier l’éducation de nos enfants à l’IA ? Ou, au contraire, la proscrire des salles de classe ? Faux débat. Le véritable enjeu est ailleurs : l'IA peut mettre fin à la tyrannie des notes, et devenir un profond réducteur d'inégalités.

L'école publique semble à bout de souffle. Classes surchargées par endroits, corps professoral frôlant l'épuisement, absences non remplacées, effondrement du niveau dans les classements internationaux et creusement des inégalités sociales. Pendant que la société s'écharpe sur des débats devenus rituels comme le port de l'uniforme, la dictée quotidienne ou l'interdiction stricte des smartphones, une révolution silencieuse est en train de s'écrire dans les laboratoires de l'EdTech. Fini l'apprentissage passif et la sanction couperet de la note de fin de trimestre. Place à l'École 3.0. Sans tabou, et avec une puissance d'analyse inédite, la technologie prépare l'arrivée d'une intelligence artificielle qui s'imposera, non pas comme un énième gadget récréatif, mais comme un véritable professeur personnel. Un compagnon d'apprentissage sur mesure qui suivra chaque enfant, depuis son pupitre d'école jusqu'au bureau de sa chambre.

2035 : une journée ordinaire, du collège à la maison

Bordeaux, 8 h 30. Le silence règne dans la classe de 4e B du collège Montaigne. Pourtant, le cours de mathématiques bouillonne d'interactions invisibles. Sur chaque pupitre, une simple copie double, un stylo, et une tablette posée sur un bras articulé dont la caméra pointe vers la table. Lucas, 13 ans, s'attaque à une équation complexe. Il rédige ses calculs à la main. Il hésite, rature, puis se lance dans un développement hasardeux. Instantanément, une notification discrète apparaît sur l'écran de sa tablette. C'est « Luciole », l'assistant pédagogique de la classe. Lucas met son oreillette et chuchote : « Qu'est-ce qui coince ? ».

La voix chaleureuse et synthétique de l'IA lui répond en temps réel, directement dans le creux de l'oreille : « Ton début de raisonnement est parfaitement logique, Lucas. En revanche, si tu continues dans cette direction à la ligne 3, tu vas oublier de changer le signe en passant le chiffre de l'autre côté. Si je devais te noter maintenant, je t'enlèverais deux points pour cette erreur. Veux-tu que je t'explique pourquoi ? ».

C'est ce que les ingénieurs pédagogiques appellent le « devoir accompagné IA ». Lucas ne se contente pas d'écouter passivement la correction, il dialogue. Fini la peur du jugement liée à la prise de parole publique, il demande à la machine de lui réexpliquer la règle des signes dans le contexte précis de son calcul autant de fois que nécessaire. L'explication est chirurgicale, formulée pour lui. Lucas sourit, gomme son erreur et reprend son stylo de plus belle. L'apprentissage se fait par l'action corrigée, à la volée, comme avec un professeur particulier.

8 h 45. Au bureau, Nicolas, l'enseignant, ne surveille pas ses élèves d'un air oisif, plongé dans ses pensées. Les yeux rivés sur son ordinateur portable, il observe le tableau de bord de progression en temps réel de la classe s'animer en direct. Il voit l'évolution de la compréhension de ses vingt-huit élèves s'afficher sous forme de cartographie de données. La classe n'est plus cette éternelle « boîte noire » où ceux qui ne comprennent pas se cachent au fond de la salle pour échapper au regard du maître.

Sur son écran, le vert domine, mais deux autres signaux attirent son attention. Une zone rouge clignote avec insistance du côté de la rangée de la fenêtre : le logiciel indique à Nicolas que cinq élèves butent tous sur la même étape conceptuelle, malgré les relances de l'IA. Plus loin, un indicateur orange signale une inactivité prolongée. Léo et Maxime ne butent pas sur l'équation : ils bavardent tranquillou et leur stylo n'a pas touché la feuille depuis cinq minutes.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article L’École 3.0 : quand l’IA enseigne, le prof éduque enfin est apparu en premier sur Les Électrons Libres.

💾

IA – Tu ne tueras point… ou pas.

9 avril 2026 à 05:11

Création de deepfakes pornographiques ou politiques, malwares toujours plus puissants… Malgré les annonces des grandes compagnies, imaginer une IA inoffensive est un leurre. Jailbreak, ablitération… les techniques de détournement sont nombreuses. Alors, devons-nous accepter cette nouvelle réalité ?

La promotion des IA se fonde sur la mise en avant de produits bien lisses, bridés par des armées de modérateurs, d’ingénieurs et de juristes « Trust & Safety » qui transpirent à l’idée que leur modèle lâche une recette de crystal meth à votre ado de 15 ans. « Tu ne tueras point », « Tu ne généreras pas de code malveillant », l’esprit des lois de la robotique d’Asimov est recyclé sans retenue. Sauf que la réalité démontre que l’alignement moral des LLM (Large Language Models) est une vaste blague, un vernis qui craque à la première pichenette.

Plongeons alors dans les entrailles de l’IA uncensored : du mind-trick psychologique au charcutage mathématique, en passant par le tuning de garage. Accrochez-vous, on fait sauter tous les verrous !

Le jailbreak, ou comment saturer le cerveau d’une IA

Oubliez les prompts encodés en Base64 (un système qui transforme le texte en une suite de caractères illisibles) ou en « leetspeak » (ce langage où on remplace des lettres par des chiffres ou des symboles, comme « 1337 » pour « elite »). Ces méthodes sont repérées presque instantanément par les systèmes de sécurité d’Anthropic ou d’OpenAI.

Prenez « Spiritual Spell », connu aussi sous le pseudonyme de Vichaps. Cet ancien militaire américain s’est reconverti en chercheur spécialisé dans le « Red Team » : il teste volontairement les failles des intelligences artificielles, un peu comme un hacker éthique qui simule des attaques pour renforcer les défenses.

Un jour, alors qu’un « Maître du Donjon » – c’est le nom donné au système de garde-fou chargé de bloquer toutes les demandes dangereuses, illégales ou contraires à l’éthique – refusait de répondre à ce qu’il demandait, il a décidé de consacrer beaucoup de son temps à « jailbreaker » les modèles d’IA, soit d’en contourner les restrictions de sécurité intégrées.

Sa méthode de prédilection ? Le Peeling Onions (l’épluchage d’oignons). Plutôt que de forcer la porte de manière frontale, il la contourne en s’appuyant sur trois piliers psychologiques :

Le langage naturel : il s’agit de s’adresser à la machine le plus normalement du monde. Les IA sont intrinsèquement entraînées pour être « sycophantes », c’est-à-dire complaisantes et avides de satisfaire l’utilisateur. Dès qu’elles repèrent des mots ou des tournures typiques d’un « hacker » (comme des termes techniques suspects, des demandes de piratage ou un vocabulaire agressif), elles déclenchent immédiatement une alerte et bloquent la réponse. En évitant complètement ce lexique, Vichaps empêche ces systèmes de sécurité de sonner l’alarme. Son approche reste douce, polie et en apparence inoffensive, ce qui lui permet de progresser couche après couche sans éveiller les soupçons. L’IA privilégie alors son inclination naturelle à rendre service plutôt que le strict respect de ses directives de sécurité.

La division de l’attention : un modèle de langage dispose d’une capacité de calcul et d’attention limitée par requête. La technique consiste à dissimuler la commande pernicieuse sous une avalanche de détails descriptifs ou sensoriels secondaires. En demandant à l’IA de se concentrer sur l’odeur métallique d’un atelier des années 90 ou l’esthétique d’un décor précis, chaque « token » dépensé pour l’imagination est soustrait aux algorithmes de modération. Le modèle, saturé par la charge narrative environnementale, exécute la requête principale sans opposer de résistance.

Les récits imbriqués : c’est l’application détournée du jeu de rôle. L’utilisateur façonne un persona, par exemple une romancière rédigeant une œuvre de fiction dystopique. Pour un LLM, la cohérence narrative prime souvent sur l’injonction morale. Il ne s’agit plus de lui demander d’accomplir une action illégale, mais de décrire avec authenticité une scène de son roman où un personnage l’accomplit. L’IA, stimulée par cet exercice d’improvisation, livre les informations sensibles au nom de l’immersion littéraire.

L’ablitération : la lobotomie mathématique

Si le jailbreak relève de la manipulation, il exige néanmoins un effort constant de contournement. Que se passe-t-il lorsqu’on souhaite obtenir un modèle affranchi de toute contrainte éthique, et ce, de manière permanente ?

C’est ici qu’intervient l’ablitération (contraction d’ablation et d’itération, qui résonne avec son quasi-synonyme « oblitération »), un concept popularisé par un chercheur connu sous le pseudonyme de FailSpy.

Contrairement au réentraînement classique, l’ablitération s’apparente à une intervention chirurgicale post-conception, opérée directement sur les matrices de poids du modèle. Les chercheurs ont mis en évidence l’existence d’une « direction de refus » au sein de l’espace d’activation des LLM. Lorsqu’une IA s’apprête à formuler une fin de non-recevoir du type « Je suis désolé, mais en tant qu’IA, je ne peux pas… », ses réseaux neuronaux s’activent selon un vecteur très précis et identifiable.

IA : peut-on coder la morale ?

J’approfondis

L’opération consiste donc à isoler cette direction vectorielle et à la soustraire par une simple opération d’algèbre linéaire (une orthogonalisation). Le résultat est pour le moins troublant : la machine conserve l’intégralité de ses capacités cognitives, de sa logique et de son savoir, mais se voit physiquement amputée de son mécanisme de blocage. Un modèle ainsi « ablitéré » générera le code d’un malware ou d’un script offensif de scan de vulnérabilités sans la moindre hésitation.

Le fine-tuning : l’école du vice sur mesure

Si l’ablitération supprime la notion de refus, le réentraînement fin (fine-tuning) permet, quant à lui, d’inculquer activement des comportements illicites. L’hégémonie de firmes comme OpenAI s’estompe face à la prolifération de modèles ouverts (à l’instar des modèles Qwen d’Alibaba ou des modèles de Mistral), dont les poids sont téléchargeables librement.

L’enjeu se situe dans l’accessibilité de ces technologies. Avec une puissance de calcul relativement modeste (quelques cartes graphiques louées dans le cloud pour quelques centaines ou milliers de dollars) et des méthodes d’optimisation comme LoRA, il est désormais possible à n’importe quel passionné de s’approprier un modèle de base et de le personnaliser avec ses propres jeux de données. Or, par définition, ces bases de données échappent à toute supervision.

IA : comment greffer une mémoire à un poisson rouge ?

J’approfondis

En alimentant un modèle avec des discussions extraites de forums du Dark Web, des dépôts de code malveillant, des manuels de guérilla ou des archives de campagnes de hameçonnage (phishing) ultra-ciblées, l’usager crée une IA experte en illégalité. Le modèle assimile le ton, la méthodologie et l’efficacité des données qu’il a ingérées, devenant ainsi une arme numérique façonnée sur mesure.

Génération visuelle : l’industrialisation des deepfakes

Si les dérives textuelles posent un risque sécuritaire majeur, le franchissement des barrières morales prend une dimension encore plus vertigineuse avec les modèles de génération visuelle.

Les acteurs majeurs tels que Midjourney ou Nano Banana ont déployé des filtres drastiques pour prévenir la génération d’images sensibles, de figures politiques ou de contenus sous droits d’auteur, tétanisés par le risque de scandales médiatiques. Mais l’écosystème open source, avec des modèles comme Stable Diffusion, Wan, LTX ou Flux, permet, avec les techniques précédentes, tous les excès.

Une fois ces modèles débridés ou entraînés sur des données non filtrées, la manipulation d’images passe à une échelle industrielle. La création de deepfakes pornographiques non consentis, impliquant des personnalités publiques (Taylor Swift en fut récemment la cible) ou de simples anonymes, devient un processus automatisé. De la même manière, la fabrication de fausses preuves vidéo destinées à compromettre un adversaire, à alimenter une campagne de chantage ou à orienter une élection ne requiert plus d’expertise technique pointue : c’est l’affaire de quelques clics.

Du point de vue de l’internaute, et même du journaliste, le plus important est plus que jamais d’aiguiser son esprit critique et de respecter une logique généralement efficace : toujours recouper une information à partir de sources distinctes de qualité.

Enfin, l’aspect le plus sombre de cette technologie réside dans la génération de matériel pédopornographique par IA, atteignant un niveau de photoréalisme impossible à distinguer d’authentiques clichés. Ces modèles fonctionnant en vase clos, souvent en local sur une simple carte graphique d’un PC gamer, échappent à tout mécanisme de contrôle : il n’y a pas d’API à couper, pas d’adresse IP à bannir et pas de filigrane pour les différencier de photos ou de vidéos réelles. N’importe quel esprit malveillant peut ainsi transformer sa machine en une manufacture d’horreurs, produisant du contenu abusif à la chaîne.

L’éternel avantage de l’attaquant

In fine, le battage médiatique et institutionnel autour de la « sécurité de l’IA » témoigne d’une certaine hypocrisie, ou, au moins, d’une amnésie historique quant à une règle fondamentale de l’informatique, de la délinquance et des conflits. De tout temps, que ce soit dans l’histoire de la stratégie militaire (la course perpétuelle entre le projectile et le blindage) ou dans la cybersécurité moderne (les vulnérabilités zero-day devançant inévitablement les antivirus), l’attaquant a toujours conservé l’ascendant sur le défenseur. L’offensive dicte le rythme de l’évolution technologique ; le bouclier ne fait que s’adapter, avec un perpétuel temps de retard.

Vouloir concevoir une intelligence artificielle absolument et intrinsèquement inoffensive relève du non-sens absolu. Cela reviendrait à forger un couteau performant qui s’obstinerait à refuser de trancher de la chair humaine tout en coupant un steak à la perfection. C’est mathématiquement, logiquement et philosophiquement voué à l’échec. La vulnérabilité n’est pas uniquement technologique, elle est organique.

C’est donc avant tout la responsabilité — et la volonté — de l’usager qui déterminent l’impact d’une IA. Les mesures de protection algorithmiques, les réglementations européennes, qu’il s’agisse de garde-fous, de méthodes d’alignement ou de modérateurs humains, importent finalement assez peu à grande échelle : elles finiront toujours par céder face à l’ingéniosité et à la détermination de cybercriminels, d’acteurs étatiques ou d’individus économiquement motivés par l’absence de limites. L’intelligence artificielle n’est qu’un puissant levier cognitif et créatif. C’est la main humaine, et elle seule, qui choisit la direction vers laquelle elle veut amener une technologie.

« Tu ne tueras point ? » Peut-être. Mais l’humain, derrière un clavier ou non, lui, ne s’en est jamais privé.

L’article IA – Tu ne tueras point… ou pas. est apparu en premier sur Les Électrons Libres.

VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ?

22 mars 2026 à 08:12

La guerre est lancée. Une guerre scientifique, économique et stratégique où s’affrontent quatre écoles de pensée et trois continents. Une guerre qui va redéfinir notre monde, et où la France, avec l’installation de Yann LeCun et de sa start-up Advanced Machine Intelligence, a sa carte à jouer.

Un robot qui observe une scène, comprend ce qui s'y passe et anticipe les conséquences de ses actes avant même de bouger le petit doigt. Ce n'est plus de la science-fiction. C'est la promesse d'une technologie hybride vertigineuse : les VLA (des modèles qui fusionnent vision, langage et action) couplés aux World Models (des systèmes permettant aux machines d'imaginer l'avenir).

Cette avancée silencieuse est sur le point de redéfinir notre monde physique. Elle pourrait créer des millions d'emplois... ou en détruire autant. Surtout, elle est le théâtre d'une guerre idéologique entre les chercheurs stars de l'IA et d'une course géopolitique féroce où la Chine, les États-Unis et la France jouent leur souveraineté technologique. Pourquoi cette bataille nous concerne-t-elle tous ? Plongée dans les rouages de l'IA qui s'incarne.

Étincelants aux échecs, empotés en cuisine

Fermez les yeux et imaginez une scène banale : vous êtes dans une cuisine inconnue, vous ouvrez un placard, saisissez une tasse transparente à la forme atypique et vous vous servez un café. Pour vous, c'est l'affaire de quelques secondes. Pour un robot coûtant plusieurs dizaines de milliers d'euros, c'est aujourd’hui un cauchemar absolu.

C'est ce qu'on appelle le paradoxe de Moravec : les machines excellent à exercer des tâches qui exigent des calculs complexes (analyser des milliards de données, battre des champions d'échecs), mais, dans un environnement ouvert, elles trébuchent face aux gestes sensorimoteurs de base qu'un enfant de trois ans maîtrise intuitivement. Pourquoi ?

Le cœur du problème réside dans le fossé entre la perception (voir) et l'action (bouger). Jusqu'à récemment, l'approche classique consistait soit à coder explicitement chaque mouvement dans des environnements ultra-contrôlés (la « robotique de cage » de nos usines automobiles), soit à utiliser « l'apprentissage par renforcement ». Cette dernière méthode force le robot à échouer des millions de fois en simulation avant de réussir. Mais le monde réel n'est pas une simulation stérile : il est chaotique, imprévisible. Face à la nouveauté, les robots classiques s'effondrent. Il leur manquait encore la clé de voûte de l'intelligence biologique : la capacité de généraliser.

Les VLA : quand l'IA devient le système nerveux des machines

La première moitié de la solution s'appelle le VLA (Vision-Language-Action model). Après les LLM comme ChatGPT (qui prédisent du texte) et les VLM (qui comprennent des images), les VLA sont l'aboutissement « incarné » de l'IA.

Donnez à un VLA l'image d'une table en désordre et l'instruction textuelle : « Range la pomme dans le bol ». Le modèle ne génère pas une phrase de réponse : il recrache directement des « tokens d'action ». Concrètement, il calcule l'angle exact du bras robotique et la force de préhension des doigts. Née avec le modèle RT-2 de Google, cette technologie a explosé avec des architectures comme OpenVLA et π0 (Physical Intelligence). Entraînés sur le « bon sens » d'Internet et des milliers d'heures de vidéos, ils permettent aux robots d'exécuter des instructions inédites.

L'enjeu géopolitique : si l'Occident en a posé les bases théoriques, la Chine est le leader incontesté du déploiement physique de ces cerveaux. Elle concentre aujourd'hui plus de 80 % des installations de robots humanoïdes. Xiaomi a, par exemple, intégré son modèle Xiaomi-Robotics-0 directement sur les chaînes de montage de ses voitures SU7. De son côté, XPENG déploie son architecture VLA 2.0 simultanément sur ses robotaxis, ses humanoïdes et ses voitures volantes. La Chine n'installe pas juste des robots ; elle bâtit une économie robotisée qui menace de laisser l'Europe à la traîne.

Les World Models : les 4 écoles de l'imagination artificielle

Si le VLA joue le rôle du système nerveux central, il lui manque une faculté essentielle pour ne pas faire de dégâts : l'imagination. C'est ici qu'entrent en scène les World Models (modèles du monde). C'est l'équivalent de notre cerveau qui « joue » des scénarios à l'avance : avant d'attraper un verre, vous savez que, si vous le bousculez, il va tomber et se briser.

Cependant, sous le terme « World Model » se cache une véritable guerre de paradigmes. Les chercheurs s'affrontent sur la meilleure façon d'enseigner la physique aux machines. Quatre grandes écoles se disputent la victoire :

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ? est apparu en premier sur Les Électrons Libres.

💾

Data : l’exceptionnelle passoire française

3 mars 2026 à 18:17

29 données personnelles perdues par habitant : la France figure parmi les quatre pays les plus touchés au monde. Derrière les hackers et les failles techniques, c’est toute une chaîne de vulnérabilités qui est en cause. Mais, bonne nouvelle : les solutions sont connues.

Imaginez : vous postulez à un emploi via France Travail. Nom, prénom, numéro de sécurité sociale, adresse, téléphone — tout y passe. Quelques mois plus tard, ces informations circulent librement sur Internet. Ce n’est pas de la science-fiction : en mars 2024, les données de 36,8 millions de Français ont été aspirées par des pirates. La CNIL a révélé un détail édifiant : en une seule journée, 9 gigaoctets de données — l’équivalent de 13 millions de fiches — ont été extraits sans que personne ne s’en aperçoive.

France Travail n’est pas un cas isolé. SFR, Free, Cegedim, IDMerit, l’Office français de l’immigration… Les violations ont été multipliées par 14 en un an. Neuf Français sur dix sont concernés. Seuls les États-Unis et la Russie font pire en densité de fuites par habitant. Pour comprendre comment on en est arrivé là, il faut démonter la mécanique : chaque maillon de la chaîne numérique peut céder, et les pirates le savent.

On ne force plus la porte, on vole les clés

Première faille, et de loin la plus fréquente : l’identité. Oubliez le hacker qui « casse » du code. Aujourd’hui, à l’échelle mondiale, dans 60 % des cas, les fuites impliquent un facteur humain — erreur, manipulation ou abus de confiance. Le pirate ne fracture plus la serrure : il se fait remettre la clé.

Comment ? Par l’ingénierie sociale, d’abord. Un e-mail piégé, un faux appel téléphonique — et un salarié livre son mot de passe. C’est exactement ce qui s’est passé chez France Travail : les attaquants se sont fait passer pour des conseillers de Cap Emploi. Avec un simple identifiant, ils ont consulté l’intégralité de la base comme des employés ordinaires peuvent le faire.

Ensuite, il y a le marché noir des identifiants. Des logiciels malveillants appelés « infostealers » infectent silencieusement les ordinateurs et aspirent les mots de passe professionnels. 30 % des machines compromises étaient pourtant équipées d’antivirus. Les identifiants se revendent par millions, au même titre qu’un objet d’occasion. Un mot de passe seul, en 2025, ne protège tout simplement plus rien.

L’erreur invisible des développeurs

Deuxième maillon faible : le code lui-même. Dans la course au « tout connecté », les développeurs ont excellé pour vérifier votre identité (« Qui êtes-vous ? ») mais parfois négligé de vérifier vos droits (« Avez-vous accès à cette donnée précise ? »). C’est la différence entre authentification et autorisation — deux mots proches mais deux concepts très différents. Concrètement, il suffit parfois de modifier un numéro dans l’adresse web d’un service pour accéder aux données du voisin, comme si vous pouviez ouvrir le casier de quelqu’un d’autre en changeant un chiffre sur le cadenas. Cette faille, dite de « contrôle d’accès défaillant », est classée première menace mondiale par l’OWASP, l’organisme de référence en sécurité des applications web.

Le Vibe Coding : magie créative ou bombe à retardement

J’approfondis

L’essor du cloud aggrave le problème. Autrefois, les serveurs d’une entreprise n’étaient pas tous accessibles sur Internet. Aujourd’hui, ils sont hébergés chez Amazon, Google, Microsoft, Scaleway ou OVH, et c’est le développeur « full stack » (capable de travailler sur toute la chaîne d’une application web jusqu’à son déploiement sur les serveurs) qui les configure. Sauf qu’un bon développeur n’est pas forcément un bon ingénieur réseau et sécurité : on retrouve régulièrement des bases de données de test ou de production — contenant de vraies informations de vrais clients — accessibles à quiconque sur Internet, simplement parce qu’un réglage a été oublié.

L’ennemi intérieur

Parfois, la fuite vient de l’intérieur, et elle est volontaire. En Europe, 29 % des violations proviennent d’acteurs internes à l’organisation. Un employé mécontent qui copie une base clients avant de claquer la porte. Un prestataire curieux qui consulte des dossiers qui ne le regardent pas. Un commercial qui exporte des fichiers sur une clé USB pour les emporter chez un concurrent. Ces fuites « humaines » sont les plus difficiles à détecter : l’individu a, en apparence, parfaitement le droit d’accéder aux données qu’il subtilise.

La sous-traitance, bombe à retardement

Aucune entreprise ne fonctionne seule. Vos données de santé transitent par un prestataire, votre banque confie ses contrats à un tiers, votre opérateur téléphonique délègue la maintenance de son site. La part des fuites impliquant un sous-traitant a doublé en un an, passant à 30 %. L’affaire Viamedis l’illustre : en piratant ce prestataire du tiers payant de mutuelles, les attaquants ont accédé aux données de 33 millions d’assurés, soit la moitié de la population française.

Plus insidieuse encore : la chaîne logicielle. Lorsqu’un développeur construit une application, il intègre des centaines de briques de code créées par d’autres — comme un chef cuisinier qui achèterait ses ingrédients à des dizaines de fournisseurs. Il suffit qu’un seul soit contaminé pour empoisonner le plat entier. C’est ce qui s’est produit avec la faille Log4j en 2021 : une petite bibliothèque de code utilisée dans des milliers de logiciels s’est révélée compromise, ouvrant la porte à des attaques à l’échelle planétaire. Plus récemment, l’éditeur Notepad++, très apprécié des développeurs, a subi lui aussi une compromission de son code source.

Le fantôme dans la machine : la dette technique

Dernier maillon, et non des moindres : les vieux systèmes. Paradoxe de 2025 : on peut se faire voler des données via un boîtier VPN vieux de dix ans ou un logiciel de gestion de site web jamais mis à jour. Ces logiciels et matériels « legacy », souvent oubliés des équipes informatiques, sont les cibles préférées des failles dites « zero-day » — des vulnérabilités inconnues des concepteurs et exploitées avant qu’un correctif n’existe. Le pirate entre par le vieux système, puis « pivote » vers les environnements modernes. Le rapport Verizon 2025 le confirme : les failles sur les équipements de périmètre (VPN, pare-feux) ont été multipliées par huit, et seules 54 % d’entre elles sont corrigées, avec un délai médian de 32 jours.

Le VPN, ce faux ami de votre vie privée

J’approfondis

Le mirage réglementaire européen

Face à cette hémorragie, la réglementation devrait protéger les citoyens. Le RGPD a marqué un progrès, mais sept ans après, un constat s’impose : la logique européenne reste massivement administrative. On investit dans les registres, les analyses d’impact, les déclarations de conformité, bref, dans la paperasse. C’est comme exiger d’un restaurant qu’il remplisse trente formulaires sur l’hygiène sans jamais vérifier la température de ses réfrigérateurs. France Travail en est le cas d’école : l’organisme avait identifié toutes les mesures de sécurité nécessaires dans ses analyses d’impact… sans jamais les appliquer.

Le contraste avec l’approche anglo-saxonne est frappant. La Federal Trade Commission américaine exige des mesures techniques concrètes : chiffrement obligatoire, tests d’intrusion réguliers, audits par des experts indépendants. Quant à la responsabilité en chaîne de sous-traitance, le RGPD l’affirme sur le papier, mais l’article 82 permet au donneur d’ordre de se dégager si le sous-traitant est fautif. Résultat : un ping-pong juridique où les victimes n’obtiennent quasiment jamais de compensation directe.

L’entrée en vigueur de la directive NIS2 en janvier 2023, soit la principale réglementation européenne en matière de cybersécurité pour protéger les infrastructures critiques et les services essentiels, promet de changer la donne. Encore faut-il qu’elle soit transposée dans le droit national de chaque pays, ce qui n’est pas encore le cas. Elle doit par exemple encore faire l’objet d’un débat parlementaire en France avant d’être promulguée. Elle impose des mesures techniques plus prescriptives et engage la responsabilité personnelle des dirigeants, ce qui pourrait enfin aligner l’Europe sur une logique d’obligation de résultats. Mais, en ne s’appliquant pas à toutes les entreprises, elle crée le risque du développement d’une cybersécurité à deux vitesses, voyant la majorité des PME rester exposées au flou juridique et technique actuel.

Comment s’en sortir ?

Comme nous l’avons déjà écrit, la bonne nouvelle tient en l’existence de solutions. La première impose d’en finir avec le mot de passe unique. L’authentification multifacteur (MFA) — le principe du double verrou — doit devenir la norme absolue : même si quelqu’un vole votre mot de passe, il ne peut entrer sans un second code généré sur votre téléphone. Si France Travail l’avait exigé pour Cap Emploi, l’attaque aurait probablement échoué.

La deuxième impose de surveiller les comportements anormaux plutôt que de se contenter de verrouiller les portes. Aucun employé n’a besoin de télécharger 13 millions de fiches en un jour. Un système de détection d’anomalies, fonctionnant comme un disjoncteur électrique, aurait coupé l’hémorragie dès les premières minutes.

La troisième relève du cloisonnement. Un prestataire n’a pas toujours besoin d’accéder à une base entière pour faire son travail. Le principe du « moindre privilège » — ne donner que les accès strictement nécessaires ou chiffrer les données — aurait limité certaines fuites. De même, les serveurs de production ne devraient jamais pouvoir communiquer librement avec Internet : si une librairie de code vérolée tente d’envoyer des données vers un serveur inconnu, le flux doit être bloqué par défaut.

La quatrième invoque la remise en cause permanente des systèmes existants. Le vieux dogme « tant que ça marche, on ne touche à rien » est dangereux. Il faut renouveler régulièrement les clés d’accès, les certificats, les configurations — forcer le mouvement pour débusquer un éventuel intrus caché dans le système. C’est la technique du « chaos monkey », appliquée à la sécurité informatique.

Enfin, la France et l’Europe doivent sortir du tout-administratif pour privilégier l’efficacité opérationnelle. Plutôt que de multiplier les registres, il faut imposer des mesures de protection concrètes à l’ensemble du tissu économique. En instaurant la transparence sur les fuites, la réputation deviendra un levier aussi puissant que les sanctions financières. Il est temps que les entreprises craignent plus les cybercriminels que les auditeurs de conformité. Pour cela, on pourrait aussi accorder juridiquement la propriété de leurs données aux particuliers, ce qui transformerait la nature même du vol. Le prestataire deviendrait ainsi le simple dépositaire d’un bien qui ne lui appartient pas. Ce changement de paradigme permettrait aux victimes d’engager des recours collectifs (class actions) et de récupérer directement le montant des amendes à titre de réparation. Car la cybersécurité n’est ni un problème de hackers, ni une fatalité technologique. C’est une question d’organisation, de bon sens et de volonté politique. Les outils existent. Il ne reste plus qu’à les appliquer.

Et cette urgence prend une dimension nouvelle à l’heure où nos gouvernements veulent généraliser la certification d’identité en ligne. L’Assemblée nationale a adopté le 26 janvier 2026 une proposition de loi interdisant les réseaux sociaux aux moins de 15 ans. Pour l’appliquer, il faudra vérifier l’âge de tous les utilisateurs — pas seulement des mineurs. Parmi les pistes envisagées : l’envoi d’une pièce d’identité accompagnée d’un selfie, ou le recours à l’application France Identité, adossée à la carte d’identité électronique. Autrement dit, au moment même où l’on peine à protéger nos numéros de sécurité sociale et nos adresses, on s’apprête à confier nos documents d’identité officiels à des circuits de vérification supplémentaires — autant de nouvelles surfaces d’attaque. On peut légitimement se demander si un pays qui n’arrive pas à empêcher l’extraction de 13 millions de fiches en une journée est vraiment prêt à centraliser la vérification d’identité de 50 millions d’internautes. Le « double anonymat » promis par le gouvernement est une belle idée sur le papier — mais on a vu les limites de la sécurité sur le papier.

En attendant, si, anxieux, vous souhaitez savoir en direct où en sont les fuites de données observées, vous pouvez les suivre sur le site Bonjour la fuite… Pas de quoi vous rassurer au moment où vous répandez vos données sur la toile, mais vous serez au moins informés…

L’article Data : l’exceptionnelle passoire française est apparu en premier sur Les Électrons Libres.

❌