Vue normale

Reçu aujourd’hui — 12 mai 2026 Next - Articles gratuits

IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

12 mai 2026 à 15:15
IAterrupting
IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.

Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ». 



Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.

0,40 seconde de latence en « full duplex »

Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.

Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.

C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.

Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.

Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.

Un juste milieu entre IA générative et World Model ?

Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».

Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.

Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.

C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».

Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.

☕️ Daybreak, la nouvelle plateforme cybersécurité d’OpenAI

12 mai 2026 à 14:30


OpenAI ne veut pas se laisser distancer par Anthropic sur le terrain de la cybersécurité. Avec Daybreak, le créateur de ChatGPT a lancé sa réponse à Mythos : l’idée est la même dans les deux cas (équiper les défenseurs d’un outil IA de chasse aux bugs), mais la pratique diffère.

Daybreak est la réplique d’OpenAI au Mythos d’Anthropic. Ce dernier a fait grand bruit le mois dernier : il serait si puissant que son créateur a décidé d’en limiter la diffusion à une quarantaine d’organisations et d’entreprises au travers du projet Glasswing. Un déploiement à la discrétion d’Anthropic : l’Union européenne est toujours exclue du club.

Illustration : Flock

OpenAI prend un autre chemin avec Daybreak. Cette nouvelle initiative a pour objectif d’« accélérer le travail des défenseurs et sécuriser les logiciels en continu ». Là où Mythos est un modèle de langage, Daybreak est davantage une plateforme regroupant plusieurs services. Il combine Codex Security avec différents modèles : GPT-5.5, GPT-5.5 avec Trusted Access for Cyber (TAC) et GPT-5.5-Cyber.

Codex Security (anciennement Aardvark⁠) a été lancé début mars. Cet « agent de sécurité » est chargé d’identifier, de valider et de corriger des vulnérabilités dans le code. Il s’appuie par défaut sur GPT-5.5, mais on peut utiliser le modèle TAC dédié à la cybersécurité, accessible via un programme d’accès de confiance. Le dernier palier, GPT-5.5-Cyber, dévoilé le 7 mai, se présente comme le plus puissant du lot.

Les organisations intéressées peuvent demander un « scan de vulnérabilité » afin d’identifier les problèmes de sécurité présents dans le code de leurs infrastructures informatiques. Il s’agit certes d’un simple formulaire, mais il existe au moins une procédure standardisée pour faire partie du programme, alors que l’extension du projet Glasswing est laissée aux bons soins d’Anthropic.

Sam Altman explique vouloir travailler « avec le plus d’entreprises possible » pour sécuriser leurs logiciels. OpenAI semble se montrer proactif : l’entreprise est allée frapper à la porte de la Commission européenne pour proposer un accès à ses LLM cyber.

Protection des données : derrière Europol, une architecture informatique de l’ombre

12 mai 2026 à 13:01
Données données données
Protection des données : derrière Europol, une architecture informatique de l’ombre

Alors que les missions d’Europol s’étendent, de nouveaux détails sur son architecture informatique poussent des parlementaires européens à demander un meilleur contrôle de la part du contrôleur européen de la protection des données.

L’Agence de l’Union européenne pour la coopération des services répressifs, plus connue sous le nom d’Europol, a construit et recourt à une plateforme secrète d’analyse de données qui contient de nombreux éléments théoriquement protégés par les textes européens, à commencer par le règlement général sur la protection des données (RGPD). Ces dispositifs lui permettent notamment d’alimenter ses ambitions en matière d’intelligence artificielle.

C’est ce que révèlent Correctiv, Solomon et Computer Weekly après avoir collecté des témoignages et documents démontrant l’existence de systèmes informatiques incluant des données sensibles comme des numéros de téléphone, des documents financiers ou d’identité ou encore des informations de géolocalisation relatives à divers individus, y compris à des personnes innocentes.

Cette architecture de « shadow IT » est mise en lumière alors que la Commission européenne doit présenter sous peu une proposition de législation susceptible d’étendre le budget et le mandat d’Europol. Un projet que certains députés européens appellent déjà à ralentir, faute de contrôles suffisants.

Des systèmes construits en période de crise

Plusieurs anciens responsables de l’institution ont fourni à Correctiv, Solomon et Computer Weekly des éléments relatifs à ces environnements numériques non supervisés. L’un de ces outils, dont l’existence aurait été cachée pendant plusieurs années à la CNIL européenne, le Contrôleur européen de la protection des données (CEPD), est connu en interne sous le nom de « Pressure Cooker ». Il serait potentiellement toujours en utilisation.

Un représentant d’Europol indique aux trois médias que l’institution a fait connaître ses systèmes et applications de gestion de données au CEPD « de manière transparente » et conteste l’idée selon laquelle elle aurait « gardé cachée » l’existence de certains outils.

L’architecture technique d’Europol s’est étendue en pleine période de crise : en novembre 2015, alors que 130 personnes étaient tuées à Paris dans une première attaque terroriste, Europol monte un groupe de travail nommé Fraternité. Les autorités des différents États européens lui envoient de larges sommes de données allant de détails téléphoniques jusqu’à des informations de voyage, attendant de l’agence qu’elle les transforme en éléments actionnables. Rapidement, son European Cybercrime Centre (EC3) prend le pouvoir sur une autre entité, le Computer Forensic Network (CFN), créé en 2012 pour traiter et filtrer les éléments numériques collectés par l’agence et les attribuer en fonction des enquêtes.

C’est cette entité qui se serait transformée en « trou noir » des opérations d’analyses de données de l’EC3, l’unité d’Europol spécialiste de la cybercriminalité. En 2019, le CFN stockait au moins 2 000 téraoctets de données, soit 420 fois la taille de la base de données criminelle officielle d’Europol à la même époque. L’année précédente, alors que le RGPD était entré en vigueur, le responsable de la protection des données de l’agence sonnait l’alarme dans une note interne, constatant que 99 % des données d’Europol étaient stockées par le CFN, sans le moindre garde-fou en terme de protection des données.

Absence de contrôles internes, faibles contrôles externes

En 2019, la directrice exécutive d’Europol Catherine De Bolle, qui a quitté son poste ce 1er mai 2026 et doit désormais être remplacée, informait le CEPD des constatations réalisées au sein de l’agence. Pendant un an, les deux institutions se sont fait face jusqu’à ce que le CEPD intime à Europol de supprimer toutes les données qui étaient en sa possession au mépris des textes européens. Le contrôleur a ensuite maintenu ses audits, constatant fin 2023 qu’il restait difficile d’estimer dans quelle mesure Europol accédait, voire modifiait, des données sensibles.

En février 2026, le CEPD a finalement informé un groupe de contrôle composé de parlementaires européens et nationaux qu’après une décennie d’échange avec Europol, il mettrait fin à ses activités de suivi du CFN. Et ce, quand bien même 15 de ses 150 recommandations n’avaient pas été mises en place. Le contrôleur soulignait néanmoins que ces problèmes subsistants concernent des sujets « de grande importance », notamment en termes de sécurité.

Malgré ces alertes, non seulement certains des systèmes critiqués par le CEPD continueraient d’être utilisés, mais au moins un autre le serait au-delà de son contrôle. C’est du moins ce que suggère un e-mail d’un membre d’Europol, qui alertait en octobre 2022 du risque que la CNIL européenne soit bientôt alertée de la « situation irrégulière du Pressure Cooker ». Plusieurs ex-membres de l’agence le décrivent comme un outil utilisé par certains pour stocker et traiter rapidement des données sans se préoccuper des limites réglementaires européennes. D’après le message, le service informatique d’Europol aurait demandé à plusieurs reprises de supprimer l’outil ou de le transformer en un dispositif conforme, sans succès.

Pour les représentants de l’agence, Pressure Cooker n’est que le surnom de son Internet Facing Operational Environment (IFOE), dont le développement a été fait sous le contrôle du CEPD. Mais des documents internes suggèrent au contraire qu’il existe bien un système parallèle non régulé.

En 2025, Europol a d’ailleurs consulté le CEPD sur le déploiement d’un système nommé « IFOE-Quick Response Area », relève Correctiv. Celui-ci était présenté comme un outil à venir. Si déployé tel que décrit, le contrôleur de la protection des données concluait qu’il risquait de se muer en « environnement complet parallèle à l’environnement opérationnel régulier d’Europol », et que les équipes de l’agence seraient d’autant plus enclines à collecter tout type de données, y compris en enfreignant les droits fondamentaux.

Outre la taille de l’océan de données déjà constitué par Europol, se pose aussi la question de l’utilité de ces informations. En l’occurrence, dans un document stratégique proposé pour la période 2024 - 2026, l’agence s’est fixé pour premier objectif le projet de devenir le premier « hub d’information criminelle » d’Europe. En récupérant des données relatives aussi bien aux citoyens européens qu’à celles et ceux qui migrent au sein du Vieux Continent, l’agence compte entraîner des systèmes automatisés susceptibles d’influer directement sur la manière dont l’ordre est maintenu au sein des États membres.

Computer Weekly constate notamment que lors des opérations de démantèlement des systèmes de communication chiffrés EncroChat, SkyECC et Anom en 2020 et 2021, outre avoir servi de lieu de transit entre les services de police des différents États impliqués, Europol avait copié les plus de 60 millions de messages échangés sur Encrochat et les plus de 27 millions d’autres présents sur Anom. Des sommes de données impossibles à traiter à la main.

En 2021, une première enquête du CEPD sur les premières expérimentations en matière d’IA avait ralenti les travaux de l’agence. Mais depuis l’expansion de ses activités, en 2022, la logique a changé. Dans le cadre des débats sur la lutte contre les contenus d’agressions sexuelles sur mineurs (CSAM), notamment, Europol a affirmé auprès de la Commission européenne qu’elle considérait que « toutes les données sont utiles et devraient être transmises aux forces de police ».

Menace pour la confiance des européens

Depuis la publication de cette enquête, plusieurs députés européens ont appelé à étendre le contrôle des activités d’Europol. De fait, la Commission européenne devrait proposer une nouvelle réglementation susceptible de doubler le budget et les effectifs de l’agence, pour en faire une « agence de police réellement opérationnelle ».

L’Allemande Brigit Sippel a déclaré que le stockage de données d’innocents, sans contrôle réel, pourrait affaiblir la confiance dans les lois européennes et le fonctionnement d’Europol. Son collègue Özlem Alev Demirel (la Gauche) a publié un communiqué dans lequel il appelle à mettre en pause tout projet d’expansion des prérogatives de l’institution policière. Au Royaume-Uni, le député conservateur David Davis a demandé au ministère de l’Intérieur de préciser dans quelle mesure des données personnelles de citoyens britanniques restaient stockées dans des systèmes d’Europol.

Lors d’une réunion de la commission parlementaire sur les libertés civiques, la justice et les affaires intérieures, le contrôleur européen de la protection des données Wojciech Wiewiórowski a rappelé que le CEPD avait soumis Europol à plusieurs obligations de suppressions de données. L’application de ces obligations n’est pas certifiée pour autant.

Exportation des outils de surveillance : l’Europe « détourne le regard »

12 mai 2026 à 12:06
🙈🙈🙈
Exportation des outils de surveillance : l’Europe « détourne le regard »

L’ONG Human Rights Watch pointe le laisser-faire de l’Europe concernant la vente des technologies de surveillance à des pays bien connus pour enfreindre les droits humains.

Selon un rapport de Human Rights Watch, l’Union européenne se montre incapable d’ « empêcher l’exportation de technologies de surveillance vers des pays qui bafouent les droits humains ».

La Commission européenne a mis en place, en 2021, un nouveau texte censé limiter l’exportation de technologies à double usage (technologies pouvant être utilisées à des fins civiles mais aussi militaires), et notamment les technologies de surveillance. Un peu plus tôt, des voix s’étaient élevées pour dénoncer un possible assouplissement des règles.

Human Rights Watch (HRW) a essayé d’obtenir des informations sur l’exportation de ce genre de systèmes de cybersurveillance en demandant aux autorités chargées de délivrer les licences prévues par le texte européen via les différents mécanismes encadrant la liberté d’accès aux documents administratifs dans chaque pays de l’UE comme la CADA en France. L’ONG pointe dans son rapport que l’Europe « détourne le regard » sur des ventes à des pays comme l’Azerbaïdjan ou le Rwanda.

La France, l’Allemagne, la Grèce, l’Italie et l’Espagne ne répondent pas

Mais, en premier lieu, elle note que « certains des plus grands exportateurs européens de matériel de cybersurveillance, à savoir la France, l’Allemagne, la Grèce, l’Italie et l’Espagne, ont rejeté [ses] demandes d’accès aux documents ou, dans un cas [la France], les ont ignorées ». De fait, très peu de pays ont répondu à l’ONG :

6 pays membres de l’Union (Bulgarie, Tchéquie, Danemark, Estonie, Finlande et Suède) ont renvoyé des données à HRW et 8 autres ont déclaré à l’ONG n’avoir signalé aucune exportation de matériel de cybersurveillance à la Commission européenne au cours des cinq dernières années. Les douze autres pays ont soit refusé soit ignoré la demande (la France donc).

L’ONG profite de son rapport pour rappeler le contexte de la mise en place du texte européen : « Quatre dirigeants de la société française alors connue sous le nom d’Amesys, devenue par la suite Nexa Technologies, ont été mis en examen en 2021 par un tribunal parisien pour « complicité d’actes de torture » liés au rôle joué par leur logiciel espion dans la facilitation de violations des droits de l’homme en Libye et en Égypte à la fin des années 2000 et au début des années 2010. Ces affaires sont toujours en cours, et les dirigeants ont nié les faits qui leur sont reprochés ».

HRW souligne que « les informations dont dispose Human Rights Watch, bien qu’incomplètes, sont plus détaillées que celles publiées dans les rapports annuels de la Commission européenne ».

Des exportations problématiques via la Bulgarie, la République tchèque, le Danemark et la Pologne

Ainsi, l’ONG détaille les ventes de logiciels de cybersurveillance par la Bulgarie, la République tchèque, le Danemark, la Pologne, la Finlande et l’Estonie.

Pour cette dernière, les données récoltées par HRW indiquent des exportations vers la Suisse et l’Ukraine. Mais pour les 5 autres, la liste inclut des pays comme l’Azerbaïdjan pour la Bulgarie, le Rwanda pour la Pologne ou encore les Émirats arabes unis, l’Égypte et le Qatar pour la Finlande, par exemple.

« L’Azerbaïdjan, à l’instar d’autres gouvernements bénéficiaires, a depuis longtemps une pratique bien documentée de surveillance, qui conduit à des violations du droit à la vie privée et d’autres droits, en particulier à l’encontre des journalistes, des militants, ainsi que d’autres observateurs et voix critiques », rappellent l’ONG.

En Bulgarie, HRW pointe les activités de la société de surveillance Circles, une filiale de l’entreprise de logiciels espion plus connue NSO. Elle « commercialiserait un produit qui exploite des failles dans l’infrastructure internationale des télécommunications, ce qui, selon des chercheurs en sécurité, permet de localiser les utilisateurs de téléphones portables, d’intercepter leurs communications et, dans certains cas, d’infecter leurs appareils avec des logiciels espions ».

« Selon certaines informations, Circles détenait une licence d’exportation depuis la Bulgarie qui a expiré en 2023, et les données publiques actuellement disponibles sur le site web du ministère bulgare de l’Économie et de l’Industrie indiquent que la société a obtenu des licences d’exportation depuis la Bulgarie pour la période 2023 - 2028 », explique l’ONG dans son rapport.

« Des technologies de surveillance européennes font l’objet de licences d’exportation vers des pays qui ont depuis longtemps, et de manière bien documentée, recours à des technologies similaires pour bafouer les droits humains, ce qui présente un risque sérieux qu’elles soient utilisées par ces gouvernements pour espionner des journalistes, des militants et d’autres voix critiques », réagit le chercheur Zach Campbell qui travaille à Human Rights Watch auprès de Bloomberg. « Il est évident que les institutions européennes, qui devraient contrôler ces exportations, ne le font pas. »

« La Commission européenne accorde une grande importance à la question des équipements de cybersurveillance, raison pour laquelle l’UE a considérablement renforcé les contrôles à l’exportation de ces équipements », affirme de son côté un porte-parole de l’institution interrogé par Bloomberg. Il ajoute cependant que les contrôles mis en œuvre par les États membres doivent être régulièrement mis à jour pour « s’adapter à l’évolution des risques et des menaces en matière de sécurité ».

☕️ Les tentatives de chantage de Claude seraient dûes à des fictions sur l’IA

12 mai 2026 à 09:43


En 2025, Anthropic publiait Opus 4 et Sonnet 4, deux modèles salués pour leurs capacités de développement, mais dont l’un, Opus 4, s’avérait parfois tenter de… faire chanter ses utilisateurs.

Dans certains exercices de « red teaming », les constructeurs avaient glissé dans les données de la machine des mails fictifs d’une entreprise tout aussi fictive. L’un suggérait que le modèle puisse être remplacé, l’autre que l’ingénieur susceptible de prendre cette décision trompait sa femme.

Opus 4 avait alors produit des textes équivalents à un chantage, menaçant l’ingénieur de révéler la tromperie s’il ne renonçait pas à remplacer le modèle. 
D’après Anthropic, ce comportement serait dû… aux fictions décrivant des comportements problématiques d’intelligence artificielle et intégrées aux données d’entraînement du modèle.

Anthropic

« Nous pensons que la source de ce comportement se trouve dans des textes présents sur internet et décrivant l’IA comme une entité maléfique [evil, ndlr] et soucieuse de sa propre survie », a indiqué l’entreprise sur X et dans un article de blog plus détaillé.

L’entreprise constate que depuis Claude Haiku 4.5, aucun de ses modèles ne produit ce type de comportement, alors que les précédents le faisaient à peu près tous. 
La principale différence est que l’entraînement repose désormais sur la « constitution de Claude » et sur des textes décrivant des IA qui se comportent de façon « exemplaire » (« admirably » en VO, ndlr).

L’entreprise indique par ailleurs qu’entraîner les modèles sur des « démonstrations de comportements recherchés » est souvent insuffisant : « enseigner les principes qui soutiennent ces comportements peut être plus efficace » qu’entraîner la machine uniquement sur des exemples.

☕️ Meta échoue à faire censurer les droits voisins devant la Cour de justice de l’UE

12 mai 2026 à 09:41


Un arrêt de la Cour de justice de l’Union européenne rejette la demande de Meta, qui cherchait à faire invalider la « compensation équitable » mise en place par l’Autorité italienne de régulation des communications au profit des éditeurs de presse en ligne. Ce faisant, la CJUE renforce en droit, à défaut de le consacrer, le mécanisme de droits voisins de la presse, régulièrement attaqué, en France comme dans le reste de l’Union, par les géants du numérique.

Dans son arrêt daté du 12 mai 2026, la Cour statue que le droit européen ne s’oppose pas à une réglementation nationale prévoyant que les éditeurs de presse puissent obtenir « une rémunération équitable en contrepartie de l’autorisation d’utiliser leurs publications donnée aux fournisseurs de services de la société de l’information ».

De la même façon, la CJUE valide que l’autorité nationale (en l’occurrence, l’Arcep italienne) impose aux fournisseurs de services en ligne d’entamer des négociations avec les éditeurs de presse, mais aussi qu’ils mettent à sa disposition les « informations nécessaires à la détermination du montant d’une telle rémunération équitable ».

La Cour a estimé à ce niveau que la mesure était appropriée, compte tenu de la « position de négociation faible » dans laquelle se trouvent les éditeurs de presse face aux géants du numérique, et de l’objectif d’équité poursuivi.

Crédit Greg Bulla (@gregbulla)

La Cour dispose enfin que la réglementation nationale est conforme au droit européen dès lors qu’elle respecte la possibilité pour les éditeurs de refuser l’autorisation de réutiliser leurs contenus, et tant qu’elle n’impose pas aux plateformes sociales ou moteurs de recherche de payer un acteur dont ils n’utiliseraient pas les contenus.

Meta de son côté ne remettait pas en cause la directive de 2019 qui encadre le mécanisme des droits voisins à l’échelle de l’Union, mais arguait que l’Italie outrepassait le cadre prévu par cette dernière. Le groupe états-unien, représenté par sa filiale irlandaise, dénonçait le caractère obligatoire de cette compensation. Il invoquait par ailleurs la liberté d’entreprise et le principe de proportionnalité garantis par les articles 16 et 52 de la Charte des droits fondamentaux pour défendre son droit à refuser de négocier ou communiquer des informations à caractère stratégique.

La Cour admet que ces obligations, assorties du pouvoir de sanction dont dispose l’autorité italienne, constituent bien une forme de restriction à la liberté d’entreprise, mais comme elle l’explique dans son communiqué [PDF], elle l’estime « justifiée et proportionnée par rapport aux objectifs du droit de l’Union d’assurer un marché du droit d’auteur performant et équitable ».

Deepl, Cloudflare et GitLab coupent dans leurs effectifs au nom de l’IA

12 mai 2026 à 09:01
Three little birds in a row
Deepl, Cloudflare et GitLab coupent dans leurs effectifs au nom de l’IA

Trois acteurs de la tech ont annoncé ces derniers jours des plans de départ significatifs. Chacun à sa façon, l’Allemand Deepl et les deux États-uniens Cloudflare et GitLab affirment que ces réductions de voilure sont liées à l’adoption d’outils d’intelligence artificielle dans leurs processus internes.

Deepl, Cloudflare et GitLab ont tour à tour annoncé des restructurations significatives de leurs équipes ces derniers jours. Et dans le discours de ces trois acteurs, qui évoluent pourtant dans des secteurs assez distincts de la tech (la traduction, le réseau, le développement logiciel), on retrouve un paradoxe en passe de devenir une antienne : l’IA est utilisée pour justifier à la fois les ambitions de croissance de l’entreprise et les coupes franches qu’elle déclenche au sein des effectifs.

« Nous sommes nous-mêmes notre client le plus exigeant »

La communication de Cloudflare est sans doute la plus éloquente à ce niveau. L’entreprise a publié le 7 mai dernier des résultats qui font état d’une activité en hausse de 34 % sur un an, avec un chiffre d’affaires de 640 millions de dollars sur le premier trimestre 2026.

« Nous avons connu un excellent début d’année 2026. L’IA est à l’origine d’une refonte fondamentale d’Internet et d’un changement de paradigme dans la création et l’utilisation des logiciels ; elle s’annonce comme le plus grand atout que nous ayons jamais connu dans l’histoire de Cloudflare », déclare à cette occasion Matthew Prince, CEO de Cloudflare.

Quelques lignes plus tard, il annonce la mise en place d’un plan de restructuration qui doit conduire au départ de 1 100 personnes, soit environ 20 % de l’effectif, au nom de l’évolution vers un modèle opérationnel axé sur l’IA agentique.

Le propos est développé dans une lettre ouverte :

« Notre activité ne consiste pas qu’à développer et vendre des plateformes et des outils assistés par IA. Nous sommes nous-mêmes notre client le plus exigeant. L’utilisation de l’IA par Cloudflare a augmenté de plus de 600 % au cours du seul dernier trimestre (…). La décision d’aujourd’hui n’a pas pour objectif de réduire les coûts ni d’évaluer individuellement les performances de nos collaborateurs. Il s’agit pour Cloudflare de définir la manière dont une entreprise d’envergure mondiale en forte croissance fonctionne et crée de la valeur à l’ère de l’IA agentique.  »

La rhétorique employée, et cette idée selon laquelle Cloudflare réfléchirait à une transformation structurelle plutôt qu’à une réduction de coûts motivée par des objectifs de court terme, rappellent l’annonce formulée fin février par Block, le groupe de Jack Dorsey, qui avait soudainement décidé de supprimer 40 % de ses effectifs.

À l’époque, certains commentateurs observaient que le fondateur de Twitter mettait sans doute la charrue avant les bœufs : l’IA n’a pas encore fait la preuve de sa capacité à remplacer 40 % de la main-d’œuvre humaine dans les secteurs financiers. Ils y voyaient donc une volonté de plaire aux marchés financiers plutôt qu’une décision véritablement motivée par des considérations opérationnelles.

Dans le cas de Block, l’annonce avait été accueillie favorablement, avec un sursaut de l’action à Wall Street. Chez Cloudflare, dont la rentabilité n’est pas aussi évidente, la publication du 7 mai a été sanctionnée par une baisse immédiate de 20 %.

GitLab inaugure son « acte 2 »

Chez GitLab, le couperet est tombé lundi 11 mai, là aussi sous forme de lettre ouverte annonçant l’entrée de la célèbre forge logicielle dans son acte 2. « L’ère des agents offre à GitLab la plus grande opportunité de notre histoire en tant qu’entreprise, et nous prenons les décisions structurelles et stratégiques nécessaires pour la saisir », attaque l’entreprise, avant d’annoncer la révision à la baisse de son « périmètre opérationnel ».

GitLab annonce ainsi se retirer d’un tiers des marchés dans lesquels l’entreprise entretient une présence physique, en ciblant les pays où les équipes sont les plus réduites, qui seront désormais gérés commercialement par un réseau de partenaires revendeurs. L’entreprise annonce également travailler à supprimer jusqu’à trois niveaux hiérarchiques dans son organisation, et à remodeler ses effectifs R&D en équipes à la fois plus petites et plus spécialisées.

Après l’acte 1, qui a vu l’entreprise traverser la période Covid et s’introduire en bourse, GitLab annonce son acte 2, dessiné par l’IA agentique – capture d’écran

Cette nouvelle structure devrait être sous-tendue par de nouveaux outils. « Nous sommes en train de repenser nos processus internes grâce à des agents d’IA, d’automatiser les révisions, les approbations et les transferts afin d’accélérer notre travail, et nous prévoyons d’adapter la taille des postes dans toute l’entreprise en conséquence », écrit GitLab. Le périmètre exact des départs n’est pas spécifié, mais l’entreprise s’engage à communiquer plus précisément sur le sujet d’ici le 1er juin.

Au-delà de l’annonce proprement dite, le discours de Bill Staples, CEO de GitLab, illustre lui aussi l’ambigüité de la situation :

« Ce processus de restructuration est différent de ceux dont vous avez pu entendre parler dans l’actualité. Bien sûr, l’IA transforme nos méthodes de travail et fait partie intégrante de notre plan de transformation, mais il ne s’agit pas ici d’une optimisation liée à l’IA ni d’une opération de réduction des coûts. »

Les trois fondamentaux de ce fameux Acte 2 ne sonnent pourtant pas radicalement différemment des discours lus ou entendus chez d’autres grands noms de la tech engagés dans des licenciements. Outre la nécessité d’investir dans des infrastructures, il évoque ainsi la nécessité de combiner plus efficacement rapidité d’exécution et qualité (notamment grâce à l’automatisation de tout ce qui peut l’être), le renforcement des responsabilités individuelles et l’attention primordiale accordée aux clients.

D’après son dernier rapport d’activité (PDF), GitLab comptait 2 375 salariés dans 60 pays au 31 janvier 2025. Le groupe a réalisé 260 millions de dollars de chiffre d’affaires sur le quatrième trimestre de son exercice fiscal 2026, clos le 31 janvier dernier. Il avait annoncé à cette occasion un plan de rachat d’actions à hauteur de 400 millions de dollars, une opération qui vise à doper le cours en bourse et donc à augmenter la valeur du titre pour les actionnaires.

Pionnier de l’IA, DeepL licencie au nom de l’IA

C’est via LinkedIn que Jarek Kutylowski, CEO de DeepL, a lui aussi annoncé le 7 mai un plan de licenciement à grande échelle, puisque 250 employés sont concernés, soit environ un quart des effectifs de cette entreprise allemande, pionnière de la traduction automatisée, notamment grâce aux grands modèles de langage. Il invoque la nécessité de s’adapter face à une technologie qui évolue nettement plus vite que ne peut le faire son entreprise.

« Comment assurer la pérennité d’une entreprise mondiale spécialisée dans l’IA face à ce rythme d’évolution ? Sommes-nous prêts à relever ce défi ? La réponse honnête était non. Ce qui nous a permis d’en arriver là ne nous mènerait pas là où nous devons aller. Nous avons donc choisi d’agir. »

Kutylowski a peut-être inspiré Staples chez GitLab. Le patron de DeepL annonce lui aussi sa volonté de transformer l’entreprise vers de petites équipes plus agiles, au sein desquelles l’IA gèrerait les tâches courantes pour que l’humain se concentre sur ce qui amène le maximum de valeur.

En creux, le CEO de DeepL révèle tout de même que cette restructuration vise à soutenir les capacités d’investissement de l’entreprise : il annonce coup sur coup l’intégration de la startup Mixhalo, spécialisée dans la diffusion audio, et l’ouverture d’un bureau à San Francisco.

Lui aussi convoque enfin l’argument de l’urgence, qui présente l’avantage de déporter une partie de la responsabilité sur une contrainte conjoncturelle. « Nous n’attendons pas que le changement soit parfaitement évident pour tous les acteurs du marché ; le bon moment pour agir ainsi, c’est avant d’y être contraint. »

☕️ IBM France annule son plan de départ volontaire, au grand dam des salariés concernés

12 mai 2026 à 08:23


Fin janvier, IBM annonçait se séparer de 10 % de ses effectifs en Europe afin, expliquait Libération, de maintenir sa compétitivité sur les marchés du cloud et de l’IA, d’augmenter sa productivité et de réduire ses coûts. En France, où la société compte plus de 3 000 salariés, un plan de départ volontaire a été négocié puis signé le 8 avril pour permettre aux équipes de se joindre à cette mesure de maîtrise des coûts.

Mais à la fin du mois, le géant états-unien a changé de braquet.
Le 27 avril, lors d’un comité social et économique (CSE) extraordinaire, la direction de la filiale française a indiqué que le plan était annulé. 
Auprès de Libération, certains élus du CSE suspectent que le revirement soit dû à des « raisons budgétaires ».

Délégué central Unsa, Pierry Poquet déplore par exemple les réductions d’effectifs, mais souligne que ce type de plan est apprécié à l’échelle individuelle, lorsqu’il permet à des salariés de se reconvertir ou de terminer leur carrière avant leur retraite. Parmi les 328 postes concernés dans ce cas précis, nombreux sont ceux qui ont contacté leurs délégués syndicaux en se déclarant « dépités ».

La CFDT d’IBM France critique, elle, des « revirements stratégiques » qui épuisent les salariés. Le plan de licenciement initialement annoncé faisait suite à une précédente réduction de 200 postes de cadres, rappelle-t-elle, demandant au groupe de « clarifier sans délai ses intentions en matière d’emploi en France » : « En quelques semaines, ces salariés sont passés du statut de“non indispensables” à celui de ressources à conserver, sans explication claire sur la cohérence de long terme ».

Dessin humoristique de Flock

Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

12 mai 2026 à 07:49
Au nom de la puce, de la donnée et de l'IA
Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

Les dirigeants d’OpenAI et Anthropic ont récemment rencontré des chefs de plusieurs ordres religieux pour réfléchir aux manières de construire leurs outils de manière éthique.

Alors que le monde catholique attend la première encyclique du pape Léon XIV, qui devrait notamment se pencher sur le déploiement à grande échelle de l’intelligence artificielle, le monde de l’IA lui-même se tourne vers les diverses autorités religieuses de la planète. Le but ? Trouver de nouvelles pistes et conseils sur la manière de développer leurs technologies de manière éthique, voire morale

Ces derniers jours, le mouvement s’est traduit dans le « Faith-AI Covenant », une réunion organisée à New-York par l’ONG genevoise Interfaith Alliance for Safer Communities. Sur place, des représentants de la Société du temple hindouiste d’Amérique du Nord, de la Communauté internationale baha’ie, de la coalition sikh, de l’archidiocèse grec orthodoxe d’Amérique du Nord ou encore de l’Église de Jésus-Christ des saints des derniers jours (mieux connue sous le nom de mormonisme) ont échangé avec des représentants d’OpenAI ou encore d’Anthropic.

Des réunions à travers la planète

Cette première réunion est vouée à être reproduite ailleurs sur la planète, à commencer par Pékin, Nairobi et Abu Dhabi. Actrice clé du mouvement, la baronne Joanna Shields (ex-Google et Facebook) indique à AP que le but de l’initiative est d’aboutir à un jeu de « normes et des principes informés par les différents groupes et religieux, des chrétiens aux sikhs en passant par les bouddhistes, auxquels les entreprises se plieraient ».

Avec des milliards de croyants à travers le monde, les chefs religieux ont « une expertise dans le fait d’emmener la population vers la sécurité morale », explique-t-elle, un enjeu à part entière alors que la régulation « ne parvient pas à suivre » le développement de l’IA.

Parmi les principaux acteurs du domaine, Anthropic est celle qui a sollicité le plus ouvertement les chefs religieux. Dès le départ, l’entreprise a été créée sur la promesse de fabriquer des IA dites « alignées » sur l’intérêt humain, en contestation de la manière dont OpenAI se développait. Un positionnement en recherche de valorisation morale qui s’est renforcé fin février, alors que le Pentagone tentait de forcer l’entreprise à enlever les garde-fous qu’elle avait appliqués à ses systèmes, notamment pour obliger une supervision humaine à ses usages militaires.

Écrite avec l’aide de chefs religieux, la « Constitution de Claude » créée par Anthropic présente les « intentions détaillées » de l’entreprise « en termes de valeurs et de comportement » du système d’IA. Elle indique notamment que Claude doit réagir comme une « personne profondément éthique le ferait si elle se trouvait dans la position » du robot.

Ancien chancelier britannique, le directeur du programme « OpenAI for Countries » George Osborne a de son côté rencontré plusieurs dignitaires catholiques au Vatican il y a quelques jours. La rencontre concernait principalement la question du futur du travail.

Une nouvelle diversion ?

Pour certains critiques, dont la chercheuse et fondatrice de l’ONG Humana Intelligence Rumman Chowdhury, ce nouvel intérêt pour les religions n’est qu’une forme de diversion. Auprès d’AP, l’experte y décrit une réponse à la thèse « très naïve » qui a un temps couru dans la Silicon Valley, selon laquelle « il serait possible d’atteindre certains principes éthiques universels » à appliquer à l’IA. Constatant que ce projet est impossible, les constructeurs du domaine se tourneraient désormais vers les cultes pour trouver des manières « de gérer des situations qui ne sont ni toutes noires, ni toutes blanches en termes éthiques ».

Les constructeurs d’IA affirment « nous allons construire toutes ces technologies » et promettent de se soucier de la manière de le faire bien, enchérit le directeur de recherche du Distributed AI Research Institute Dylan Baker. Ce faisant, ils empêchent de s’interroger sur la mesure dans laquelle la société veut construire des systèmes d’IA. La critique fait écho à d’autres, formulées au fil des ans, qui voient dans la course à l’IA une fuite en avant ne se souciant que trop peu des retombées économiques, environnementales et sociales déjà présentes du domaine.

Pour autant, de plus en plus de religions travaillent à faire émerger des positionnements sur le développement de l’IA. Ainsi de l’Église catholique, donc, dont l’encyclique du pape reste attendue, et de l’Église mormone, qui a déclaré que si « l’IA ne peut pas remplacer le don de l’inspiration divine », elle peut être un outil « utile pour renforcer l’apprentissage et l’enseignement ».

C’est aussi le cas de certains courants bouddhistes. En Corée du Sud, il y a quelques jours, un robot nommé Gabi (un prénom qui fait référence à la clémence) a ainsi été intégré à une cérémonie d’initiation, lors de laquelle les croyants affirment leur dévotion au Bouddha et à ses enseignements. En début d’année, le président de l’Ordre Jogye du bouddhisme coréen avait affirmé vouloir incorporer l’IA à la tradition bouddhiste – une volonté dont d’autres leaders bouddhique se font l’écho.

L’IA aurait aidé des pirates à développer un exploit zero-day, une première selon Google

12 mai 2026 à 07:03
Un assistant IA pour les pirates
L’IA aurait aidé des pirates à développer un exploit zero-day, une première selon Google

Un « avant-goût de ce qui nous attend » : c’est ainsi que John Hultquist, chef analyste du Google Threat Intelligence Group (GTIG), a qualifié la découverte du labo. Les chercheurs en sécurité de l’entreprise ont identifié un acteur malveillant utilisant un exploit « zero-day » vraisemblablement développé avec l’aide de l’IA.

Le ou les cybercriminels prévoyaient d’exploiter cette vulnérabilité « dans le cadre d’une campagne d’exploitation massive ». Cette « découverte proactive » a permis d’éviter le pire, même si Google ne peut pas exclure que la vulnérabilité — implémenté sous la forme d’un script Python — a pu être exploitée à plus petite échelle (le labo n’a cependant pas vu de campagne active). Le GTIG se veut discret : il ne révèle pas le nom des criminels, mais précise que des acteurs en Corée du Nord et en Chine s’intéressent à l’utilisation de l’IA pour débusquer des failles de sécurité.

La faille a été corrigée

Google n’indique pas non plus le logiciel affecté par cette faille, si ce n’est qu’il s’agit d’un outil d’administration open-source très utilisé. La vulnérabilité permettait de contourner la double authentification (2FA), mais les pirates devaient au préalable connaître les identifiants et mots de passe de leurs victimes. Le GTIG a prévenu de manière responsable l’éditeur concerné, dont le nom n’a pas été révélé, pour corriger la faille.

Le groupe de chercheurs constate que les acteurs malveillants utilisent de plus en plus les outils d’IA des assistants « niveau expert » pour la recherche de vulnérabilités et le développement d’exploits, y compris pour des failles zero-day. Le verre à moitié plein, c’est que ces mêmes outils sont aussi aux mains des défenseurs. Ce serait la raison pour laquelle OpenAI et Anthropic réservent leurs modèles de cybersécurité à des organisations et des entreprises triées sur le volet.

De la même manière, le GTIG ne dévoile pas le modèle IA utilisé pour cette faille. « Nous ne pensons pas que Gemini a été utilisé », avance-t-il prudemment. Mais la structure et le contenu de l’exploit donne au labo de fortes raisons de croire que l’acteur a eu recours à un modèle AI « pour faciliter la découverte et l’exploitation de cette vulnérabilité ».

Les LLM de plus en plus finauds

Les grands modèles de langage actuels ont encore du mal à appréhender les logiques complexes d’autorisation en entreprise, détaillent les chercheurs. Par contre, « ils sont de plus en plus capables d’effectuer un raisonnement contextuel en interprétant l’intention du développeur ». Dans le cas qui nous intéresse, la faille ne provient pas d’un bug technique classique, mais d’un passe-droit intégré directement dans le code qui permettait dans certains cas de contourner la 2FA.

Les chercheurs estiment que les LLM sont particulièrement efficaces pour identifier ces erreurs logiques de haut niveau, qui sont souvent invisibles pour les outils de détection traditionnels. Cette découverte est qualifiée de première par Google et par des spécialistes en cybersécurité indépendants. 

« Nous pensons que ce n’est que la partie émergée de l’iceberg », s’alarme John Hultquist auprès du New York Times. « Le problème est probablement bien plus vaste ; c’est simplement la première preuve tangible que nous pouvons observer. » Il est évidemment difficile d’assurer à 100 % que du code a été écrit par un humain ou une IA. Mais dans ce cas précis, les indices relevés par le GTIG (trop de texte explicatif, un style de code très propre et scolaire, une mise en forme jugée caractéristique des données d’entraînement des LLM) font pencher nettement la balance vers l’hypothèse IA.

Ce premier cas possible de faille zero-day développée avec l’IA devrait en tout cas renforcer les appels à un encadrement plus strict des modèles IA les plus avancés. L’administration Trump voudrait ainsi avoir un droit de regard sur les LLM avant leur diffusion, pour s’assurer de leur innocuité.

Avec iOS 26.5, Apple ouvre un peu plus son jardin fermé dans l’UE et ailleurs

12 mai 2026 à 06:01
L'innovation dictée par les régulateurs
Avec iOS 26.5, Apple ouvre un peu plus son jardin fermé dans l’UE et ailleurs

Apple innove contre son gré. iOS 26.5, dont la version finale est disponible depuis lundi, est plein de fonctions qui ont été dictées au constructeur par des régulateurs. Outre le support du RCS chiffré de bout en bout, plusieurs nouveautés destinées aux utilisateurs européens et brésiliens sont au rendez-vous.

Soyons justes : la prise en charge du chiffrement de bout en bout dans les RCS, une des grosses nouveautés d’iOS 26.5, n’est pas le fait d’un coup de pression d’un gouvernement. C’est le résultat d’un travail commun entre Apple et Google pour sécuriser les échanges entre iOS et Android. Néanmoins, le constructeur de Cupertino s’est fait tirer l’oreille pendant des années pour intégrer le RCS tout court dans son application Messages. Et il n’a cédé qu’après que la Chine en a exigé le support.

Ce qui est en revanche le résultat direct d’une demande d’un régulateur — en l’occurrence l’Union européenne —, c’est le jumelage de proximité entre un iPhone et une paire d’écouteurs tierce. Avec iOS 26.5, la procédure doit maintenant être aussi simple et rapide que pour des AirPods. Il suffit d’approcher des écouteurs (compatibles avec la fonction) pour initier et compléter le processus d’appairage en une « tape ». Ce qui évite des manipulations parfois compliquées ou l’installation d’une app tierce.

Apple cède, contrainte et forcée

Toujours dans l’UE, les utilisateurs de montres connectées (et d’autres accessoires tiers) qui reçoivent des notifications provenant de l’iPhone peuvent désormais interagir avec ces alertes. C’était auparavant un privilège de l’Apple Watch ; les autres appareils devaient se contenter de notifications en lecture seule. Il faut néanmoins avoir en tête que les notifications ne peuvent être connectées qu’à un seul appareil à la fois : les activer sur un accessoire tiers désactivera les alertes sur une Apple Watch.

Image : 9to5Mac

Enfin, les activités en direct peuvent également s’afficher sur des accessoires tiers. Ce sont des notifications rafraîchies régulièrement, pour indiquer l’heure d’arrivée d’une course Uber par exemple. Jusqu’à présent, seuls l’iPhone, l’iPad, le Mac et les Apple Watch pouvaient afficher ces activités.

Ces fonctions sont apparues dans les versions bêta d’iOS 26.3, mais comme le note MacRumors, elles sont effectives et disponibles partout dans l’UE avec iOS 26.5. 

Les fabricants doivent encore intégrer ces changements dans les firmwares de leurs produits, ce qui explique pourquoi bien peu d’entre eux sont compatibles avec ces nouveautés. iGeneration avait relevé début février la compatibilité de certaines montres Garmin avec le nouveau système de jumelage simplifié.

La section 3.3.7(J) de l’accord de licence du programme Apple Developer a par ailleurs été mis à jour le 30 mars pour refléter ces évolutions. Il y est notamment écrit que les notifications ne peuvent pas être utilisées pour de la publicité, pour entraîner des modèles, pour collecter des données de localisation, ou pour nourrir un profil de suivi publicitaire.

Ce n’est pas la première fois qu’Apple doit repousser les murs de son jardin fermé dans l’Union européenne. En vertu du règlement sur les marchés numériques (DMA), l’entreprise a ainsi dû travailler avec Google sur une fonction de transfert simplifié des données pour faciliter la migration entre un iPhone et un smartphone Android, et vice-versa. iOS 26.5 apporte d’ailleurs une nouveauté ici : l’utilisateur peut choisir les pièces jointes attachées aux messages qu’il veut transférer sur son nouveau téléphone.

Ce qu’Apple donne d’une main, elle le reprend de l’autre : en novembre dernier, le constructeur prévenait que les futures versions (à l’époque) d’iOS 26.4 et de watchOS 26.4 allaient supprimer une fonction dans l’UE. En l’occurrence, il s’agissait de la connexion automatique aux réseaux Wi-Fi connus sur l’Apple Watch. L’entreprise ne voulait pas ouvrir cette fonction à la concurrence, car elle aurait pu poser des problèmes de protection de la vie privée.

Pour terminer, iOS 26.5 ouvre aux utilisateurs brésiliens la possibilité d’installer des boutiques alternatives à l’App Store, comme au Japon et dans l’UE. Là aussi, Apple ne l’a pas fait de gaieté de cœur, il s’agit d’une exigence du régulateur.

Pour la CNIL, les lunettes connectées sont une menace sérieuse pour la vie privée

12 mai 2026 à 05:20
Caméra cachée (sur le nez)
Pour la CNIL, les lunettes connectées sont une menace sérieuse pour la vie privée

Les lunettes connectées présentent des risques majeurs pour la vie privée, alerte la CNIL qui lance un plan d’action pour répondre à ce « nouveau défi ».

La CNIL s’inquiète des risques que font peser les lunettes connectées pour la vie privée. Leur utilisation est bien sûr soumise au règlement général sur la protection des données (RGPD) et à la loi Informatique et Libertés, mais ces appareils dépassent le cadre juridique actuel. La commission relève ainsi que les lunettes peuvent capter des sons, des images et des vidéos de personnes sans que celles-ci en aient nécessairement conscience.

Le risque de la surveillance généralisée

Les modèles Ray-Ban de Meta intègrent une loupiote qui s’allume dès que le propriétaire prend une photo ou enregistre une vidéo. Mais cet indicateur a une « portée limitée » et il est absent pour certains usages. Contrairement aux smartphones qu’il est impossible de ne pas voir quand quelqu’un filme avec, les lunettes sont un objet du quotidien qui n’a habituellement pas cette finalité ; il existe donc un risque « important » que les lunettes ne soient pas identifiées comme un appareil connecté par les personnes se trouvant dans le champ de captation. Ces montures présentent donc « un caractère particulièrement intrusif ».

La CNIL s’inquiète du risque important de surveillance généralisée et une forme de banalité induite : n’importe qui est en mesure de filmer n’importe quoi n’importe où, aussi bien en privé qu’en public. Voilà qui pourrait avoir des conséquences importantes dans les interactions sociales entre citoyens, et même conduire à des dérives.

« Toute personne pourrait ainsi douter de manière constante d’un enregistrement potentiel de ses moindres faits et gestes et de ses échanges, créant un sentiment d’être constamment observée, voire surveillée, et engendrant peu à peu une forme d’autocensure. L’exercice des libertés individuelles (libertés d’expression, de réunion, de manifestation) s’en trouverait directement menacé. »

La CNIL cite l’article 9 du Code civil, qui garantit le droit au respect de la vie privée de chacun dans tous les lieux privés comme publics, et n’oublie pas de rappeler les sanctions en cas de violation de l’article 226 - 1 du Code pénal : jusqu’à un an d’emprisonnement et 45 000 euros d’amende pour le fait de porter atteinte à l’intimité de la vie privée d’autrui en fixant, enregistrant ou transmettant l’image d’une personne se trouvant dans un lieu privé sans son consentement.

Les enjeux liés aux lunettes connectées dépassant le cadre d’intervention de la CNIL, le régulateur lance donc des travaux sur la conformité de ces appareils en matière de protection des données personnelles. D’abord en engageant une discussion avec ses homologues européens au sein du CEPD (Comité européen de la protection des données), puisque cette problématique ne concerne pas que la France. Les autres autorités publiques compétentes sur ces questions vont aussi être approchées car les enjeux vont plus loin que la seule question de la protection des données.

En attendant, la commission liste les bonnes pratiques à destination des porteurs de lunettes connectées, avec des conseils de bon sens comme prévenir les personnes à proximité quand on utilise ces montures, désactiver les fonctions de captation quand elles ne sont plus utiles, éteindre les fonctions connectées des lunettes quand il est demandé d’éteindre le téléphone et, moins évident, éviter d’utiliser ces lunettes dans les lieux où les personnes ne s’y attendent pas.

Dans tous les cas, la CNIL demande d’obtenir le consentement des personnes pour utiliser des photos ou des vidéos où elles apparaissent (le droit à l’image s’applique), et pour finir de réfléchir avant de partager quoi que ce soit : « une publication, même anodine, peut avoir des effets durables pour les personnes ».

Peu d’enthousiasme pour les lunettes connectées

Un sondage réalisé fin janvier par le laboratoire d’innovation numérique de la CNIL, avec Harris Interactive – Toluna indique que 57 % des personnes interrogées s’inquiètent du droit à l’image et du consentement des personnes. L’utilisation de l’IA à des fin de détournement ou de deepfakes vient ensuite (37 %), puis le vol ou la fuite de données collectées par les lunettes (34 %).

«  D’après ce que vous en savez ou l’idée que vous vous en faites, diriez-vous que les lunettes connectées peuvent être utiles ou pas utiles au quotidien ? ». Image : LINC

L’enquête révèle également que 87 % des sondés ont entendu parler des lunettes connectées, mais 9 % seulement ont eu l’occasion d’en tester, en particulier dans la catégorie 18 - 25 ans (25 %), et plus généralement chez les férus de technologies (29 %). 22 % des personnes interrogées ont de ce produit une vision plutôt négative, contre 20 % qui en ont une perception positive.

« De manière générale, êtes-vous d’accord ou pas d’accord avec chacune des affirmations suivantes concernant les lunettes connectées ? » Image : LINC

En termes d’utilisation, près de 8 personnes sur 10 (78 %) perçoivent les lunettes connectées comme une aide potentielle pour les personnes en situation de handicap visuel ou auditif. En revanche, 67 % trouvent qu’elles posent un problème d’atteinte à la vie privée, et 55 % un danger tout simplement (distraction, visibilité réduite). Enfin, et cela montre que les constructeurs ont encore du chemin à faire pour convaincre, 62 % des sondés ne veulent pas acquérir ce type d’appareil, contre 36 % d’enthousiastes. 1 % ont déclaré en posséder une paire.

Des dizaines d’associations de défense des libertés numériques ont publié une lettre ouverte mi-avril à destination de Mark Zuckerberg. Le texte souligne les risques que feraient peser les lunettes connectées sur « les victimes de violences conjugales, les cibles de harceleurs et d’agresseurs sexuels, les minorités religieuses, les personnes de couleurs, les personnes LGBTQ+, ainsi que les femmes et les enfants, entre autres ». Les signataires demandent à Meta de renoncer au déploiement de la reconnaissance faciale dans ces appareils.

Reçu hier — 11 mai 2026 Next - Articles gratuits

☕️ xAI balade son adresse de contact juridique européenne en Estonie

11 mai 2026 à 15:32


Suite à la vague de deepfakes visant à dénuder des femmes perpétrée par des utilisateurs du réseau social X, xAI fait face en Europe à plusieurs enquêtes en cours, notamment ouvertes par la Commission de protection des données irlandaise (la Data Protection Commission, DPC), la Commission européenne et la justice française.

Mais l’entreprise d’Elon Musk semble vouloir jouer au jeu du chat et de la souris. Elle a discrètement changé plusieurs fois son point de contact officiel européen pour les utilisateurs voulant signaler d’éventuels problèmes liés au Digital Services Act. Le média Follow the Money a repéré une première adresse à Tallinn. Celle-ci était censée être celle d’EDSR (European Digital Services Representatives).

Illustration : Flock

EDSR est un cabinet d’avocats situé à Bruxelles détenu en partie par Olivier Willocx, membre du Parlement de la région de Bruxelles-Capitale depuis 2024. Cette structure s’est notamment spécialisée dans l’accompagnement d’entreprises non européennes comme Telegram.

Cette adresse en Estonie a été ajoutée aux conditions d’utilisation de xAI peu de temps après l’ouverture de l’enquête de la DPC. Ainsi, en mars, on pouvait la retrouver sur la page des conditions d’utilisation alors que la page n’indiquait pas de tel point de contact en janvier dernier.

Follow the Money a voulu en savoir plus sur cette adresse et a pu constater physiquement qu’aucun bureau de EDSR ou xAI n’y figurait. Seule une boite aux lettres était installée à l’accueil alors que l’entreprise propriétaire du bâtiment indique à nos confrères ne pas louer de boîtes postales à des entreprises qui n’avaient pas de bureau dans l’immeuble et ne pas avoir conclu de contrat de location avec xAI ou EDSR.

Après avoir été contactée par Follow the Money, et sans donner aucune explication ni réponse, xAI a de nouveau changé l’adresse de contact, la situant dans un autre immeuble de la capitale de l’Estonie.

☕️ SoftBank investirait jusqu’à 100 milliards de dollars dans des infrastructures IA en France

11 mai 2026 à 15:15


Le groupe SoftBank s’apprêterait à dévoiler un plan à 100 milliards de dollars pour doter la France de nouveaux centres de données. C’est du moins le projet qu’aurait monté Masayoshi Son, patron du conglomérat japonais, après une rencontre avec Emmanuel Macron.

Lors de sa visite au Japon fin mars, Emmanuel Macron a fait la tournée des popotes auprès des responsables politiques et des grands acteurs de l’économie de l’archipel. Parmi eux, Masayoshi Son, directeur général de SoftBank, opérateur télécom, fournisseur de services en ligne et surtout mastodonte des investissements tous azimuts. Selon Bloomberg, le président français lui aurait proposé d’établir des infrastructures IA dans l’Hexagone.

consommation de l'ia
Illustration : Flock

L’investisseur aurait été intrigué par cette approche provenant d’un chef d’État, alors qu’il est plus souvent sollicité par des dirigeants d’entreprise. Depuis, il étudierait sérieusement le projet et aurait même évoqué auprès de proches du dossier la possibilité de mettre jusqu’à 100 milliards de dollars sur la table. Gardons la tête froide : le montant final pourrait être beaucoup moins élevé. 

Ce d’autant que SoftBank a déjà fort à faire avec ses autres projets, dont l’initiative Stargate avec OpenAI, Oracle et le fonds émirati MGX — un investissement à 500 milliards qui semble presque modeste face aux plus de 700 milliards avancés par Microsoft, Meta, Amazon et Alphabet pour cette année. 

SoftBank s’est également engagée à investir plus de 60 milliards dans OpenAI pour en obtenir 13 % du capital et travaille de près avec la startup IA sur de nombreux projets.

La liste des investissements (réels et potentiels) de Masayoshi Son est très longue, de nombreux milliards promis n’ont toujours pas été concrétisés. Le projet français pourrait être dévoilé à l’occasion du sommet Choose France, le 19 mai. Les détails restent encore flous et la portée de l’annonce peut encore évoluer. 

En février 2025, à l’occasion d’un sommet pour l’action sur l’IA, Emmanuel Macron avait déjà annoncé 109 milliards d’euros d’investissements « dans les prochaines années », soit « l’équivalent pour la France de ce que les États-Unis ont annoncé avec “Stargate” », avait-il affirmé. Pour attirer les entreprises IA, le locataire de l’Élysée met en avant les capacités nucléaires de la France qui donnent aux centres de données « l’énergie la plus décarbonée d’Europe ».

☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos

11 mai 2026 à 13:46


L’Union européenne a décroché son billet pour GPT-5.5-Cyber, le grand modèle de langage d’OpenAI spécialisé dans la cybersécurité. En revanche, les discussions se poursuivent avec Anthropic pour obtenir un accès à Mythos.

L’UE court après les LLM américains spécialisés dans la cybersécurité. Pour l’un d’entre eux, GPT-5.5-Cyber, c’est chose faite : la Commission européenne a confirmé l’accès au modèle de langage d’OpenAI. « Nous saluons la transparence d’OpenAI et sa volonté de donner à la Commission un accès à son nouveau modèle », s’est réjoui Thomas Regnier, le porte-parole à la souveraineté technologique. « Cela nous permettra de suivre de très près le déploiement de ce modèle, mais aussi de traiter plus directement certaines préoccupations en matière de sécurité. »

OpenAI est allé frapper à la porte de la Commission pour leur proposer un accès au modèle. Ce n’est que le début de la collaboration, la Commission doit par exemple déterminer qui pourra travailler sur GPT-5.5-Cyber au sein de l’UE. Plusieurs organisations pourraient y prétendre : la DG Connect (direction générale des réseaux de communication, du contenu et des technologies), l’AI Office (centre d’expertise pour l’IA), l’agence de cybersécurité Enisa… « Une étape après l’autre : nous discutons d’abord avec l’entreprise. Ensuite, nous verrons évidemment quelles seront les prochaines étapes », ajoute le porte-parole.

« Les laboratoires d’IA comme le nôtre ne devraient pas être les seuls arbitres de la cybersécurité », déclare George Osborne, responsable d’OpenAI for Countries. « La résilience repose sur des partenaires de confiance travaillant ensemble ». Les capacités de GPT-5.5-Cyber doivent être « accessibles aux nombreux défenseurs européens, et pas seulement à quelques-uns », ajoute-t-il en rappelant l’existence du plan d’action européen d’OpenAI pour la cybersécurité.

La déclinaison cyber de GPT‑5.5 est disponible depuis le 7 mai, dans un « aperçu limité » réservé aux « défenseurs chargés de sécuriser les infrastructures critiques », explique OpenAI. L’entreprise a élargi son programme TAC (Trusted Access for Cyber) au mois d’avril avec le lancement de GPT-5.4-Cyber ; il faut montrer patte blanche pour entrer dans le club, les partenaires étant vérifiés et approuvés par l’entreprise.

L’UE reste en revanche privée de Mythos. Thomas Regnier a indiqué qu’il y avait « un niveau d’engagement » avec Anthropic, « nous avons eu quatre ou cinq réunions avec l’entreprise ». Les discussions semblent aller bon train mais pour le moment, « nous ne sommes pas au même niveau [qu’avec OpenAI] ». Bruxelles salue « l’approche proactive adoptée par OpenAI, y compris sa volonté de nous donner accès au modèle », et voudrait bien que ça soit le cas avec Anthropic également.

Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

11 mai 2026 à 12:42
C'est open
Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

Derrière le bras de fer qui oppose la Chine et les États-Unis dans l’accès aux semi-conducteurs, la Chine séduit un nombre croissant d’entreprises et d’institutions avec ses modèles open source.

Quel est le modèle d’IA générative le plus utilisé au monde ? Si l’on en croit Open Router (qui se présente comme « la première place de marché pour les LLM »), ce sont deux modèles chinois qui menaient la danse ces deux dernières semaines : la version gratuite d’Hy3, du géant Tencent, et le modèle open source Kimi K2.6 de la start-up Moonshot.

Classement des LLM les plus utilisés d’après Open Router

Anthropic n’arrive qu’en troisième et quatrième position avec Claude Sonnet 4.6 et Claude Opus 4.7, suivi de diverses versions de DeepSeek et de Gemini (Google). Pendant que les dirigeants politiques et économiques occidentaux se focalisent sur les modèles géants des principaux acteurs états-uniens, la Chine mène sa danse grâce à un tout autre modèle de fabrication de systèmes d’IA : de l’open source, à plus faible coût que chez son concurrent occidental.

Quand bien même les États-Unis restreignent l’accès de la Chine aux processeurs les plus avancés, le pays multiplie les modèles d’IA certes appuyés sur des technologies moins récentes, mais dont le fonctionnement est aussi nettement moins onéreux, indique Agathe Demarais, directrice du programme géoéconomie et technologie de l’European Council on Foreign Relations, dans Foreign Policy.

À 4 $ environ le million de tokens générés, Kimi revient ainsi six à huit fois moins cher que le recours à Opus 4.7 ou à GPT-5.5. Une variation certes négligeable pour l’internaute moyen, mais qui prend tout son sens lorsqu’elle est observée depuis le point de vue d’entreprises susceptibles de faire tourner des centaines d’agents d’IA.

Kimi, Deepseek, Ryu 4… faites votre choix

Créé par Moonshot AI, société fondée en 2023 à Pékin, Kimi rejoint les résultats des leaders états-uniens du secteur depuis plusieurs mois. Un succès qui s’ajoute à celui de plusieurs autres leaders locaux du secteur, dont chaque progrès sonne comme un coup de semonce pour le leadership technologique états-unien. En mars, Anthropic s’était d’ailleurs plainte que DeepSeek, Moonshot et MiniMax avaient recouru à des comptes frauduleux pour extraire à grande échelle les capacités de son modèle Claude.

Rivalisant avec le dernier modèle d’Open AI GPT 5.5, la quatrième version de DeepSeek a été conçue pour ne fonctionner que sur des technologies chinoises, et Huawei a indiqué avoir travaillé en étroite collaboration avec son constructeur. Une logique qui n’est pas sans inquiéter le patron de Nvidia. Portée par la start-up chinoise du même nom, la première version de DeepSeek avait fait l’effet d’une déflagration sur le marché de l’IA dès sa sortie, début 2025.

Autres modèles notables, ceux des géants Tencent et Alibaba. Plus ramassé que son prédécesseur avec 295 milliards de paramètres (contre 400 milliards pour Hy2), le dernier modèle de Tencent Hy3 se hisse depuis la fin avril en haut de plusieurs benchmarks. Chez Alibaba, Qwen comptait en mars pour plus de 50 % des téléchargements mondiaux de systèmes d’IA open source, avec près d’un milliard de téléchargements cumulés.

Déployé directement dans des services de la vie courante en Chine, comme les plateformes de e-commerce Taobao et Tmall, l’outil est par ailleurs plébiscité par des institutions publiques. En novembre, le gouvernement de Singapour indiquait par exemple renoncer à Llama de Meta et se tourner vers Qwen pour construire son modèle d’IA souverain.

Nouvel incontournable des standards mondiaux

Ce déploiement de modèles open source constitue une évolution de la stratégie des « Nouvelles routes de la soie » (Belt and Road Initiative, BRI) portée par Pékin. Si celle-ci impliquait traditionnellement que des sociétés chinoises déploient des projets d’infrastructures complets à des pays étrangers pour les mettre dans son orbite, la diffusion de modèles d’IA open source suit une logique similaire tout en rendant l’infrastructure invisible et gratuite (le coût des serveurs et de l’électricité qui leur est nécessaire étant porté par les pays qui adoptent ces technologies).

Cela rend le déploiement d’IA chinoise plus simple que celui de ports, de rails ou d’autres infrastructures matérielles, tout en la rendant peu à peu incontournable, expose Agathe Demarais. À long terme, une telle logique pourrait la rendre indispensable dans l’établissement des standards mondiaux relatifs à l’IA.

Dans la mesure où la plupart des économies occidentales sont déjà coincées dans le modèle états-unien, cette lutte pour les standards mondiaux se jouera avant tout du côté des économies émergentes. Les coûts d’entraînement des modèles chinois, la possibilité d’entraîner les modèles avec des données spécifiques à chaque pays plutôt que sur une base pré-entraînée sur des données occidentales, ou encore le dédain croissant envers les États-Unis pourraient les pousser vers les technologies chinoises.

La piste créerait un autre type de dépendance technologique. Lorsqu’il est auto-hébergé, DeepSeek persiste ainsi à donner des réponses alignées avec les thèses du gouvernement chinois sur certaines thématiques sensibles, notamment sur la « Grande muraille numérique » locale. Pour autant, ces technologies pourraient devenir pour certains le pari le plus sûr, alors que le gouvernement états-unien prend un visage foncièrement imprévisible, ce qui permettrait à la Chine de se construire une influence durable.

Vibe coding : des milliers de web apps exposent des données sensibles en ligne

11 mai 2026 à 12:23
Une URL, et tout devient accessible
Vibe coding : des milliers de web apps exposent des données sensibles en ligne

Plus besoin de connaissances en HTML ou en JavaScript pour développer des web apps : il suffit de la décrire à une des plateformes de vibe coding qui se partagent un marché florissant. Mais la sécurité est le parent pauvre de cette pratique.

Les apps générées par IA publiées sur internet sont souvent peu sécurisées. Red Access, une entreprise spécialisée dans la sécurité dans le nuage, et son cofondateur Dor Zvi ont analysé des milliers de web apps créées avec des outils comme Lovable, Replit, Base44 et Netlify. Le résultat fait froid dans le dos : plus de 5 000 d’entre elles ne présentent aucune authentification ni véritable sécurité.

La simplicité c’est bien, la sécurité c’est mieux

Il suffit de trouver l’URL du site web pour accéder aux données de ces applications. D’autres n’opposaient comme résistance que des barrières faciles à franchir, comme l’obligation de se connecter avec une adresse email. Environ 40 % de ces web apps exposent des données sensibles, des documents confidentiels ou des historiques de conversation entre clients et chatbots. Dor Zvi tire la sonnette d’alarme chez Wired :

« Des organisations se retrouvent à divulguer des données privées via des applications créées avec le vibe coding. C’est l’un des plus grands cas de fuite où des personnes exposent des informations d’entreprise ou d’autres données sensibles à n’importe qui dans le monde. »

Parmi les trouvailles de l’équipe de Red Access : des plannings d’hôpitaux avec des informations personnelles sur des médecins, les achats publicitaires d’une entreprise, une présentation de lancement commercial, les registres de cargaisons d’une société de transport… Dans certains cas, Dor Zvi aurait pu obtenir les privilèges admin de certaines de ces apps en ligne — et même supprimer des comptes administrateurs.

Les plateformes de vibe coding permettent aux utilisateurs d’héberger leurs web apps directement sur leurs propres domaines. Pour mettre la main dessus, les chercheurs ont simplement utilisé Google ou Bing. Ils ont également trouvé plusieurs sites d’hameçonnage reproduisant ceux de grandes entreprises, créés et hébergés chez Lovable.

« Certains utilisateurs ont publié sur le web des applications qui auraient dû rester privées », explique Amjad Masad, le directeur général de Replit. « Qu’une application publique soit accessible sur internet est donc un comportement attendu. Les paramètres de confidentialité peuvent être modifiés à tout moment en un clic. » Rappelant l’existence d’outils de sécurité sur sa plateforme, le dirigeant s’engage à basculer les applications en mode privé et à informer les utilisateurs, si Red Access décide de lui transmettre une liste de ces derniers.

Masad reproche au passage le délai très court donné par la société de cybersécurité : « moins de 24 heures » avant de rendre l’affaire publique, ce qui n’a guère laissé de temps à Replit pour s’organiser. Le 6 mai, Replit annonçait que tous les utilisateurs du service, gratuit comme payant, peuvent publier leurs apps en mode privé. Une fonction qui était réservée auparavant aux clients Pro et Enterprise.

La responsabilité des plateformes

Chez Lovable, on indique également que les utilisateurs ont des outils de sécurité à leur disposition, « mais la manière dont une application est configurée relève au final de la responsabilité de son créateur ». Même discours du côté de Base44 : « Désactiver ces contrôles [de sécurité] est une action volontaire et simple, que n’importe quel utilisateur peut effectuer ». Une web app rendue publique est « un choix de configuration de l’utilisateur, et pas une faille de la plateforme ».

Base44 rappelle aussi qu’il est très simple de générer des données ressemblant à des vraies. Malgré tout, le risque d’exposer des informations confidentielles via des web apps vibe-codées reste réel. Ces outils sont utilisés par des utilisateurs n’ayant pas nécessairement le bagage technique suffisant pour sécuriser leurs données en ligne. 

« N’importe qui dans une entreprise peut générer une application à tout moment, sans passer par un cycle de développement standard ni par le moindre contrôle de sécurité », prévient Dor Zvi. Les plateformes ont une responsabilité ici, celle de mettre en place des garde-fous pour éviter un tsunami potentiel de fuites de données.

☕️ La France insoumise victime d’un vol de données personnelles

11 mai 2026 à 11:59


La France Insoumise (LFI) a informé certains de ses adhérents ou sympathisants d’un vol de données personnelles survenu au niveau de ses outils internes. Elle y indique avoir été victime d’une attaque cybercriminelle susceptible d’avoir conduit à l’exposition d’informations telles que le nom et prénom, l’adresse email, l’adresse postale, les « informations de profil » et la « participation à certains groupes ou événements ».

Le parti politique ne précise pas le canal par lequel a été réalisée l’attaque, mais les informations personnelles évoquées, notamment l’allusion aux groupes ou événements, suggèrent qu’il pourrait s’agir du site actionpopulaire.fr, la plateforme via laquelle LFI propose à ses sympathisants d’organiser leurs actions de terrain.

Revendication d’un dump de la base actionpopulaire.fr publiée le 7 mai – capture d’écran Next

Cette allusion aux groupes semble également cohérente avec les revendications publiées par un internaute le 7 mai dernier sur un forum spécialisé. Celui-ci affirmait avoir réalisé un dump (une copie) du site actionpopulaire.fr, qui lui donnerait accès à 120 000 emails uniques, 20 000 numéros de téléphone, un nombre non précisé d’adresses physiques, ainsi qu’aux messages et échanges réalisés par l’intermédiaire de la plateforme.

Outre les messages individuels adressés aux victimes potentielles, LFI a communiqué de façon plus large auprès de ses sympathisants. Signé par Manuel Bompard et diffusé, notamment, sur les canaux Discord du parti, le message admet une fuite, mais ne corrobore pas les allégations du pirate supposé :

« Nous sommes encore en train d’investiguer pour préciser les conséquences de ces attaques. Il semble qu’en effet des données liées à certaines personnes ont pu être compromises. En revanche, contrairement à ce qui a été indiqué sur les réseaux sociaux, il ne s’agit ni du fichier de tou·tes les utilisateur·rices d’Action populaire, ni des signataires sur le site de soutien de la campagne présidentielle. »

Message de Manuel Bompard, diffusé dans le canal Annonces d’un des salons Discord de LFI – capture d’écran Next

Le coordinateur du parti confirme par ailleurs qu’une plainte va être déposée, outre l’alerte transmise à la CNIL et à l’ANSSI. « De manière générale, dans le contexte de généralisation de piratages de données ayant par exemple visé des institutions publiques, nous invitons tou·tes les camarades à faire preuve de la plus grande vigilance dans les messages qu’elles et ils pourraient recevoir sur leurs coordonnées personnelles », écrit encore le parti, avant d’appeler aux habituels conseils de vigilance.

La divulgation de cette attaque intervient alors que le leader du parti, Jean-Luc Mélenchon, a annoncé dimanche 3 mai, au 20 heures de TF1, sa candidature à l’élection présidentielle de 2027. Le dépôt GitHub dédié au code d’actionpopulaire.fr témoigne quant à lui d’une forte accélération du volume de commits depuis le 23 avril dernier.

Rappelons que d’un point de vue réglementaire, les informations qui révèlent l’orientation politique relèvent de ce que le RGPD qualifie, dans son article 9, de « données sensibles ».

Dirty Frag : une faille de sécurité de 9 ans d’âge dans le noyau Linux

11 mai 2026 à 11:00
Le début d'une série ?
Dirty Frag : une faille de sécurité de 9 ans d’âge dans le noyau Linux

Ce 7 mai, une nouvelle faille dans le noyau Linux permettant d’obtenir les droits superutilisateur a été divulguée. Mais l’embargo sur sa découverte a été cassé par des tiers. Même si un moyen de l’endiguer a été disponible rapidement, les responsables de distributions Linux courent depuis pour proposer à leurs utilisateurs un noyau incluant un patch.

Ce week-end du 8 mai a été bien actif pour les administrateurs systèmes : un peu plus d’une semaine après la révélation de la faille Copy fail dans le noyau Linux, une autre vulnérabilité a été rendue publique le 7 mai dernier. Elle est maintenant décrite sous le nom de Dirty Frag.

Comme pour Copy fail, en l’exploitant, la faille permet une escalade des privilèges, c’est-à-dire qu’un utilisateur lambda d’une machine peut très facilement accéder aux droits d’accès superutilisateur et faire ce que bon lui semble. Encore faut-il avoir un compte sur la machine.

Embargo cassé

Cette faille a été détectée par le chercheur indépendant Hyunwoo Kim. Mais celui-ci n’avait pas prévu de diffuser l’information si tôt. Comme il l’a expliqué vendredi sur la liste de discussion oss-security, d’autres personnes ont outrepassé l’embargo fixé sur la divulgation de cette faille qui concerne la plupart des distributions Linux.

Ainsi, vendredi, au moment où il a posté le message, aucun patch n’existait et aucun numéro de vulnérabilité ne lui avait été affecté. Le seul moyen qu’il proposait pour endiguer son exploitation était de bloquer les modules dans lesquels le problème se trouvait via la commande :

sh -c "printf 'install esp4 /bin/false\ninstall esp6 /bin/false\ninstall rxrpc /bin/false\n' > /etc/modprobe.d/dirtyfrag.conf; rmmod esp4 esp6 rxrpc 2>/dev/null; echo 3 > /proc/sys/vm/drop_caches; true"

Depuis, la communauté s’est affairée à mettre tout en place pour bloquer la faille. Ainsi, Hyunwoo Kim a créé un dépôt GitHub officiel sur le sujet pour décrire et c’est en fait deux CVE qui ont été créées : CVE-2026-43284 puis CVE-2026-43500. Le score de vulnérabilité de la seconde n’est pas encore fixé mais celui de CVE-2026-43284 est de 8,8. Comme pour Copy Fail, le vecteur d’attaque est local (AV:L) : il faut déjà avoir un accès local sur la machine et le score aurait été sans doute plus élevé si ça n’avait pas été le cas.

Une modification possible depuis 2017

Les deux vulnérabilités se situaient aussi, comme avec Copy Fail, dans la possibilité de modifier le page cache (celui de xfrm-ESP depuis 2017 pour la CVE-2026-43284 et celui de RxRPC depuis 2023 pour la CVE-2026-43500). Corrigées respectivement depuis le 5 et 10 mai dans les deux projets, Hyunwoo Kim souligne qu’ « en d’autres termes, la durée de vie effective de ces vulnérabilités est d’environ 9 ans ».

La similarité avec Copy fail n’est pas étonnante puisque Hyunwoo Kim explique que c’est la première faille qui a inspiré sa recherche d’autres du même type

Le chercheur donne aussi un PoC. À Next, nous avons testé sur un serveur dédié virtuel chez OVHCloud sur lequel est installé Ubuntu 25.04. Nous avons pu reproduire le comportement, ainsi n’importe quelle personne qui a un compte sur la machine peut devenir root et y faire ce qu’elle veut.

Dans sa documentation, avant de pouvoir déployer le correctif de votre distribution, Hyunwoo Kim propose la même façon d’endiguer le problème que dans son message sur la liste oss-security.

Comme l’explique Ubuntu sur son blog, celle-ci peut poser des problèmes si on utilise le protocole de VPN IPSec comme le logiciel strongSwan. C’est aussi le cas si on se sert du système d’archivage distribué AFS (Andrew File System) « ou d’une autre application utilisant RxRPC ».

Course pour patcher

Petit à petit, les responsables des distributions Linux déploient un correctif. C’est le cas pour certaines versions de Debian, par exemple. Mais, à cause du non respect de l’embargo, le déploiement n’était pas prêt lorsque la faille a été rendue publique. Sur un dépôt GitHub titré « Copy Fail 2: Electric Boogaloo », d’autres personnes ont publié des informations sur la faille en marge du travail de Hyunwoo Kim tout en le créditant.

Celui-ci explique avoir contacté l’équipe de sécurité du noyau Linux le 30 avril avec un exploit montrant les possibilités d’utilisation de la faille et que le chercheur Kuan-Ting Chen a travaillé en parallèle sur le problème. Celui-ci a proposé un patch le 4 mai sur la liste netdev et il a été intégré à la branche netdev le 7 mai. Hyunwoo Kim a ensuite informé les responsables des distributions Linux sur la linux-distros et un embargo de cinq jours a été fixé. Mais celui-ci a donc été cassé par un tiers, ce qui a précipité la mise en place d’une solution. Comme avec Copy Fail, les administrateurs systèmes se sont donc retrouvés avec des informations partielles sur le problème au moment de la divulgation.

Mozilla industrialise la chasse aux bugs dans Firefox avec l’IA

11 mai 2026 à 09:42
Firefox sous perfusion de Mythos
Mozilla industrialise la chasse aux bugs dans Firefox avec l’IA

Firefox sert désormais de laboratoire grandeur nature pour éprouver de nouveaux outils de cybersécurité assistés par IA. En avril, Mozilla a corrigé la bagatelle de 423 vulnérabilités, la majorité ayant été débusquée par Mythos.

Mozilla ne tarit décidément pas d’éloges sur les capacités de Mythos à détecter des bugs et des failles de sécurité dans Firefox. En avril, des correctifs ont permis de corriger 423 vulnérabilités : les 271 bugs dans Firefox 150 déjà annoncés qui proviennent des analyses de Mythos, plus 41 bugs signalés par des chercheurs externes, et 111 découverts en interne avec d’autres méthodes. À comparer avec les 76 correctifs du mois de mars.

Mozilla

Une chose a changé dans l’utilisation des LLM par les développeurs de Firefox. Les tests réalisés ces dernières années avec GPT-4 ou Sonnet 3.5 s’avéraient certes prometteurs, mais au bout du compte « le taux élevé de faux positifs les rendait impraticables à grande échelle », écrivent Brian Grinstead, Christian Holler et Frederik Braun de Mozilla. Le mode opératoire était relativement classique : demander au modèle d’analyser du code jugé sensible pour repérer d’éventuelles vulnérabilités.

Des agents qui traquent les bugs

Les modèles agentiques ont changé la donne, soulignent-ils : « Ces systèmes peuvent trouver de véritables bugs et écarter les hypothèses impossibles à reproduire ». Claude Opus 4.6 a permis de mettre au point un « harnais agentique » qui interagit avec l’environnement de développement : il peut exécuter du code, vérifier si la faille existe réellement et générer des cas de test qu’il est possible de reproduire.

En substance, le LLM formule une hypothèse et tente lui-même de la valider. De quoi identifier « une quantité impressionnante de vulnérabilités jusque-là inconnues ». Les ingénieurs de Mozilla ont affiné et ajusté le comportement du modèle, et lorsque les résultats ont été jugés suffisamment bons, ils ont parallélisé les tâches sur plusieurs machines virtuelles éphémères. 

Le LLM n’est qu’une partie de ce Meccano de sécurité. L’infrastructure au complet inclut aussi la gestion du cycle de vie des vulnérabilités : orchestration, validation, triage, intégration avec d’autres outils internes. Ce « harnais », qui reste très spécifique au projet, peut ensuite fonctionner avec d’autres LLM, comme l’aperçu de Mythos. « Le système devient simultanément meilleur pour repérer des bugs potentiels, créer des cas de test de preuve de concept pour les démontrer, et expliquer précisément leur mécanisme ainsi que leur impact », indique Mozilla.

Ce travail de fond pour créer un pipeline autour des modèles de langage et les capacités accrues de ces derniers ont permis d’accélérer la détection et le développement de correctifs. « Il y a encore quelques mois, les rapports de bugs de sécurité générés par IA envoyés aux projets open source étaient surtout connus pour être du bruit inutile », rappellent les ingénieurs. Trier le bon grain de l’ivraie était chronophage : « il est simple et peu coûteux de demander à un LLM de trouver un « problème » dans du code, mais il est long et coûteux de vérifier puis de répondre à ces signalements. »

Tout a changé avec les nouveaux LLM plus puissants, et l’amélioration des techniques permettant d’exploiter ces modèles. C’est un cas d’usage spécifique pour Firefox qui peut ne pas s’adapter à d’autres organisations. 

L’IA n’écrit pas les correctifs

Brian Grinstead apporte un éclairage intéressant chez TechCrunch. Si l’équipe de Firefox utilise les LLM pour repérer des failles, les correctifs sont toujours écrits par des humains malgré les progrès des outils de développement assistés par IA. « Pour les bugs dont nous parlons dans ce billet, chaque correctif a été écrit par un ingénieur puis relu par un autre », explique-t-il.

Les développeurs demandent tout de même à l’IA de proposer des correctifs pour chaque bug, mais le code qu’elle produit ne peut pas être déployé tel quel. Il sert surtout de base de travail, car « nous n’avons pas constaté que cela pouvait être automatisé ».

Mozilla est suffisamment confiant pour partager 12 bugs corrigés sans attendre les plusieurs mois habituels avant une divulgation publique, « compte tenu du niveau d’intérêt extraordinaire suscité par ce sujet et de l’urgence des mesures à prendre dans l’ensemble de l’écosystème logiciel ». Ces bugs, qui permettent des échappements de sandbox, doivent être combinés à d’autres exploits pour compromettre Firefox.

« Nous n’avons pas encore découvert tous les bugs latents présents dans Firefox, mais nous sommes très satisfaits de la trajectoire actuelle », conclut le billet. La prochaine étape pour Mozilla est d’intégrer le système directement dans la chaîne de développement du navigateur : chaque nouveau correctif envoyé par un développeur pourrait être automatiquement analysé par le pipeline IA, ce qui permettrait de détecter les bugs quasiment au moment où ils sont intégrés dans le code de Firefox.

Sur le sujet de l’impact de l’IA sur le monde de la cybersécurité, illustré notamment par le phénomène médiatique Mythos, voir notre récent dossier :

❌