Vue normale

L’État de New York veut que les contenus générés par IA soient signalés comme tels

10 février 2026 à 15:50
NY FAIR News Act
L’État de New York veut que les contenus générés par IA soient signalés comme tels

Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.

Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.

La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.

« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.

Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».

La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.

Le journalisme, une des industries les plus menacées par l’IA

Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».

« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »

La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :

« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »

Le texte prévoit aussi l’interdiction du remplacement des journalistes par des IA

Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.

Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.

L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

L’État de New York veut que les contenus générés par IA soient signalés comme tels

10 février 2026 à 15:50
NY FAIR News Act
L’État de New York veut que les contenus générés par IA soient signalés comme tels

Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.

Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.

La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.

« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.

Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».

La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.

Le journalisme, une des industries les plus menacées par l’IA

Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».

« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »

La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :

« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »

Le texte prévoit aussi l’interdiction du remplacement des journalistes par des IA

Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.

Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.

L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

10 février 2026 à 15:24
Cache cash
Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

Accusé d’avoir contribué à vendre l’équivalent de plus de 105 millions de dollars de drogues sur le « dark web », un ex-étudiant taïwanais en sécurité informatique avait réussi à en tirer plus de 6 millions de dollars, à raison de 5 % de chaque transaction. Qu’il avait en partie transféré sur un compte à son nom.

Avec 45,5 millions de revenus en 2023, Incognito Market figurait alors en 4ᵉ position des places de marché du dark web les plus profitables. Le communiqué du département de la Justice US avance qu’elle aurait contribué à écouler plus de 105 millions de dollars de stupéfiants, dont plus de 1 000 kg de cocaïne, plus de 1 000 kg de méthamphétamines, des centaines de kg d’autres stupéfiants et plus de 4 kg d’une substance prétendument de l’« oxycodone », dont une partie était mélangée à du fentanyl.

« Rui-Siang Lin était l’un des trafiquants de drogue les plus prolifiques au monde, utilisant Internet pour vendre plus de 105 millions de dollars de drogues illégales dans tout le pays et à travers le monde », tout en prélevant 5 % des transactions, a déclaré le procureur américain Jay Clayton :

« Il est responsable d’au moins un décès tragique, et il a exacerbé la crise des opioïdes et causé la misère de plus de 470 000 consommateurs de stupéfiants et de leurs familles. La sentence prononcée aujourd’hui met en garde les trafiquants : vous ne pouvez pas vous cacher dans l’ombre d’Internet. Et notre message plus général est simple : Internet, la « décentralisation », la « blockchain » – toute technologie – ne sont pas un permis pour exploiter un commerce de distribution de stupéfiants. »   

« Et oui, il s’agit d’une extorsion !!!! »

En mars 2024, Incognito Market, l’« une des plus grandes » places de marché (noir) de vente de drogues sur le dark web, parvenait successivement à escroquer puis rançonner ses utilisateurs. D’ordinaire, ceux qui procèdent à de tels « exit scam » cherchent à se faire discrets. Pharoah, l’administrateur de la place de marché, fit de son côté tout pour se faire remarquer.

Se disant « surpris du nombre de personnes qui se sont fiées à notre fonctionnalité de « chiffrement automatique » », Pharoah précisait en effet aux utilisateus d’Incognito Market que les « messages et identifiants de transaction n’ont jamais été supprimés après la période d' »expiration »… SURPRISE SURPRISE !!! »

Pour les inciter à payer leurs rançons (de 100 à 20 000 dollars), il menaçait même de « fuiter auprès des forces de l’ordre » l’intégralité des 557 000 commandes et 862 000 identifiants de transactions de crypto-monnaies à la fin du mois de mai : « Le fait que vos informations et celles de vos clients figurent sur cette liste ne dépend que de vous », précise le message : « Et oui, il s’agit d’une extorsion !!!! ».

Un CV incompatible avec sa fortune en cryptos

Fin mai, le département de la Justice des États-Unis avait annoncé l’arrestation d’un Taïwanais de 23 ans, qu’il accuse d’être Pharoah. Rui-Siang Lin, un ex-étudiant en sécurité informatique passionné par les cryptos – et également connu sous les noms de Ruisiang Lin, 林睿庠, et faro – avait en effet été arrêté à l’aéroport John F. Kennedy de New York.

Le communiqué précisait alors qu’Incognito Market aurait permis la commercialisation de plus de 1 000 kilos de stupéfiants, dont « au moins 364 kilogrammes de cocaïne, 295 kilogrammes de méthamphétamine et 92 kilogrammes de MDMA », pour « environ 80 000 000 $ en crypto-monnaies ».

Incognito Market dénombrait plus de 1 000 vendeurs, plus de 200 000 acheteurs, et « au moins un employé ». Le communiqué annonçant la sentence infligée à Rui-Siang Lin avance désormais qu’y figuraient 1 800 «  vendeurs », et plus de 400 000 « acheteurs » ayant effectué plus de 640 000 transactions.

Les quatre portefeuilles de cryptos stockés dans le serveur saisi en janvier 2024 comprenaient 1 316 BTC (équivalant à 37 millions de dollars, précisait l’acte d’accusation), dont 123,14 (3,35 M$) pour le seul portefeuille de l’administrateur d’Incognito Market.

L’analyse des transactions indiquait que, depuis son lancement, Incognito Market aurait généré 83,6 millions de dollars de revenus et rapporté à son administrateur « au moins 4 181 228 $ grâce à sa commission de 5 % ».

Or, l’un des portefeuilles de cryptoactifs, créé par Rui-Siang Lin fin juillet 2023, avait reçu l’équivalent de 4,5 millions de dollars de dépôts en cryptos fin novembre. Des sommes incompatibles avec ses activités professionnelles, résumait l’acte d’accusation :

« Sur les quatre « expériences professionnelles » énumérées dans le CV de Lin, la première est un « stage », la seconde est « étudiant chercheur », la troisième « cofondateur » d’une obscure société de technologie et la quatrième est employé des « technologies de l’information » pour un bureau du gouvernement étranger. Aucun de ces postes ne suggère que LIN aurait gagné des millions de dollars. »

Spécialiste de l’OPSEC, il tombe pour des erreurs d’OPSEC

Étrangement, Rui-Siang Lin avait non seulement commis l’erreur de se rendre aux États-Unis, mais aussi et surtout d’effectuer quatre paiements auprès d’un registrar pour des noms de domaine faisant la promotion d’Incognito Market depuis un portefeuille de cryptos lui étant associé.

Ce même portefeuille avait en outre reçu des sommes en provenance d’une plateforme de « swapping » (souvent utilisée pour « blanchir » des BTC notamment en les convertissant en d’autres cryptoactifs, NDLR) dont les montants correspondaient à ceux que l’administrateur d’Incognito Market venait de tenter de blanchir.

Des erreurs d’autant plus surprenantes qu’Incognito Market obligeait ses utilisateurs à déchiffrer des messages chiffrés au moyen de PGP, mais qu’il les testait également via des quizz portant notamment sur leurs connaissances de la sécurité de Monero ou encore des principes de la sécurité opérationnelle (ou OPSEC, pour « OPerations SECurity »), s’étonnait Wired.

Extraits d'un quizz proposé aux utilisateurs d'Incognito

Recruté comme spécialiste des technologies de l’information par le ministère des Affaires étrangères de Taïwan, il avait en outre été envoyé diriger, à l’Académie de police de l’île de Sainte-Lucie, dans les Caraïbes, une formation de quatre jours consacrée à… la cybercriminalité et aux crypto-monnaies. 

Et dans sa dernière publication sur LinkedIn, il se disait « très heureux de vous annoncer que j’ai obtenu la nouvelle qualification de Chainalysis : Chainalysis Reactor Certification (CRC) ! », la société d’analyse des blockchains et cryptoactifs utilisée par les principales polices occidentales.

Dans son dernier tweet, posté le 18 mai (jour de son arrestation), il partageait un graphe de Chainalysis montrant qu’avec 45,5 millions de revenus en 2023, Incognito Market figurait en 4ᵉ position des places de marché du dark web les plus profitables.

Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

10 février 2026 à 15:24
Cache cash
Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

Accusé d’avoir contribué à vendre l’équivalent de plus de 105 millions de dollars de drogues sur le « dark web », un ex-étudiant taïwanais en sécurité informatique avait réussi à en tirer plus de 6 millions de dollars, à raison de 5 % de chaque transaction. Qu’il avait en partie transféré sur un compte à son nom.

Avec 45,5 millions de revenus en 2023, Incognito Market figurait alors en 4ᵉ position des places de marché du dark web les plus profitables. Le communiqué du département de la Justice US avance qu’elle aurait contribué à écouler plus de 105 millions de dollars de stupéfiants, dont plus de 1 000 kg de cocaïne, plus de 1 000 kg de méthamphétamines, des centaines de kg d’autres stupéfiants et plus de 4 kg d’une substance prétendument de l’« oxycodone », dont une partie était mélangée à du fentanyl.

« Rui-Siang Lin était l’un des trafiquants de drogue les plus prolifiques au monde, utilisant Internet pour vendre plus de 105 millions de dollars de drogues illégales dans tout le pays et à travers le monde », tout en prélevant 5 % des transactions, a déclaré le procureur américain Jay Clayton :

« Il est responsable d’au moins un décès tragique, et il a exacerbé la crise des opioïdes et causé la misère de plus de 470 000 consommateurs de stupéfiants et de leurs familles. La sentence prononcée aujourd’hui met en garde les trafiquants : vous ne pouvez pas vous cacher dans l’ombre d’Internet. Et notre message plus général est simple : Internet, la « décentralisation », la « blockchain » – toute technologie – ne sont pas un permis pour exploiter un commerce de distribution de stupéfiants. »   

« Et oui, il s’agit d’une extorsion !!!! »

En mars 2024, Incognito Market, l’« une des plus grandes » places de marché (noir) de vente de drogues sur le dark web, parvenait successivement à escroquer puis rançonner ses utilisateurs. D’ordinaire, ceux qui procèdent à de tels « exit scam » cherchent à se faire discrets. Pharoah, l’administrateur de la place de marché, fit de son côté tout pour se faire remarquer.

Se disant « surpris du nombre de personnes qui se sont fiées à notre fonctionnalité de “chiffrement automatique” », Pharoah précisait en effet aux utilisateus d’Incognito Market que les « messages et identifiants de transaction n’ont jamais été supprimés après la période d'”expiration”… SURPRISE SURPRISE !!! »

Pour les inciter à payer leurs rançons (de 100 à 20 000 dollars), il menaçait même de « fuiter auprès des forces de l’ordre » l’intégralité des 557 000 commandes et 862 000 identifiants de transactions de crypto-monnaies à la fin du mois de mai : « Le fait que vos informations et celles de vos clients figurent sur cette liste ne dépend que de vous », précise le message : « Et oui, il s’agit d’une extorsion !!!! ».

Un CV incompatible avec sa fortune en cryptos

Fin mai, le département de la Justice des États-Unis avait annoncé l’arrestation d’un Taïwanais de 23 ans, qu’il accuse d’être Pharoah. Rui-Siang Lin, un ex-étudiant en sécurité informatique passionné par les cryptos – et également connu sous les noms de Ruisiang Lin, 林睿庠, et faro – avait en effet été arrêté à l’aéroport John F. Kennedy de New York.

Le communiqué précisait alors qu’Incognito Market aurait permis la commercialisation de plus de 1 000 kilos de stupéfiants, dont « au moins 364 kilogrammes de cocaïne, 295 kilogrammes de méthamphétamine et 92 kilogrammes de MDMA », pour « environ 80 000 000 $ en crypto-monnaies ».

Incognito Market dénombrait plus de 1 000 vendeurs, plus de 200 000 acheteurs, et « au moins un employé ». Le communiqué annonçant la sentence infligée à Rui-Siang Lin avance désormais qu’y figuraient 1 800 «  vendeurs », et plus de 400 000 « acheteurs » ayant effectué plus de 640 000 transactions.

Les quatre portefeuilles de cryptos stockés dans le serveur saisi en janvier 2024 comprenaient 1 316 BTC (équivalant à 37 millions de dollars, précisait l’acte d’accusation), dont 123,14 (3,35 M$) pour le seul portefeuille de l’administrateur d’Incognito Market.

L’analyse des transactions indiquait que, depuis son lancement, Incognito Market aurait généré 83,6 millions de dollars de revenus et rapporté à son administrateur « au moins 4 181 228 $ grâce à sa commission de 5 % ».

Or, l’un des portefeuilles de cryptoactifs, créé par Rui-Siang Lin fin juillet 2023, avait reçu l’équivalent de 4,5 millions de dollars de dépôts en cryptos fin novembre. Des sommes incompatibles avec ses activités professionnelles, résumait l’acte d’accusation :

« Sur les quatre “expériences professionnelles” énumérées dans le CV de Lin, la première est un “stage”, la seconde est “étudiant chercheur”, la troisième “cofondateur” d’une obscure société de technologie et la quatrième est employé des “technologies de l’information” pour un bureau du gouvernement étranger. Aucun de ces postes ne suggère que LIN aurait gagné des millions de dollars. »

Spécialiste de l’OPSEC, il tombe pour des erreurs d’OPSEC

Étrangement, Rui-Siang Lin avait non seulement commis l’erreur de se rendre aux États-Unis, mais aussi et surtout d’effectuer quatre paiements auprès d’un registrar pour des noms de domaine faisant la promotion d’Incognito Market depuis un portefeuille de cryptos lui étant associé.

Ce même portefeuille avait en outre reçu des sommes en provenance d’une plateforme de « swapping » (souvent utilisée pour « blanchir » des BTC notamment en les convertissant en d’autres cryptoactifs, NDLR) dont les montants correspondaient à ceux que l’administrateur d’Incognito Market venait de tenter de blanchir.

Des erreurs d’autant plus surprenantes qu’Incognito Market obligeait ses utilisateurs à déchiffrer des messages chiffrés au moyen de PGP, mais qu’il les testait également via des quizz portant notamment sur leurs connaissances de la sécurité de Monero ou encore des principes de la sécurité opérationnelle (ou OPSEC, pour « OPerations SECurity »), s’étonnait Wired.

Extraits d'un quizz proposé aux utilisateurs d'Incognito

Recruté comme spécialiste des technologies de l’information par le ministère des Affaires étrangères de Taïwan, il avait en outre été envoyé diriger, à l’Académie de police de l’île de Sainte-Lucie, dans les Caraïbes, une formation de quatre jours consacrée à… la cybercriminalité et aux crypto-monnaies. 

Et dans sa dernière publication sur LinkedIn, il se disait « très heureux de vous annoncer que j’ai obtenu la nouvelle qualification de Chainalysis : Chainalysis Reactor Certification (CRC) ! », la société d’analyse des blockchains et cryptoactifs utilisée par les principales polices occidentales.

Dans son dernier tweet, posté le 18 mai (jour de son arrestation), il partageait un graphe de Chainalysis montrant qu’avec 45,5 millions de revenus en 2023, Incognito Market figurait en 4ᵉ position des places de marché du dark web les plus profitables.

OpenAI contraint d’investir dans la presse locale

10 février 2026 à 14:00
Leur métier : porter la plume dans la plaine
OpenAI contraint d’investir dans la presse locale

Qualifiant le journalisme de « relique du siècle dernier », OpenAI constate que ses utilisateurs posent à ChatGPT un nombre croissant de questions au sujet d’informations locales. Le nombre de journalistes locaux ayant chuté de 60 % en 20 ans aux États-Unis, il annonce un partenariat avec Axios pour contribuer à en financer une centaine, afin d’alimenter sa base de connaissances.

Aux États-Unis, l’accaparement de la publicité par Google et les plateformes, couplé au fait de pouvoir s’informer depuis son smartphone, ont contribué à la disparition de 3 500 journaux papiers de la presse régionale, passés de près de 9 000 à moins de 5 500 en 20 ans, estime la Local News Initiative de l’université de Northwestern.

Aux USA, le nombre de journaux locaux a chuté de 40 %, celui des journalistes de 60 %, en 20 ans

Près de 40 % des titres de la presse locale ont disparu, laissant 50 des 342 millions de citoyens sans accès à de l’information journalistique. 39 des 50 États dénombrent moins de 1 000 journalistes. Le nombre d’employés d’entreprises de presse a dans le même temps chuté de 75 %, celui des journalistes de 60 %.

Or, ChatGPT enregistrerait environ 1 million de requêtes et demandes d’informations locales par semaine, relève OpenAI, pour qui les gens « continuent à faire davantage confiance aux informations locales qu’aux informations nationales » : « La plupart de cet intérêt se concentre sur la vie civique quotidienne : événements communautaires et entreprises locales, criminalité et interventions d’urgence, législation, tribunaux et politiques publiques ».

OpenAI note également que les internautes s’enquièrent aussi des conditions météorologiques hivernales : les questions au sujet de la météo et des fermetures d’écoles ont ainsi plus que quadruplé, au point de devenir l’un des sujets les plus populaires après le 17 janvier, lorsque la tempête hivernale Fern s’est abattue sur les États-Unis.

Problème : « ChatGPT peut aider les gens à trouver des informations locales, à condition que les journalistes locaux continuent à les couvrir ». Ce pourquoi OpenAI annonce vouloir adopter « une approche différente en matière de partenariats dans le domaine de l’information ».

Le journalisme ? Une « relique du siècle dernier »

La start-up souligne que « pendant des années, les relations entre les grandes entreprises technologiques et les organes de presse ont été marquées par des tensions », au point de qualifier le journalisme de « relique du siècle dernier » (sic), résume Adam Cohen, responsable de la politique économique chez OpenAI :

« À mesure que les plateformes numériques transformaient la manière dont les gens découvraient et consommaient l’information, le journalisme était souvent considéré comme une activité « traditionnelle », une relique du siècle dernier imprimée sur du papier ou récité de manière rigide devant un téléprompteur. Les blogueurs, les vlogueurs et les podcasteurs étaient considérés comme l’avenir du discours public, et les entreprises technologiques rejetaient instinctivement l’idée que le journalisme professionnel puisse mériter une attention particulière. »

Dès lors, « les partenariats étaient rares » et « le dialogue limité » entre les deux professions, la Silicon Valley considérant l’information comme « un mauvais modèle économique », « sans se soucier outre mesure de son impact sur notre compréhension du monde qui nous entoure et du rôle essentiel que joue la fiabilité de l’information dans le soutien de nos idéaux démocratiques ».

43 communautés, couverts par 100 journalistes

« Nous avons choisi une voie différente », se targue aujourd’hui OpenAI, au motif qu’ « un secteur médiatique prospère et indépendant n’est pas seulement compatible avec l’IA, il en est essentiel », que « les gens veulent connaître les sources des informations qu’ils voient sur ChatGPT, et le fait de proposer un journalisme de haute qualité rend ChatGPT plus utile et plus informatif ».

Lancé en janvier 2025, le partenariat entre OpenAI et Axios vise à étendre le nombre de villes couvertes afin de fournir aux utilisateurs de ChatGPT des informations locales validées par des journalistes. Axios Local, qui avait lui-même été initié en 2021, couvrait l’an passé 30 villes et ses newsletters dépassaient les 2 millions d’abonnés.

Axios et OpenAI veulent aujourd’hui y rajouter neuf autres villes, portant le réseau à 43 communautés, couverts par 100 journalistes, co-financés par 13 000 abonnés payants. « Grâce à OpenAI, Axios peut désormais embaucher davantage de journalistes locaux pour couvrir les petites agglomérations urbaines, un modèle qui lui permettra à terme d’atteindre des milliers de zones défavorisées en matière d’information à travers le pays », résume le communiqué d’Axios.

Ni Axios ni OpenAI ne détaillent les montants dont il serait question.

OpenAI contraint d’investir dans la presse locale

10 février 2026 à 14:00
Leur métier : porter la plume dans la plaine
OpenAI contraint d’investir dans la presse locale

Qualifiant le journalisme de « relique du siècle dernier », OpenAI constate que ses utilisateurs posent à ChatGPT un nombre croissant de questions au sujet d’informations locales. Le nombre de journalistes locaux ayant chuté de 60 % en 20 ans aux États-Unis, il annonce un partenariat avec Axios pour contribuer à en financer une centaine, afin d’alimenter sa base de connaissances.

Aux États-Unis, l’accaparement de la publicité par Google et les plateformes, couplé au fait de pouvoir s’informer depuis son smartphone, ont contribué à la disparition de 3 500 journaux papiers de la presse régionale, passés de près de 9 000 à moins de 5 500 en 20 ans, estime la Local News Initiative de l’université de Northwestern.

Aux USA, le nombre de journaux locaux a chuté de 40 %, celui des journalistes de 60 %, en 20 ans

Près de 40 % des titres de la presse locale ont disparu, laissant 50 des 342 millions de citoyens sans accès à de l’information journalistique. 39 des 50 États dénombrent moins de 1 000 journalistes. Le nombre d’employés d’entreprises de presse a dans le même temps chuté de 75 %, celui des journalistes de 60 %.

Or, ChatGPT enregistrerait environ 1 million de requêtes et demandes d’informations locales par semaine, relève OpenAI, pour qui les gens « continuent à faire davantage confiance aux informations locales qu’aux informations nationales » : « La plupart de cet intérêt se concentre sur la vie civique quotidienne : événements communautaires et entreprises locales, criminalité et interventions d’urgence, législation, tribunaux et politiques publiques ».

OpenAI note également que les internautes s’enquièrent aussi des conditions météorologiques hivernales : les questions au sujet de la météo et des fermetures d’écoles ont ainsi plus que quadruplé, au point de devenir l’un des sujets les plus populaires après le 17 janvier, lorsque la tempête hivernale Fern s’est abattue sur les États-Unis.

Problème : « ChatGPT peut aider les gens à trouver des informations locales, à condition que les journalistes locaux continuent à les couvrir ». Ce pourquoi OpenAI annonce vouloir adopter « une approche différente en matière de partenariats dans le domaine de l’information ».

Le journalisme ? Une « relique du siècle dernier »

La start-up souligne que « pendant des années, les relations entre les grandes entreprises technologiques et les organes de presse ont été marquées par des tensions », au point de qualifier le journalisme de « relique du siècle dernier » (sic), résume Adam Cohen, responsable de la politique économique chez OpenAI :

« À mesure que les plateformes numériques transformaient la manière dont les gens découvraient et consommaient l’information, le journalisme était souvent considéré comme une activité « traditionnelle », une relique du siècle dernier imprimée sur du papier ou récité de manière rigide devant un téléprompteur. Les blogueurs, les vlogueurs et les podcasteurs étaient considérés comme l’avenir du discours public, et les entreprises technologiques rejetaient instinctivement l’idée que le journalisme professionnel puisse mériter une attention particulière. »

Dès lors, « les partenariats étaient rares » et « le dialogue limité » entre les deux professions, la Silicon Valley considérant l’information comme « un mauvais modèle économique », « sans se soucier outre mesure de son impact sur notre compréhension du monde qui nous entoure et du rôle essentiel que joue la fiabilité de l’information dans le soutien de nos idéaux démocratiques ».

43 communautés, couverts par 100 journalistes

« Nous avons choisi une voie différente », se targue aujourd’hui OpenAI, au motif qu’ « un secteur médiatique prospère et indépendant n’est pas seulement compatible avec l’IA, il en est essentiel », que « les gens veulent connaître les sources des informations qu’ils voient sur ChatGPT, et le fait de proposer un journalisme de haute qualité rend ChatGPT plus utile et plus informatif ».

Lancé en janvier 2025, le partenariat entre OpenAI et Axios vise à étendre le nombre de villes couvertes afin de fournir aux utilisateurs de ChatGPT des informations locales validées par des journalistes. Axios Local, qui avait lui-même été initié en 2021, couvrait l’an passé 30 villes et ses newsletters dépassaient les 2 millions d’abonnés.

Axios et OpenAI veulent aujourd’hui y rajouter neuf autres villes, portant le réseau à 43 communautés, couverts par 100 journalistes, co-financés par 13 000 abonnés payants. « Grâce à OpenAI, Axios peut désormais embaucher davantage de journalistes locaux pour couvrir les petites agglomérations urbaines, un modèle qui lui permettra à terme d’atteindre des milliers de zones défavorisées en matière d’information à travers le pays », résume le communiqué d’Axios.

Ni Axios ni OpenAI ne détaillent les montants dont il serait question.

La Chine et les USA refusent de s’engager pour une IA militaire « responsable »

10 février 2026 à 08:32
Responsables, mais pas coupables
La Chine et les USA refusent de s’engager pour une IA militaire « responsable »

Entamée il y a trois ans, l’initiative « Responsible AI in the Military Domain » vise à encadrer l’utilisation de l’intelligence artificielle par les armées « de manière à soutenir, plutôt qu’à menacer, la paix, la sécurité et la stabilité internationales ».

35 des 85 pays participant au 3e sommet « Responsible AI in the Military Domain » (REAIM) qui s’est tenu à La Corogne, en Espagne, ont signé jeudi dernier un engagement en faveur de 20 principes relatifs à l’IA en matière militaire, rapporte l’agence Reuters.

Les deux premiers sommets, qui s’étaient tenus à La Haye (2023) puis Séoul (2024), avaient « mis en évidence une vision commune à l’échelle mondiale : l’IA doit être développée et utilisée de manière à soutenir, plutôt qu’à menacer, la paix, la sécurité et la stabilité internationales », explique le site de REAIM 2026.

« Applications of AI in the miltary domain » (sic) © REAIM_Día 4 Paralelas Plenaria

Un « chef de l’IA responsable » dans les Armées

Le nouveau document (.pdf) souligne la préoccupation croissante des signataires quant au fait que les progrès rapides de l’intelligence artificielle pourraient dépasser les règles régissant son utilisation militaire, augmentant ainsi le risque d’accidents, d’erreurs d’appréciation ou d’escalade involontaire, résume Reuters.


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

5 février 2026 à 14:43
Qui c'est qu'a la plus Grok ?
Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

En 2025, le nombre de signalements par X de contenus à caractère pédosexuel a chuté de 81 % après que l’entreprise en ait internalisé la détection. Dans le même temps, Musk poussait les équipes de Grok à entraîner son chatbot débridé à reproduire des contenus à caractère sexuel.

Réagissant à la polémique autour de la vague massive de deepfakes en bikinis générés par Grok, le compte @Safety de X.com précisait le 14 janvier dernier : « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à appliquer une politique de tolérance zéro envers toute forme d’exploitation sexuelle des enfants, de nudité non consentie et de contenu sexuel non désiré ».

« Nous prenons des mesures pour supprimer les contenus violents hautement prioritaires, notamment les contenus pédopornographiques (CSAM) et la nudité non consentie, et prenons les mesures appropriées à l’encontre des comptes qui enfreignent nos règles X. Nous signalons également aux autorités compétentes les comptes qui recherchent des contenus liés à l’exploitation sexuelle des enfants, si nécessaire. »

X.com n’a pas mis à jour son rapport de transparence depuis son rachat par Elon Musk en 2022. Et le parquet de Paris explique au Monde que X aurait commencé, l’an passé, à utiliser une technologie « maison », en remplacement du système Safer de détection de contenus pédopornographiques de l’organisation Thorn, qui avait elle-même été accusée de lobbying intense en faveur du projet #ChatControl de surveillance des messageries chiffrées.

Le 18 juin 2025, @Safety avait en effet annoncé « une mise à jour importante concernant notre travail continu de détection des contenus pédopornographiques (CSAM) et […] que nous avons lancé des efforts supplémentaires de correspondance de hachage CSAM […] grâce au travail incroyable de notre équipe d’ingénieurs en sécurité, qui a mis au point des systèmes de pointe pour renforcer encore nos capacités d’application de la loi ».

En 2024, précisait @Safety, « X a envoyé 686 176 signalements au National Center for Missing and Exploited Children (NCMEC) et suspendu 4 572 486 comptes. Entre juillet et octobre 2024, @NCMEC
a obtenu 94 arrestations et 1 condamnation grâce à ce partenariat
 ».

Or, le parquet précise au Monde qu’« entre juin et octobre 2025, il a été constaté une baisse de 81,4 % des signalements concernant la France adressés par X au National Center for Missing & Exploited Children en matière de pédopornographie ».

Ce qui a entraîné les magistrats à étoffer leur enquête sur des faits de « complicité de détention d’images de mineurs représentant un caractère pédopornographique », de « complicité de diffusion, offre ou mise à disposition en bande organisée » de ces contenus.

« Faire progresser notre compréhension collective de l’univers »

Une enquête de trois journalistes du Washington Post intitulée « Dans les coulisses du pari de Musk pour attirer les utilisateurs qui a transformé Grok en générateur de porno » permet de mieux comprendre comment X et Grok en sont arrivés là.

Quelques semaines avant qu’Elon Musk ne quitte officiellement le DOGE du gouvernement de Donald Trump au printemps dernier, les employés de l’équipe chargée d’aider à définir la manière dont le chatbot Grok de xAI répond à ses utilisateurs reçurent en effet une « dérogation surprenante » de leur employeur, raconte le Post.

Elle leur demandait en effet de s’engager à travailler sur du « contenu vulgaire [profane en anglais], y compris sexuel ». La note les prévenait que leur travail les exposerait dès lors à « des contenus sensibles, violents, sexuels et/ou autres contenus choquants » qui, précisait la décharge, « peuvent être perturbants, traumatisants et/ou causer un stress psychologique ».

Peu après le retour de Musk chez xAI, une note des ressources humaines a demandé à l’équipe qui supervise des centaines de « tuteurs IA », chargés d’étiqueter les résultats de Grok afin de les améliorer, de demander aux candidats à un poste s’ils seraient à l’aise pour travailler avec du contenu « explicite ».

L’entreprise modifia également certains protocoles relatifs aux contenus à caractère sexuel. À l’origine, xAI conseillait à ses employés d’éviter d’examiner ce type de contenus sensibles, afin d’éviter d’apprendre au chatbot à pouvoir les reproduire, selon trois des personnes interrogées par le Post.

Mais le protocole fut modifié durant l’été 2025, de sorte qu’il soit acceptable d’étiqueter les images de personnes nues générées par l’IA. L’un des employés qui travaillait avec le générateur d’images de Grok raconte même avoir « souvent » reçu des demandes pour que Grok « déshabille » des gens depuis le printemps 2025, et estime que le bot s’y conformait environ 90 % du temps.

Des employés évoquent « une nouvelle orientation inquiétante » pour une entreprise qui demande explicitement à être présentée comme « une entreprise qui travaille à la mise au point d’une intelligence artificielle visant à accélérer les découvertes scientifiques humaines, dont la mission est de faire progresser notre compréhension collective de l’univers ». Une dérive leur laissant penser que l’entreprise était désormais prête à produire tout type de contenu susceptible d’attirer et de fidéliser les utilisateurs.

Accroître la popularité de Grok avec des contenus à caractère sexuel

Dans les mois qui ont suivi, ces employés ont ainsi été exposés à ce que le Post qualifie de « flot d’enregistrements audio à caractère sexuel », émanant notamment de « conversations obscènes » entre des occupants de Tesla et le chatbot de leur voiture, ainsi que des interactions à caractère sexuel d’autres utilisateurs avec Grok.

Après avoir quitté le DOGE en mai, Musk a maintenu une « présence constante » dans les bureaux de xAI, jusqu’à y passer parfois la nuit, souligne le Post. Certains employés ont été invités à ne pas prendre de vacances à la fin du printemps ou au début de l’été, mais également, et régulièrement, à y travailler la nuit et pendant des week-ends.

L’objectif assigné par Musk était d’accroître la popularité de Grok. Au fil de nombreuses réunions, il défendait une nouvelle mesure, les « secondes d’activité de l’utilisateur », censée mesurer de manière précise le temps passé par les gens à converser avec le chatbot.

À cet effet, xAI s’est mis à créer du contenu à caractère sexuel et des compagnes IA sexy. L’entreprise a aussi levé les restrictions préalablement mises en place en ignorant les avertissements internes au sujet des risques juridiques et éthiques liés à la production de tels contenus, selon des documents obtenus par le Post et des entretiens menés auprès de plus d’une demi-douzaine d’anciens employés de X et xAI, et plusieurs personnes proches de M. Musk.

Les équipes de X chargées de la sécurité avaient pourtant averti à plusieurs reprises la direction que ses outils d’IA pouvaient permettre aux utilisateurs de créer des images sexuelles d’enfants ou de célébrités à l’aide de l’IA, ce qui pourrait enfreindre la loi, selon deux de ces personnes.

Les sources du Post précisent qu’au sein de xAI, l’équipe chargée de la sécurité de l’IA de l’entreprise ne comptait en outre que deux ou trois personnes pendant la majeure partie de l’année 2025, contre des dizaines d’employés dans les équipes similaires chez OpenAI ou d’autres concurrents.

Le Post relève aussi que trois cadres supérieurs du petit groupe chargé de superviser la sécurité des produits, la sécurité de l’IA et le comportement des modèles avaient annoncé leur départ début décembre.

+ 72 % de téléchargements grâce aux deepfakes en bikinis

« La stratégie de Musk a porté ses fruits pour l’entreprise », relève le Post. Alors que Grok était autrefois classé plusieurs dizaines de places derrière ChatGPT dans le classement des applications gratuites de l’App Store d’Apple, il figure désormais dans le top 5, aux côtés du chatbot d’OpenAI et de Gemini de Google.

Selon la société d’études de marché Sensor Tower, le nombre moyen quotidien de téléchargements de l’application Grok dans le monde a bondi de 72 % entre le 1er et le 19 janvier par rapport à la même période en décembre.

Le 15 janvier, xAI publiait une offre de recrutement d’un superviseur de la sécurité chargé de « superviser la modération du contenu et le service client afin de lutter contre le spam, la fraude et les contenus préjudiciables, en appliquant les politiques de manière impartiale » afin de « faire de X un espace plus sûr et plus fiable pour les utilisateurs du monde entier ».

Le Post précise que ni Musk, ni xAI ni X n’ont répondu à sa demande détaillée de commentaires.

Nitasha Tiku, l’une des trois signataires de l’enquête du Post, fait partie de la centaine de journalistes à avoir appris leur licenciement hier. Les deux autres, Faiz Siddiqui et Elizabeth Dwoskin, semblent avoir été épargnés.

Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

5 février 2026 à 14:43
Qui c'est qu'a la plus Grok ?
Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

En 2025, le nombre de signalements par X de contenus à caractère pédosexuel a chuté de 81 % après que l’entreprise en ait internalisé la détection. Dans le même temps, Musk poussait les équipes de Grok à entraîner son chatbot débridé à reproduire des contenus à caractère sexuel.

Réagissant à la polémique autour de la vague massive de deepfakes en bikinis générés par Grok, le compte @Safety de X.com précisait le 14 janvier dernier : « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à appliquer une politique de tolérance zéro envers toute forme d’exploitation sexuelle des enfants, de nudité non consentie et de contenu sexuel non désiré ».

« Nous prenons des mesures pour supprimer les contenus violents hautement prioritaires, notamment les contenus pédopornographiques (CSAM) et la nudité non consentie, et prenons les mesures appropriées à l’encontre des comptes qui enfreignent nos règles X. Nous signalons également aux autorités compétentes les comptes qui recherchent des contenus liés à l’exploitation sexuelle des enfants, si nécessaire. »

X.com n’a pas mis à jour son rapport de transparence depuis son rachat par Elon Musk en 2022. Et le parquet de Paris explique au Monde que X aurait commencé, l’an passé, à utiliser une technologie « maison », en remplacement du système Safer de détection de contenus pédopornographiques de l’organisation Thorn, qui avait elle-même été accusée de lobbying intense en faveur du projet #ChatControl de surveillance des messageries chiffrées.

Le 18 juin 2025, @Safety avait en effet annoncé « une mise à jour importante concernant notre travail continu de détection des contenus pédopornographiques (CSAM) et […] que nous avons lancé des efforts supplémentaires de correspondance de hachage CSAM […] grâce au travail incroyable de notre équipe d’ingénieurs en sécurité, qui a mis au point des systèmes de pointe pour renforcer encore nos capacités d’application de la loi ».

En 2024, précisait @Safety, « X a envoyé 686 176 signalements au National Center for Missing and Exploited Children (NCMEC) et suspendu 4 572 486 comptes. Entre juillet et octobre 2024, @NCMEC
a obtenu 94 arrestations et 1 condamnation grâce à ce partenariat
 ».

Or, le parquet précise au Monde qu’« entre juin et octobre 2025, il a été constaté une baisse de 81,4 % des signalements concernant la France adressés par X au National Center for Missing & Exploited Children en matière de pédopornographie ».

Ce qui a entraîné les magistrats à étoffer leur enquête sur des faits de « complicité de détention d’images de mineurs représentant un caractère pédopornographique », de « complicité de diffusion, offre ou mise à disposition en bande organisée » de ces contenus.

« Faire progresser notre compréhension collective de l’univers »

Une enquête de trois journalistes du Washington Post intitulée « Dans les coulisses du pari de Musk pour attirer les utilisateurs qui a transformé Grok en générateur de porno » permet de mieux comprendre comment X et Grok en sont arrivés là.

Quelques semaines avant qu’Elon Musk ne quitte officiellement le DOGE du gouvernement de Donald Trump au printemps dernier, les employés de l’équipe chargée d’aider à définir la manière dont le chatbot Grok de xAI répond à ses utilisateurs reçurent en effet une « dérogation surprenante » de leur employeur, raconte le Post.

Elle leur demandait en effet de s’engager à travailler sur du « contenu vulgaire [profane en anglais], y compris sexuel ». La note les prévenait que leur travail les exposerait dès lors à « des contenus sensibles, violents, sexuels et/ou autres contenus choquants » qui, précisait la décharge, « peuvent être perturbants, traumatisants et/ou causer un stress psychologique ».

Peu après le retour de Musk chez xAI, une note des ressources humaines a demandé à l’équipe qui supervise des centaines de « tuteurs IA », chargés d’étiqueter les résultats de Grok afin de les améliorer, de demander aux candidats à un poste s’ils seraient à l’aise pour travailler avec du contenu « explicite ».

L’entreprise modifia également certains protocoles relatifs aux contenus à caractère sexuel. À l’origine, xAI conseillait à ses employés d’éviter d’examiner ce type de contenus sensibles, afin d’éviter d’apprendre au chatbot à pouvoir les reproduire, selon trois des personnes interrogées par le Post.

Mais le protocole fut modifié durant l’été 2025, de sorte qu’il soit acceptable d’étiqueter les images de personnes nues générées par l’IA. L’un des employés qui travaillait avec le générateur d’images de Grok raconte même avoir « souvent » reçu des demandes pour que Grok « déshabille » des gens depuis le printemps 2025, et estime que le bot s’y conformait environ 90 % du temps.

Des employés évoquent « une nouvelle orientation inquiétante » pour une entreprise qui demande explicitement à être présentée comme « une entreprise qui travaille à la mise au point d’une intelligence artificielle visant à accélérer les découvertes scientifiques humaines, dont la mission est de faire progresser notre compréhension collective de l’univers ». Une dérive leur laissant penser que l’entreprise était désormais prête à produire tout type de contenu susceptible d’attirer et de fidéliser les utilisateurs.

Accroître la popularité de Grok avec des contenus à caractère sexuel

Dans les mois qui ont suivi, ces employés ont ainsi été exposés à ce que le Post qualifie de « flot d’enregistrements audio à caractère sexuel », émanant notamment de « conversations obscènes » entre des occupants de Tesla et le chatbot de leur voiture, ainsi que des interactions à caractère sexuel d’autres utilisateurs avec Grok.

Après avoir quitté le DOGE en mai, Musk a maintenu une « présence constante » dans les bureaux de xAI, jusqu’à y passer parfois la nuit, souligne le Post. Certains employés ont été invités à ne pas prendre de vacances à la fin du printemps ou au début de l’été, mais également, et régulièrement, à y travailler la nuit et pendant des week-ends.

L’objectif assigné par Musk était d’accroître la popularité de Grok. Au fil de nombreuses réunions, il défendait une nouvelle mesure, les « secondes d’activité de l’utilisateur », censée mesurer de manière précise le temps passé par les gens à converser avec le chatbot.

À cet effet, xAI s’est mis à créer du contenu à caractère sexuel et des compagnes IA sexy. L’entreprise a aussi levé les restrictions préalablement mises en place en ignorant les avertissements internes au sujet des risques juridiques et éthiques liés à la production de tels contenus, selon des documents obtenus par le Post et des entretiens menés auprès de plus d’une demi-douzaine d’anciens employés de X et xAI, et plusieurs personnes proches de M. Musk.

Les équipes de X chargées de la sécurité avaient pourtant averti à plusieurs reprises la direction que ses outils d’IA pouvaient permettre aux utilisateurs de créer des images sexuelles d’enfants ou de célébrités à l’aide de l’IA, ce qui pourrait enfreindre la loi, selon deux de ces personnes.

Les sources du Post précisent qu’au sein de xAI, l’équipe chargée de la sécurité de l’IA de l’entreprise ne comptait en outre que deux ou trois personnes pendant la majeure partie de l’année 2025, contre des dizaines d’employés dans les équipes similaires chez OpenAI ou d’autres concurrents.

Le Post relève aussi que trois cadres supérieurs du petit groupe chargé de superviser la sécurité des produits, la sécurité de l’IA et le comportement des modèles avaient annoncé leur départ début décembre.

+ 72 % de téléchargements grâce aux deepfakes en bikinis

« La stratégie de Musk a porté ses fruits pour l’entreprise », relève le Post. Alors que Grok était autrefois classé plusieurs dizaines de places derrière ChatGPT dans le classement des applications gratuites de l’App Store d’Apple, il figure désormais dans le top 5, aux côtés du chatbot d’OpenAI et de Gemini de Google.

Selon la société d’études de marché Sensor Tower, le nombre moyen quotidien de téléchargements de l’application Grok dans le monde a bondi de 72 % entre le 1er et le 19 janvier par rapport à la même période en décembre.

Le 15 janvier, xAI publiait une offre de recrutement d’un superviseur de la sécurité chargé de « superviser la modération du contenu et le service client afin de lutter contre le spam, la fraude et les contenus préjudiciables, en appliquant les politiques de manière impartiale » afin de « faire de X un espace plus sûr et plus fiable pour les utilisateurs du monde entier ».

Le Post précise que ni Musk, ni xAI ni X n’ont répondu à sa demande détaillée de commentaires.

Nitasha Tiku, l’une des trois signataires de l’enquête du Post, fait partie de la centaine de journalistes à avoir appris leur licenciement hier. Les deux autres, Faiz Siddiqui et Elizabeth Dwoskin, semblent avoir été épargnés.

Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

4 février 2026 à 13:37
Total Recall
Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

D’après Windows Central, Microsoft aurait enfin accepté de tenir compte des nombreuses réactions négatives visant à démultiplier des agents IA Copilot dans son « système d’exploitation agentique » Windows 11.

En déclarant, en novembre dernier, que « Windows évolue vers un système d’exploitation agentique, connectant appareils, cloud et IA pour une productivité accrue et un travail sécurisé où que vous soyez », Pavan Davuluri, responsable de la division Windows chez Microsoft, ne s’attendait apparemment pas à recevoir l’accueil glacial que nous avions déjà chroniqué.

L’entreprise avait, dans la foulée, cherché à se justifier en expliquant comment on pourrait lancer et manipuler des agents depuis la barre des tâches, demander des résumés depuis un survol de la souris dans l’Explorateur, trouver plus efficacement ce que l’on cherche avec la nouvelle recherche sémantique, ou encore profiter de nombreux connecteurs pour presque tous les scénarios. Un Windows 365 for Agents était même prévu pour que des agents puissent créer des sessions distantes complètes pour réaliser leurs tâches… sans vraiment convaincre.

« Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11 »

« Au cours de l’année dernière, Microsoft a saisi toutes les occasions pour détériorer Windows 11 en plaçant des boutons Copilot partout où cela était possible dans les applications intégrées telles que l’Explorateur de fichiers et le Bloc-notes, même si leur implémentation était médiocre ou inutile », résume Zac Bowden de Windows Central dans un article intitulé « Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11, en réduisant Copilot et en repensant Recall dans le cadre d’un changement majeur ».

D’après notre confrère, cette vague de réactions négatives a été, au moins en partie, entendue : « selon des personnes proches des projets de Microsoft, la société est en train de réévaluer sa stratégie en matière d’IA sur Windows 11 et prévoit des changements visant à rationaliser, voire à supprimer certaines fonctionnalités d’IA qui ne sont pas pertinentes ».

Microsoft aurait ainsi suspendu, « du moins pour l’instant », le développement de boutons Copilot supplémentaires pour les applications intégrées, et aurait l’intention d’adopter une « approche plus prudente et réfléchie » quant à l’emplacement de ces boutons Copilot et à leur intégration à l’avenir, avance Windows Central.

Recall, « dans sa forme actuelle, a échoué »

Windows Recall serait lui aussi « en cours d’examen ». Des sources ont indiqué à notre confrère que Microsoft estime que Recall, « dans sa forme actuelle, a échoué », et que la société explorerait des moyens de faire évoluer le concept plutôt que de l’abandonner complètement, « en supprimant peut-être le nom Recall dans le processus, bien que cela ne soit pas confirmé ».

« La bonne nouvelle, c’est qu’il est clair que Microsoft a pris en compte les commentaires concernant son approche trop autoritaire en matière de boutons Copilot dans les applications Windows », conclut Windows Central :

« L’entreprise prend du recul pour réajuster la meilleure façon d’implémenter ces intégrations d’IA dans le système d’exploitation, dans l’espoir d’offrir une expérience d’IA plus significative et utile sur la plateforme, plutôt que d’ajouter de manière aléatoire l’icône Copilot à toutes les interfaces utilisateur possibles. »

Soutenir les utilisateurs finaux, ou les agents IA effectuant des travaux ?

Une évolution qui tranche avec le discours tenu par le CEO de Microsoft, Satya Nadella qui, en novembre, avait déclaré :  « Notre activité, qui aujourd’hui est une activité d’outils pour les utilisateurs finaux, deviendra essentiellement une activité d’infrastructure pour soutenir les agents effectuant des travaux ».

Début janvier, il avançait que le débat sur le « slop » (bouillie) n’aurait plus lieu d’être et comparait l’IA à « un échafaudage pour l’esprit humain ». Il reconnaissait cela dit que  « nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». 

Et ce, d’autant plus que, fin décembre, l’entreprise décidait de forcer de plus en plus l’intégration de Copilot à sa suite bureautique Microsoft 365, tout en augmentant les prix, afin de rentabiliser les milliards investis dans OpenAI en particulier et l’IA en général.

Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

4 février 2026 à 13:37
Total Recall
Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

D’après Windows Central, Microsoft aurait enfin accepté de tenir compte des nombreuses réactions négatives visant à démultiplier des agents IA Copilot dans son « système d’exploitation agentique » Windows 11.

En déclarant, en novembre dernier, que « Windows évolue vers un système d’exploitation agentique, connectant appareils, cloud et IA pour une productivité accrue et un travail sécurisé où que vous soyez », Pavan Davuluri, responsable de la division Windows chez Microsoft, ne s’attendait apparemment pas à recevoir l’accueil glacial que nous avions déjà chroniqué.

L’entreprise avait, dans la foulée, cherché à se justifier en expliquant comment on pourrait lancer et manipuler des agents depuis la barre des tâches, demander des résumés depuis un survol de la souris dans l’Explorateur, trouver plus efficacement ce que l’on cherche avec la nouvelle recherche sémantique, ou encore profiter de nombreux connecteurs pour presque tous les scénarios. Un Windows 365 for Agents était même prévu pour que des agents puissent créer des sessions distantes complètes pour réaliser leurs tâches… sans vraiment convaincre.

« Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11 »

« Au cours de l’année dernière, Microsoft a saisi toutes les occasions pour détériorer Windows 11 en plaçant des boutons Copilot partout où cela était possible dans les applications intégrées telles que l’Explorateur de fichiers et le Bloc-notes, même si leur implémentation était médiocre ou inutile », résume Zac Bowden de Windows Central dans un article intitulé « Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11, en réduisant Copilot et en repensant Recall dans le cadre d’un changement majeur ».

D’après notre confrère, cette vague de réactions négatives a été, au moins en partie, entendue : « selon des personnes proches des projets de Microsoft, la société est en train de réévaluer sa stratégie en matière d’IA sur Windows 11 et prévoit des changements visant à rationaliser, voire à supprimer certaines fonctionnalités d’IA qui ne sont pas pertinentes ».

Microsoft aurait ainsi suspendu, « du moins pour l’instant », le développement de boutons Copilot supplémentaires pour les applications intégrées, et aurait l’intention d’adopter une « approche plus prudente et réfléchie » quant à l’emplacement de ces boutons Copilot et à leur intégration à l’avenir, avance Windows Central.

Recall, « dans sa forme actuelle, a échoué »

Windows Recall serait lui aussi « en cours d’examen ». Des sources ont indiqué à notre confrère que Microsoft estime que Recall, « dans sa forme actuelle, a échoué », et que la société explorerait des moyens de faire évoluer le concept plutôt que de l’abandonner complètement, « en supprimant peut-être le nom Recall dans le processus, bien que cela ne soit pas confirmé ».

« La bonne nouvelle, c’est qu’il est clair que Microsoft a pris en compte les commentaires concernant son approche trop autoritaire en matière de boutons Copilot dans les applications Windows », conclut Windows Central :

« L’entreprise prend du recul pour réajuster la meilleure façon d’implémenter ces intégrations d’IA dans le système d’exploitation, dans l’espoir d’offrir une expérience d’IA plus significative et utile sur la plateforme, plutôt que d’ajouter de manière aléatoire l’icône Copilot à toutes les interfaces utilisateur possibles. »

Soutenir les utilisateurs finaux, ou les agents IA effectuant des travaux ?

Une évolution qui tranche avec le discours tenu par le CEO de Microsoft, Satya Nadella qui, en novembre, avait déclaré :  « Notre activité, qui aujourd’hui est une activité d’outils pour les utilisateurs finaux, deviendra essentiellement une activité d’infrastructure pour soutenir les agents effectuant des travaux ».

Début janvier, il avançait que le débat sur le « slop » (bouillie) n’aurait plus lieu d’être et comparait l’IA à « un échafaudage pour l’esprit humain ». Il reconnaissait cela dit que  « nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». 

Et ce, d’autant plus que, fin décembre, l’entreprise décidait de forcer de plus en plus l’intégration de Copilot à sa suite bureautique Microsoft 365, tout en augmentant les prix, afin de rentabiliser les milliards investis dans OpenAI en particulier et l’IA en général.

Près d’un tiers des professionnels du jeu vidéo ont été licenciés en deux ans

4 février 2026 à 09:17
Shall we play a game ?
Près d’un tiers des professionnels du jeu vidéo ont été licenciés en deux ans

Le secteur des jeux vidéo est lui aussi touché par les salves de licenciements qui, suite au Covid puis à l’emballement autour de l’IA générative, touchent les entreprises de la tech’ : la moitié des entreprises de jeux vidéo auraient procédé à des licenciements ces 12 derniers mois. Plus de la moitié des professionnels du jeu vidéo estiment par ailleurs que l’IA générative a un impact négatif sur leur métier, contre 18 % en 2024. Dans le même temps, ceux qui estiment qu’elle a un impact positif sont passés de 21 à 7 % seulement.

28 % des employés de l’industrie des jeux vidéo, et 33 % de ceux travaillant aux États-Unis, ont été licenciés au cours de ces deux dernières années. La moitié précise que leur employeur actuel a procédé à des licenciements ces 12 derniers mois. Ce qui est aussi le cas des deux tiers des employés de studios AAA (du nom donné aux jeux les plus budgétés ou vendus), et du tiers des salariés de studios indépendants.

Les chiffres émanent d’un sondage de la Game Developers Conference (GDC, l’un des plus grands évènements de l’industrie du jeu vidéo, réservé aux professionnels) effectué auprès de 2 300 professionnels, dont 64 % d’hommes et 24 % de femmes. 54 % vivent aux USA, 8 % au Canada, 6 % au Royaume-Uni, 3 % en Suède ou en Australie et 2 % en France, en Inde, en Espagne ou en Allemagne.

Un sondage mené auprès de 50 étudiants et de 105 professeurs indique en outre que les trois quarts (74 %) des étudiants, mais aussi et surtout 87 % des enseignants se disent préoccupés par les perspectives d’emploi dans l’industrie du jeu vidéo, signe d’un « pessimisme généralisé », souligne la GDC :

« Au cours des dernières années marquées par des licenciements, on nous a promis une éventuelle “correction de cap”. On nous a dit que la vague de licenciements post-pandémique, qui a suivi les investissements et les embauches de l’ère COVID, finirait par se résorber. Certains espéraient que ce serait le cas cette année. Ce n’est pas le cas. Non seulement les licenciements ont continué à frapper l’industrie du jeu vidéo, mais ils ont même empiré. »

Ils soulignent le manque d’emplois pour les débutants, la concurrence accrue des travailleurs licenciés plus expérimentés et le remplacement par l’intelligence artificielle. Davantage d’étudiants se tournent d’ailleurs vers le développement indépendant, lancent leurs propres studios ou poursuivent leurs études supérieures.

82 % soutiennent les syndicats, mais seuls 12 % sont syndiqués


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Fuites et violations de données : les chiffres anxiogènes, et les autres

30 janvier 2026 à 11:05
RGPD killed the ratio star
Fuites et violations de données : les chiffres anxiogènes, et les autres

La France semble connaître une accélération de violations de données, mais les chiffres varient d’une centaine à plus de 9 000 selon les sources. On apprend aussi que la CNIL aurait recouvré 95 % des amendes infligées, contre seulement 0,5 % pour son homologue irlandaise. Des chiffres qui remettent en perspective l’(in)action de la Commission en France

Les nombreuses violations de données, notamment depuis la réapparition de la place de marché (noir) BreachForums en décembre 2025, laissent poindre une forme d’accélération. Pour autant, et en l’état, la France serait loin d’être la plus affectée par le problème. En outre, et bien qu’accusée de « laxisme », la CNIL serait l’autorité de protection des données personnelles la plus répressive de l’Union européenne, en termes d’amendes infligées, et recouvrées.

Dans un message largement commenté et relayé sur X et LinkedIn, le « gentil hacker » Clément Domingo avançait récemment que 2025 avait été une « année noire » avec un « record de fuites d’information », qu’il avait effectué une centaine d’alertes à ce sujet, découvert que « 600 millions de données personnelles cumulées de Français sont dans les mains des cybercriminels », et que « 9 personnes sur 10 en France sont donc concernées », ce qui ferait de la France le « n°1 en Europe ».

Un chiffre corroboré par Christophe Boutry (un ancien policier de la DGSI condamné pour avoir revendu sur le dark web des données policières, et qui s’est depuis reconverti dans la sécurité informatique) qui, se basant sur « 190 fuites avec volume confirmé » (dont 153 en 2025, 158 d’après bonjourlafuite.eu.org), avance lui aussi que plus de 600 millions de données compromises auraient été recensées (rien que sur le darkweb), mais sans que l’on puisse pour autant estimer à combien de personnes différentes elles correspondent.

SaxX (le pseudo du « gentil hacker »), dont les messages sensationnalistes le rapprochent davantage des « influenceurs » en quête de buzz que des « hackers éthiques » cherchant à alerter de façon responsable, avait déjà poussé Vincent Strubel, le patron de l’ANSSI, a pousser un coup de gueule (feutré, mais ferme) sur LinkedIn après que l’une de ses « alertes » ait fait « beaucoup de bruit, ces derniers jours, autour d’une rumeur de fuite massive de données de l’ANTS/France Titres ». On se souvient aussi de l’histoire autour du site de Sarah Knafo, dont il avait dévoilé publiquement la faille avant la mise en place du correctif.

703M de données de Français piratées depuis 2004, soit en 22 ans ?

Les Vérificateurs de TF1, suivis par Le vrai ou faux de Radio France avaient, dans la foulée, cherché à fact-checker et recontextualiser ces chiffres de « 600 millions de données personnelles cumulées de Français », soit « 9 personnes sur 10 en France », ce qui ferait de la France le « n°1 en Europe ».

« Entre 2004 et l’automne 2025, la France a cumulé plus de 700 millions de comptes compromis, selon les données récoltées par l’entreprise de cybersécurité Surfshark, ce qui la place en 4e position après les États-Unis, la Russie et la Chine », relevaient les premiers. Sans pouvoir, cela dit, différencier la quantité de données du nombre de personnes affectées.

Le chiffre de neuf Français sur dix émanerait quant à lui d’une étude publiée en 2019, il y a sept ans, menée par l’Institut national de la consommation pour Cybermalveillance.gouv.fr, qui avait interrogé 4 500 personnes représentatives de la population française pour savoir si elles avaient déjà été exposées à de la cybermalveillance au sens large, relevait la cellule de fact-checking de Radio France.

« Cela ne signifie pas que leurs données personnelles ont fuité, mais qu’ils ont été exposés à une tentative de piratage », soulignait la cellule de fact-checking de TF1. « Ces chiffres sont déformés, sortis de leur contexte et ne parlent pas de l’année 2025 spécifiquement », renchérissait celle de Radio France :

« Cela peut être la réception d’un SMS frauduleux reçu sans y avoir répondu, l’implantation d’un virus sur son ordinateur via un email, des usurpations d’identité ou encore, en effet, des cyberattaques et des vols de données personnelles. Il n’existe en revanche pas de chiffres précis sur le nombre ni la proportion de victimes de fuite de données spécifiquement. »

Surfshark estime en outre que « 29 millions de données personnelles ont été piratées pendant les trois premiers trimestres de l’année 2025 », soulignait Radio France : « C’est loin des 600 millions, même si c’est déjà beaucoup ».

D’autant que « Surfshark estime par ailleurs que 703 millions de données personnelles appartenant à des Français ont été piratées depuis 2004, soit en 22 ans », mais également que « 2024 a connu un pic, avec 150 millions de données détournées ». Radio France relevait également que « ce site estime que les fuites de données de Français ne représentent que 3% des fuites de données dans le monde ».

Des chiffres à prendre avec pincettes, cela dit. D’une part parce que sa méthodologie précise qu’ils ont été élaborés « en partenariat avec des chercheurs indépendants spécialisés dans la cybersécurité afin de visualiser l’ampleur et l’étendue des violations de données à l’échelle mondiale », mais sans plus de précision. D’autre part parce qu’en tant que vendeur de VPN, Surfshack a tout intérêt à « faire peur ».

La France ne serait qu’en 16e position (sur 30) en matière de violations de données


Il reste 55% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

WhatsApp lance son mode Lockdown et adopte Rust à grande échelle

30 janvier 2026 à 09:25
De rouille et dors
WhatsApp lance son mode Lockdown et adopte Rust à grande échelle

Afin de sécuriser WhatsApp, Meta a procédé au « plus grand déploiement jamais réalisé de code Rust sur un ensemble diversifié de plateformes et de produits », et annonce vouloir accélérer l’adoption du langage de programmation sécurisé Rust au cours des prochaines années. La messagerie intègre par ailleurs un mode anti-logiciels espion ou malveillants.

WhatsApp vient d’annoncer, ce mardi 27 janvier, « une nouvelle mesure de protection de la confidentialité : les paramètres de compte stricts » (« Strict Account Settings » en VO), semble-t-il inspirée du mode de protection avancé (« Advanced Protection Mode » en VO) introduit par Google en 2020 puis du mode Lockdown mis en œuvre par Apple en 2022 pour réduire la surface d’attaque des Android et iPhone face aux logiciels espion « mercenaires ».

Elle s’adresse en effet elle aussi aux personnes qui, journalistes ou personnalités publiques notamment, « peuvent avoir besoin de mesures de sécurité extrêmes pour se protéger contre les cyberattaques rares et hautement sophistiquées », ou qui pensent « être la cible d’une attaque informatique », précise WhatsApp sur son blog :

« Si vous activez cette fonctionnalité, certains réglages de compte seront verrouillés sur les paramètres les plus restrictifs, ayant pour effet de limiter le fonctionnement de WhatsApp dans certains cas de figure, en bloquant par exemple les pièces jointes et les médias envoyés par des personnes qui ne figurent pas dans vos contacts. »

Les paramètres de compte stricts, qui seront déployés progressivement au cours des prochaines semaines, seront accessibles en accédant à Paramètres > Confidentialité > Avancé.

Une décision qui remonte à la faille Stagefright de 2015

WhatsApp précise que ces paramètres de compte stricts « constituent l’un des nombreux moyens que nous avons développés pour vous protéger des cybermenaces les plus avancées ». L’entreprise indique également avoir « déployé en coulisses un langage de programmation appelé Rust pour protéger vos photos, vidéos et messages face aux logiciels espions, et vous permettre de partager et de discuter en toute confiance ».

Dans un billet technique séparé, mais publié dans la foulée, Meta revient plus en détails sur le fait que WhatsApp a « adopté et déployé une nouvelle couche de sécurité pour ses utilisateurs, développée avec le langage de programmation sécurisé Rust », dans le cadre de ses efforts visant à renforcer ses défenses contre les menaces liées aux logiciels malveillants.

Meta explique que cette décision fait suite à la découverte, en 2015, de la vulnérabilité Stagefright qui permettait de pirater les terminaux Android à partir d’un simple MMS :

« Le bug résidait dans le traitement des fichiers multimédias par les bibliothèques fournies par le système d’exploitation, de sorte que WhatsApp et d’autres applications ne pouvaient pas corriger la vulnérabilité sous-jacente. Comme la mise à jour vers la dernière version d’un logiciel peut souvent prendre des mois, nous avons cherché des solutions qui permettraient d’assurer la sécurité des utilisateurs de WhatsApp, même en cas de vulnérabilité du système d’exploitation. »

Les développeurs de WhatsApp ont réalisé qu’une bibliothèque C++ utilisée par l’application pour envoyer et formater des fichiers MP4 (appelée « wamedia ») pouvait être modifiée afin de « détecter les fichiers qui ne respectaient pas la norme MP4 et qui pouvaient déclencher des bogues dans une bibliothèque OS vulnérable du côté du destinataire, mettant ainsi en danger la sécurité de la cible ».

Plutôt que de la réécrire, ils en ont développé une version Rust compatible avec la version C++ originale, puis « remplacé 160 000 lignes de code C++(hors tests) par 90 000 lignes de code Rust (tests compris) ».

Le « plus grand déploiement jamais réalisé de code Rust »

Meta précise avoir rajouté « davantage de contrôles » au fil du temps, et que WhatsApp vérifie désormais les « types de fichiers à haut risque » tels que les .pdf, qui « sont souvent vecteurs de logiciels malveillants » :

« Nous détectons également lorsqu’un type de fichier se fait passer pour un autre, grâce à une extension ou un type MIME falsifié. Enfin, nous signalons de manière uniforme les types de fichiers connus pour être dangereux, tels que les exécutables ou les applications, afin qu’ils soient traités de manière spéciale dans l’expérience utilisateur de l’application. »

Cet ensemble de vérifications, qu’ils appellent « Kaleidoscope », « protège les utilisateurs de WhatsApp contre les clients non officiels et les pièces jointes potentiellement malveillantes », avance Meta : « Bien que les vérifications de format ne permettent pas d’arrêter toutes les attaques, cette couche de défense contribue à en atténuer bon nombre ».

Rappelant que le chiffrement de bout en bout de WhatsApp est utilisé par ses trois milliards d’utilisateurs, Meta avance que « nous pensons qu’il s’agit du plus grand déploiement jamais réalisé de code Rust sur un ensemble diversifié de plateformes et de produits destinés aux utilisateurs finaux dont nous ayons connaissance », et précise que « nous prévoyons d’accélérer l’adoption de Rust au cours des prochaines années ».

Une faille de sécurité corrigée, et une plainte « ridicule »

WhatsApp vient par ailleurs de corriger une faille de sécurité, découverte dans l’application Android par les équipes du Projet Zero de Google en septembre 2025. Elle permettait à un attaquant de rajouter des victimes à des groupes, « puis de leur envoyer un fichier multimédia malveillant automatiquement téléchargé sur l’appareil de la victime sans aucune interaction de sa part », rapporte Neowin.

Il était cela dit possible de s’en prémunir en activant la confidentialité avancée des discussions dans WhatsApp (en appuyant sur les trois petits points en haut à droite, puis sur Infos du groupe), soulignait Neowin dans un précédent article, ou en désactivant le téléchargement automatique des médias (via Paramètres -> Stockage et données).

Ces explications détaillées sur le renforcement de la sécurité de WhatsApp ont par ailleurs été mises en ligne alors que le 23 janvier, trois cabinets d’avocats ont porté plainte contre Meta. Ils l’accusent rien moins que d’avoir comploté pour cacher le fait que les messages WhatsApp ne seraient pas chiffrés de bout en bout, et qu’il serait extrêmement simple à ses employés d’y accéder.

Une accusation qualifiée de « fiction sans fondement » par le porte-parole de Meta et de « ridicule » par plusieurs experts en cryptographie, d’autant que l’un de ces cabinets d’avocats est aussi celui de NSO, l’éditeur du logiciel espion Pegasus condamné l’an passé pour avoir piraté WhatsApp.

WhatsApp lance son mode Lockdown et adopte Rust à grande échelle

30 janvier 2026 à 09:25
De rouille et dors
WhatsApp lance son mode Lockdown et adopte Rust à grande échelle

Afin de sécuriser WhatsApp, Meta a procédé au « plus grand déploiement jamais réalisé de code Rust sur un ensemble diversifié de plateformes et de produits », et annonce vouloir accélérer l’adoption du langage de programmation sécurisé Rust au cours des prochaines années. La messagerie intègre par ailleurs un mode anti-logiciels espion ou malveillants.

WhatsApp vient d’annoncer, ce mardi 27 janvier, « une nouvelle mesure de protection de la confidentialité : les paramètres de compte stricts » (« Strict Account Settings » en VO), semble-t-il inspirée du mode de protection avancé (« Advanced Protection Mode » en VO) introduit par Google en 2020 puis du mode Lockdown mis en œuvre par Apple en 2022 pour réduire la surface d’attaque des Android et iPhone face aux logiciels espion « mercenaires ».

Elle s’adresse en effet elle aussi aux personnes qui, journalistes ou personnalités publiques notamment, « peuvent avoir besoin de mesures de sécurité extrêmes pour se protéger contre les cyberattaques rares et hautement sophistiquées », ou qui pensent « être la cible d’une attaque informatique », précise WhatsApp sur son blog :

« Si vous activez cette fonctionnalité, certains réglages de compte seront verrouillés sur les paramètres les plus restrictifs, ayant pour effet de limiter le fonctionnement de WhatsApp dans certains cas de figure, en bloquant par exemple les pièces jointes et les médias envoyés par des personnes qui ne figurent pas dans vos contacts. »

Les paramètres de compte stricts, qui seront déployés progressivement au cours des prochaines semaines, seront accessibles en accédant à Paramètres > Confidentialité > Avancé.

Une décision qui remonte à la faille Stagefright de 2015

WhatsApp précise que ces paramètres de compte stricts « constituent l’un des nombreux moyens que nous avons développés pour vous protéger des cybermenaces les plus avancées ». L’entreprise indique également avoir « déployé en coulisses un langage de programmation appelé Rust pour protéger vos photos, vidéos et messages face aux logiciels espions, et vous permettre de partager et de discuter en toute confiance ».

Dans un billet technique séparé, mais publié dans la foulée, Meta revient plus en détails sur le fait que WhatsApp a « adopté et déployé une nouvelle couche de sécurité pour ses utilisateurs, développée avec le langage de programmation sécurisé Rust », dans le cadre de ses efforts visant à renforcer ses défenses contre les menaces liées aux logiciels malveillants.

Meta explique que cette décision fait suite à la découverte, en 2015, de la vulnérabilité Stagefright qui permettait de pirater les terminaux Android à partir d’un simple MMS :

« Le bug résidait dans le traitement des fichiers multimédias par les bibliothèques fournies par le système d’exploitation, de sorte que WhatsApp et d’autres applications ne pouvaient pas corriger la vulnérabilité sous-jacente. Comme la mise à jour vers la dernière version d’un logiciel peut souvent prendre des mois, nous avons cherché des solutions qui permettraient d’assurer la sécurité des utilisateurs de WhatsApp, même en cas de vulnérabilité du système d’exploitation. »

Les développeurs de WhatsApp ont réalisé qu’une bibliothèque C++ utilisée par l’application pour envoyer et formater des fichiers MP4 (appelée « wamedia ») pouvait être modifiée afin de « détecter les fichiers qui ne respectaient pas la norme MP4 et qui pouvaient déclencher des bogues dans une bibliothèque OS vulnérable du côté du destinataire, mettant ainsi en danger la sécurité de la cible ».

Plutôt que de la réécrire, ils en ont développé une version Rust compatible avec la version C++ originale, puis « remplacé 160 000 lignes de code C++(hors tests) par 90 000 lignes de code Rust (tests compris) ».

Le « plus grand déploiement jamais réalisé de code Rust »

Meta précise avoir rajouté « davantage de contrôles » au fil du temps, et que WhatsApp vérifie désormais les « types de fichiers à haut risque » tels que les .pdf, qui « sont souvent vecteurs de logiciels malveillants » :

« Nous détectons également lorsqu’un type de fichier se fait passer pour un autre, grâce à une extension ou un type MIME falsifié. Enfin, nous signalons de manière uniforme les types de fichiers connus pour être dangereux, tels que les exécutables ou les applications, afin qu’ils soient traités de manière spéciale dans l’expérience utilisateur de l’application. »

Cet ensemble de vérifications, qu’ils appellent « Kaleidoscope », « protège les utilisateurs de WhatsApp contre les clients non officiels et les pièces jointes potentiellement malveillantes », avance Meta : « Bien que les vérifications de format ne permettent pas d’arrêter toutes les attaques, cette couche de défense contribue à en atténuer bon nombre ».

Rappelant que le chiffrement de bout en bout de WhatsApp est utilisé par ses trois milliards d’utilisateurs, Meta avance que « nous pensons qu’il s’agit du plus grand déploiement jamais réalisé de code Rust sur un ensemble diversifié de plateformes et de produits destinés aux utilisateurs finaux dont nous ayons connaissance », et précise que « nous prévoyons d’accélérer l’adoption de Rust au cours des prochaines années ».

Une faille de sécurité corrigée, et une plainte « ridicule »

WhatsApp vient par ailleurs de corriger une faille de sécurité, découverte dans l’application Android par les équipes du Projet Zero de Google en septembre 2025. Elle permettait à un attaquant de rajouter des victimes à des groupes, « puis de leur envoyer un fichier multimédia malveillant automatiquement téléchargé sur l’appareil de la victime sans aucune interaction de sa part », rapporte Neowin.

Il était cela dit possible de s’en prémunir en activant la confidentialité avancée des discussions dans WhatsApp (en appuyant sur les trois petits points en haut à droite, puis sur Infos du groupe), soulignait Neowin dans un précédent article, ou en désactivant le téléchargement automatique des médias (via Paramètres -> Stockage et données).

Ces explications détaillées sur le renforcement de la sécurité de WhatsApp ont par ailleurs été mises en ligne alors que le 23 janvier, trois cabinets d’avocats ont porté plainte contre Meta. Ils l’accusent rien moins que d’avoir comploté pour cacher le fait que les messages WhatsApp ne seraient pas chiffrés de bout en bout, et qu’il serait extrêmement simple à ses employés d’y accéder.

Une accusation qualifiée de « fiction sans fondement » par le porte-parole de Meta et de « ridicule » par plusieurs experts en cryptographie, d’autant que l’un de ces cabinets d’avocats est aussi celui de NSO, l’éditeur du logiciel espion Pegasus condamné l’an passé pour avoir piraté WhatsApp.

L’avocat de NSO accuse Meta de ne pas chiffrer les messages WhatsApp

29 janvier 2026 à 16:28
Trust me, bro
L’avocat de NSO accuse Meta de ne pas chiffrer les messages WhatsApp

« D’après les informations et convictions de courageux lanceurs d’alerte », trois cabinets d’avocats accusent Meta d’avoir comploté pour cacher le fait que les messages WhatsApp ne seraient pas chiffrés de bout en bout, et qu‘il serait extrêmement simple à ses employés d’y accéder. L’un de ces cabinets défend par ailleurs les intérêts de NSO, condamné l’an passé pour avoir piraté WhatsApp.

Un consortium d’avocats poursuit Meta en justice et l’accuse de « fausses déclarations concernant la confidentialité et la sécurité de son service de messagerie WhatsApp », révèle l’agence Bloomberg (sans paywall).

Les plaignants affirment que Meta et WhatsApp « stockent, analysent et peuvent accéder à pratiquement toutes les communications prétendument “privées” des utilisateurs de WhatsApp » et accusent les entreprises d’avoir menti aux utilisateurs de WhatsApp.

Le consortium, qui comprend des plaignants originaires d’Australie, du Brésil, d’Inde, du Mexique et d’Afrique du Sud, précise Bloomberg, affirme que Meta stocke le contenu des communications des utilisateurs et que ses employés peuvent y accéder.

La plainte, déposée vendredi devant la cour fédérale américaine de San Francisco, cite des « lanceurs d’alerte » ayant contribué à révéler ces informations, mais sans préciser leur identité. Le court article de Bloomberg ne fournit aucun détail technique ni procédural susceptible d’étayer ces accusations, pas plus que de lien vers la plainte en question.

Tout juste précise-t-il que « plusieurs avocats cités dans la plainte, issus des cabinets Quinn Emanuel Urquhart & Sullivan et Keller Postman, n’ont pas immédiatement répondu aux demandes de commentaires », et qu’« un autre avocat des plaignants, Jay Barnett, du cabinet Barnett Legal, a refusé de commenter ».

« D’après les informations et convictions de courageux lanceurs d’alerte »

Le texte de la plainte avance plus précisément que « D’après les informations et convictions dont nous disposons à ce jour, WhatsApp et sa société mère, Meta, stockent, analysent et peuvent virtuellement accéder à toutes les communications prétendument “privées” des utilisateurs de WhatsApp », avant d’opter pour une formulation accusant Meta de complot :


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

80 % des violations de données auraient pu être évitées, déplore la présidente de la CNIL

27 janvier 2026 à 07:45
RGPD comme un cap
80 % des violations de données auraient pu être évitées, déplore la présidente de la CNIL

Auditionnée à l’Assemblée, la présidente de la CNIL souligne l’accroissement « sans précédent » de ses missions et du volume de ses activités, alors que son budget est « resté stable ». Elle estime que le nombre de violations de données (« près de 6 000 » en 2024) « devrait au moins doubler en 2025 », mais également que 80 % auraient pu être évitées avec l’authentification multifacteur.

Régulièrement taxé de laxisme, notamment depuis la réapparition de la place de marché (noir) BreachForums en décembre dernier, et l’annonce de très nombreuses violations de données en 2025, le « gendarme des données personnelles » peine à faire respecter son code de la route.

La CNIL a en effet reçu « près de 6 000 » notifications de violations de données en 2024, « soit 20 % de plus qu’en 2023, et ce chiffre devrait au moins doubler en 2025 », a déclaré Marie-Laure Denis, présidente de la CNIL, lors de son audition à la commission des lois de l’Assemblée, mi-décembre :

« L’intensification de cette menace se reflète aussi dans l’ampleur des violations, qui touche désormais des secteurs de taille importante, dont certains interviennent dans la vie quotidienne des Français – France Travail, certaines fédérations sportives, ou encore des opérateurs de téléphonie. »

« Indépendamment de l’augmentation du nombre de violations de données (+ 20 %) nous sommes préoccupés par l’augmentation du nombre de personnes concernées » ainsi que, pour les entreprises, par le « risque de devoir cesser leur activité », poursuivait-elle : « Il ne faut vraiment pas minimiser les conséquences de ces sujets. D’ailleurs, le sujet de la cybersécurité représente l’un des axes stratégiques de la CNIL pour la période 2025 - 2028 ».

« Nous agissons en amont, en imposant par exemple l’authentification multifacteurs pour les accès à distance aux grandes bases de données dès le 1er janvier 2026 », précisait-elle : « nous estimons que 80 % des grandes violations de 2024 auraient pu être évitées avec cette mesure », qu’elle avait déjà qualifiée d’ « élémentaire » dans son rapport 2024.

Les équipes de la CNIL agissent aussi « pendant les violations, en apportant des conseils de premier niveau aux personnes, aux sociétés, aux administrations qui nous notifient une violation de données, en tout cas pour celles qui ne sont pas en lien avec l’Anssi » :

« Nous transmettons, le cas échéant, ces informations au parquet compétent. Enfin, nous sanctionnons : 15 % des sanctions prononcées par la CNIL qui comportent au moins un manquement à des obligations de sécurité et six dossiers importants de manquement à la sécurité ont été transmis à notre formation restreinte pour des décisions attendues au premier semestre 2026. »

Un budget « resté stable » malgré un « accroissement sans précédent » de ses missions

La présidente de la CNIL relevait également que « son budget est resté stable entre 2024 et 2025, et le nombre de ses agents a peu varié », alors que, et au-delà de cette explosion des notifications de violations de données, ses missions ont, dans le même temps, « connu un accroissement sans précédent, principalement en raison de textes européens ».


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Seuls 20 % des Français paient pour s’informer en ligne, contre 33 % des Européens

26 janvier 2026 à 06:58

Seuls 20 % des Français se disent prêts à payer pour accéder à des contenus d’information en ligne, indique une étude de l’Arcom sur le modèle économique de l’information en France : 7 % moins de 5 euros par mois, 5 % entre 5 et 10 euros, 8 % plus de 10 euros.

80 % des Français déclarent ne pas être prêts à payer pour de l’information en ligne

« À titre de comparaison, 35 % des Français paient pour des offres sportives en ligne (Eurosport, Canal+ Sport, etc.), 50 % pour des services de vidéo à la demande (Netflix, Prime Video, etc.), et 40 % pour du streaming audio (Deezer, Spotify, etc.) », relève pourtant le rapport.

Le graphique présenté dans l’étude pourrait laisser entendre que la France se situe dans la moyenne. L’étude souligne d’ailleurs que « cette tendance est généralisée en Europe : par exemple, seuls 17 % des Anglais et 14 % des Espagnols se disent prêts à payer pour des contenus d’information en ligne ».

Or, la source du graphique montre, a contrario, que 33 % des citoyens européens, en moyenne, paient pour accéder à de l’information, et que la France fait même partie des cinq pays de l’UE dont les citoyens sont les moins enclins à payer pour de l’information.

33 % des Européens, mais 20 % des Français, paient pour s’informer

La 39ème édition du baromètre La Croix – Verian – La Poste sur la confiance des Français dans les médias, rendue publique la semaine passée, montre pourtant que les Français déclarent que la perception de la crédibilité d’un média est beaucoup plus importante lorsqu’il est financé par ses abonnés (52 %) que par de l’argent public (42 %), la publicité (40 %), un fonds ou un actionnaire privé (36 %).

Le fait d’être financé par ses lecteurs est le premier critère de confiance envers les médias

☕️ Seuls 20 % des Français paient pour s’informer en ligne, contre 33 % des Européens

26 janvier 2026 à 06:58

Seuls 20 % des Français se disent prêts à payer pour accéder à des contenus d’information en ligne, indique une étude de l’Arcom sur le modèle économique de l’information en France : 7 % moins de 5 euros par mois, 5 % entre 5 et 10 euros, 8 % plus de 10 euros.

80 % des Français déclarent ne pas être prêts à payer pour de l’information en ligne

« À titre de comparaison, 35 % des Français paient pour des offres sportives en ligne (Eurosport, Canal+ Sport, etc.), 50 % pour des services de vidéo à la demande (Netflix, Prime Video, etc.), et 40 % pour du streaming audio (Deezer, Spotify, etc.) », relève pourtant le rapport.

Le graphique présenté dans l’étude pourrait laisser entendre que la France se situe dans la moyenne. L’étude souligne d’ailleurs que « cette tendance est généralisée en Europe : par exemple, seuls 17 % des Anglais et 14 % des Espagnols se disent prêts à payer pour des contenus d’information en ligne ».

Or, la source du graphique montre, a contrario, que 33 % des citoyens européens, en moyenne, paient pour accéder à de l’information, et que la France fait même partie des cinq pays de l’UE dont les citoyens sont les moins enclins à payer pour de l’information.

33 % des Européens, mais 20 % des Français, paient pour s’informer

La 39ème édition du baromètre La Croix – Verian – La Poste sur la confiance des Français dans les médias, rendue publique la semaine passée, montre pourtant que les Français déclarent que la perception de la crédibilité d’un média est beaucoup plus importante lorsqu’il est financé par ses abonnés (52 %) que par de l’argent public (42 %), la publicité (40 %), un fonds ou un actionnaire privé (36 %).

Le fait d’être financé par ses lecteurs est le premier critère de confiance envers les médias

Avec 7,4 millions de profils génétiques, le fichier FNAEG a presque doublé en deux ans

23 janvier 2026 à 13:09
Le tiers de la population est indirectement fiché
Avec 7,4 millions de profils génétiques, le fichier FNAEG a presque doublé en deux ans

Malgré une purge de 4 millions de fiches en 2022, suite à une sanction de la CNIL, le nombre de profils enregistrés dans le fichier national automatisé des empreintes génétiques est passé de 3,9 millions au 1er janvier 2023 à près de 7,4 millions au 1er janvier 2025, soit une explosion de + 89 % en seulement deux ans. Le nombre de « personnes signalisées » (car dûment identifiées) qui y figurent passe quant à lui de 2,7 (en 2015) à 4,4 millions, sans que l’on sache combien ont été condamnées, ou simplement « mises en cause ».

« Au 1er janvier 2025, 7 391 995 profils génétiques étaient enregistrés au Fichier national automatisé des empreintes génétiques (FNAEG) et 4 368 268 personnes signalisées », révèle un rapport du ministère de la Justice.

Or, les chiffres disponibles jusqu’alors étaient respectivement de 3,9 millions au 1er janvier 2023 et 2,7 millions au 1er janvier 2015. Le nombre de profils a donc progressé de + 59 % entre 2015 et 2025, mais cette accélération s’établit à+ 89 % si l’on compare 2023 à 2025.

Ces chiffres surprenants viennent d’être révélés par l’Inspection générale de la Justice (IGJ) qui, chargée de contrôler les services liés au ministère, avait été mandatée pour analyser une énorme bévue qui, si elle avait été évitée, aurait pu empêcher Dominique Pelicot et ses complices de violer sa femme Gisèle, près de 10 ans durant.

En 2010, rapporte France Info, Dominique Pelicot avait en effet été surpris en train de filmer, avec une caméra stylo, sous les jupes de clientes d’un supermarché. S’il s’en tira à l’époque en payant une simple amende de 100 euros, la police préleva son ADN, qui « matcha » avec une empreinte relevée en 1999 dans le cadre d’une tentative de viol dans le même département.

La police scientifique envoya le résultat à la Justice, mais le courrier papier, une simple lettre sans accusé de réception, semble s’être perdu, et n’a jamais été suivi d’effet. Or, les premiers viols de Gisèle Pelicot débutèrent un an plus tard.

Le rapport conclut qu’un dysfonctionnement judiciaire « ne peut être établi avec certitude, faute de preuve de réception du rapport adressé par lettre simple, malgré un faisceau d’éléments rendant plausible une telle hypothèse ».

« Les mêmes risques perdurent aujourd’hui au plan national », souligne néanmoins le rapport, qui appelle à une transmission dématérialisée des rapports de rapprochement entre le Service national de police scientifique (SNPS), en charge du FNAEG, et les juridictions, et leur intégration dans la procédure pénale numérique.

4 369 personnes fichées en 2002 vs 3,9 millions en 2023

Le rapport rappelle par ailleurs que le FNAEG, initialement créé en 1998 pour ficher les auteurs de crimes et délits de nature sexuelle, avait été étendu en 2001 aux personnes condamnées pour des crimes d’atteinte aux personnes et aux biens, puis « à de nombreux délits d’atteintes aux personnes et aux biens » en 2003.

Cette année-là, la loi pour la sécurité intérieure avait en outre « imposé l’enregistrement au FNAEG de toutes les personnes à l’encontre desquelles il existe “des raisons plausibles de soupçonner qu’elles ont commis une infraction” relevant de son périmètre », et donc des personnes simplement « mises en cause » car potentiellement suspectes.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌