Vue lecture

☕️ Pour la Cour suprême, TikTok peut être interdite aux États-Unis dès dimanche

La Cour suprême vient d’affirmer [PDF] que l’interdiction de TikTok prévue par la loi votée pour ce cas particulier pouvait entrer en vigueur ce week-end. Elle rejette donc le recours de l’entreprise et de ByteDance qui affirmaient que l’interdiction violait le premier amendement.

TikTok

« Il ne fait aucun doute que, pour plus de 170 millions d’Américains, TikTok offre un moyen d’expression distinctif , un moyen d’engagement et une ressource de communauté » reconnait la Cour suprême.

« Mais le Congrès a déterminé que la cession était nécessaire pour répondre à ses préoccupations de sécurité nationale bien étayées concernant les pratiques de collecte de données de TikTok et ses relations avec un adversaire étranger », affirme la Cour. Elle ajoute : « nous concluons que les dispositions contestées ne violent pas les droits du premier amendement des requérants ».

« L’arrêt de la Cour d’appel des États-Unis […] est confirmé », conclut la Cour suprême.

☕️ Le PCIe 7.0 (512 Go/s) toujours en piste pour 2025, la version 0.7 disponible

En ce début d’année, le PCI-SIG, en charge de développer le PCI Express, vient d’annoncer que la version 0.7 du PCIe 7.0 était disponible pour ses membres. Le PCIe 7.0 avait été annoncé pour la première fois en 2022.

En plus de doubler la bande-passante par rapport au PCIe 6.0, cette mouture passe au PAM 4. Au-delà de doubler le débit, le but est de proposer « une faible latence et une haute fiabilité », tout en améliorant « l’efficacité énergétique », affirme le PCI-SIG.

Cette version 0.7 arrive après la 0.5 en avril 2024 et la 0.3 en juin 2023. C’est surtout l’occasion de rappeler que le PCIe 7.0 est toujours prévu pour 2025. Mais autant dire que ce n’est pas un goulot d’étranglement pour le moment puisque les dernières RTX 50 de NVIDIA ne sont « que » PCIe 5.0, contre PCIe 4.0 pour la génération précédente.

Le PCIe 7.0 ne vise pas spécialement les joueurs pour le moment, mais plutôt l’Ethernet 800G, l’intelligence artificielle, l’informatique quantique, le calcul haute performance…

2025-2028 : la CNIL prend le dossier de l’IA sous l’angle de la promotion de l’éthique

Faudrait pas fâcher
2025-2028 : la CNIL prend le dossier de l’IA sous l’angle de la promotion de l’éthique

La CNIL a publié son plan stratégique pour les quatre prochaines années. Celui-ci contient quatre axes dont la protection des mineurs, la cybersécurité et les usages numériques du quotidien. Mais l’autorité veut en premier lieu « promouvoir une intelligence artificielle éthique et respectueuse des droits ».

L’autorité de protection des données personnelles vient, ce jeudi 16 janvier, de publier son plan stratégique pour 2025 - 2028. Celui-ci comporte quatre grands axes : intelligence artificielle, droits des mineurs, cybersécurité et usages du quotidien numérique.

L’IA en premier, mais en douceur

Mais le premier axe de la CNIL pour ces quatre prochaines années est bien l’IA, mais dans un rôle de promotion d’ « une intelligence artificielle éthique et respectueuse des droits ». L’autorité semble être rassurée sur son rôle concernant l’IA en affichant cet objectif comme axe numéro 1 de ce plan. En effet, en 2023, elle luttait avec les différents comités mis en place par l’exécutif sur le sujet et poussait son expertise sur les enjeux de protection des données personnelles liés à l’IA. Elle mettait alors en avant sa volonté d’accompagner avant de contrôler, et semble n’avoir pas changé de logique quant à son rôle de contrôle et de sanction.

En effet, pas question, dans ce document en tout cas, de transformer la CNIL pour réguler l’IA générative, comme l’avaient suggéré des députés il y a un an. Les deux premiers objectifs de cet axe sont de « contribuer au partage de connaissances et d’expertise au sein de l’écosystème de l’IA » et de « clarifier le cadre juridique applicable et mettre en œuvre une régulation effective et équilibrée ». Vient ensuite la volonté de la CNIL de « sensibiliser le grand public aux enjeux de l’IA et le former à l’exercice de ses droits ».

Vient seulement en quatrième objectif le fait de « contrôler la conformité des systèmes d’IA », avec d’abord la volonté de concevoir une méthodologie, puis de « participer à des opérations de contrôles conjointes avec les autorités de protection des données européennes » et enfin de « poursuivre les contrôles des dispositifs d’IA utilisés par l’État et les collectivités territoriales, en particulier dans le cadre de caméras augmentées ».

L’autorité présente plutôt l’intégration de l’IA dans son plan stratégique 2025 - 2028 comme « [s’inscrivant] dans le prolongement de travaux de fond de la CNIL (fiches pratiques, webinaires, colloques) destinés à clarifier le cadre légal, dialoguer avec l’écosystème et développer des capacités d’audit des systèmes ».

Protection des mineurs et « faire de chacun un acteur de la cybersécurité »

Dans son deuxième axe pour les quatre prochaines années, la CNIL veut se concentrer sur la protection des mineurs. Elle prévoit notamment d’augmenter sa présence « sur l’ensemble du territoire national pour sensibiliser le plus grand nombre aux questions de protection des données personnelles et recenser sur le terrain les besoins » et de développer des partenariats avec la communauté éducative, les associations, les collectivités locales et les médias dans les territoires.

Encore une fois, la CNIL met d’abord en avant sa mission de promotion des droits et d’un « usage responsable du numérique ». Le contrôle des opérateurs qui proposent des services en ligne au public mineur est le dernier objectif de cet axe.

Le renforcement de la cybersécurité sur le territoire constitue le troisième axe de ce plan. La CNIL se donne comme objectif notamment de « consolider la coopération et la coordination avec l’écosystème de la cybersécurité » en assurant une « application cohérente et harmonisée des nouveaux textes européens (NIS2, DORA, RIA) en matière de cybersécurité, en lien avec les autres régulateurs ». Elle continuera logiquement à accompagner les victimes de violations de données mais se donne aussi comme objectif de « contribuer au développement de solutions techniques protectrices de la vie privée ». Le renforcement du « respect des règles applicables en matière de sécurité par le contrôle et la sanction » vient aussi en quatrième objectif de cet axe.

Enfin, concernant les usages numériques du quotidien, l’autorité affiche sa volonté de poursuivre la mise en œuvre de son plan d’action « applications mobiles » pour protéger la vie privée des personnes. Elle continuera aussi son travail sur les systèmes d’identité numérique comme le portefeuille européen d’identité numérique (PEIN) ou les solutions de vérification d’identité et de vérification d’âge en ligne.

Bouygues Telecom présente sa Bbox Wi-Fi 7 avec 8 Gb/s symétrique… et tacle Free au passage

L’engagement c’est so-2024
Bouygues Telecom présente sa Bbox Wi-Fi 7 avec 8 Gb/s symétrique… et tacle Free au passage

Bouygues Telecom vient de présenter officiellement sa nouvelle Bbox avec du Wi-Fi 7 et certifié par la Wi-Fi Alliance, « une première en France », affirme le FAI. Elle sera disponible à partir du 27 janvier avec un forfait Ultym à 51,99 euros par mois, avec un engagement de 12 mois.

Il y a presque deux mois, Bouygues Telecom teasait une nouvelle box. Le FAI se prenait les pieds dans le tapis et envoyait des exemplaires à ses clients dans la foulée. Des photos ont ainsi rapidement été mises en ligne sur les réseaux sociaux, avec des descriptions des nouveautés. La principale était le Wi-Fi 7.

Wi-Fi 7 avec Multi Link Operation, 4K QAM, 320 MHz…

Elle est désormais officielle. Le fournisseur d’accès affirme que sa « nouvelle Bbox intègre toutes les fonctionnalités exigées par la certification de la Wi-Fi Alliance » et que le « Multi Link Operation (MLO) sera activé par défaut ». Comme nous l’avons déjà expliqué, cette fonctionnalité permet d’utiliser en même temps des bandes différentes. Bouygues Telecom met aussi en avant d’autres fonctionnalités du Wi-Fi 7, notamment la QAM en 4K, une largeur de bande de 320 MHz dans les 6 GHz.

« Bouygues Telecom a conçu une nouvelle Bbox verticale, avec quatre antennes par bande de fréquence situées en hauteur et deux répéteurs tribandes WiFi 7 certifiés », précise le FAI. Si on regarde plus en détail, elle dispose en fait de « quatre antennes sur les bandes 5 et 6 GHz et deux antennes sur la bande 2,4 GHz ».

Box Wi-Fi 7 certifiée : une « première en France »… et les Freebox alors ?

Dans son communiqué, Bouygues Telecom apporte une précision : « Bbox Fibre WiFi 7 certifiée Wi-Fi Alliance, une première en France ». Mais qu’en est-il de Free ? Le FAI sautait le pas du Wi-Fi 7 avec sa nouvelle Freebox Ultra début 2024, quelques jours après la finalisation de la norme par la Wi-Fi Alliance, puis avec sa Freebox Pop et récemment sa nouvelle Freebox Pro.

Mais, comme nous le confirmait l’opérateur l’année dernière au moment du lancement de sa Freebox Ultra, elle n’est pas certifiée par la Wi-Fi Alliance. Et la certification n’était même pas en cours lors de la présentation en janvier 2024.

Le FAI n’était pas certain de la faire certifier un jour. Et cela ne semble toujours pas le cas : une recherche avec Freebox dans le programme de certification de la Wi-Fi Alliance ne renvoie aucun résultat. Avec Bbox, cinq résultats, dont la nouvelle Bbox Wi-Fi 7 et les répéteurs Wi-Fi 7 certifiés en décembre.

Voilà simplement pourquoi Bouygues Telecom annonce une « première en France ». Cela ne veut pas dire que les Freebox ne sont pas compatibles avec le Wi-Fi 7, simplement qu’elles n’ont pas passé le programme de certification de la Wi-Fi Alliance.

8 Gb/s symétrique si Débit+, 2 Gb/s et 900 Mb/s maximum sinon

Côté débit, Bouygues Telecom annonce jusqu’à 8 Gb/s symétrique, alors qu’actuellement Ultym et Pure Fibre proposent au maximum à 8 Gb/s en téléchargement et 1 Gb/s en upload. Mais attention, c’est uniquement valable pour « les clients éligibles avec option Débit+ et équipement compatible ». Cette option est « gratuite sur demande ».

Dans le cas contraire, le download est à 2 Gb/s maximum et l’upload à 900 Mb/s. C’est la même chose sur Pure Fibre, pour rappel. Il faut faire un test d’éligibilité pour voir quels sont les débits possibles à votre adresse.

Connectique : le parent pauvre de cette Bbox

La connectique est par contre assez chiche pour une Box proposant du 8 Gb/s symétrique avec trois ports Ethernet seulement : un à 10 Gb/s et des deux autres à 1 Gb/s. Dommage de ne pas avoir mis de switch avec du 2,5 Gb/s au moins.

Il existe pour rappel des switch multi-Gig pour quelques dizaines d’euros, des adaptateurs USB/PCIe vers Ethernet à 2,5 Gb/s pour moins de 20 euros, etc. Se monter un réseau Multi-Gig pour moins de 100 euros est facilement faisable.

Éco-conception, tarifs et conditions

La question de l’empreinte environnementale est évidemment abordée : la coque est « fabriquée avec plus de 90 % de plastique recyclé ». Le FAI précise aussi qu’il y a « zéro plastique » et que le remplacement des pièces est « facile ».

Bouygues annonce que la nouvelle Box sera disponible à partir du 27 janvier (modulo les clients qui l’ont déjà…) avec son offre la plus haut de gamme : Ultym. Le forfait est annoncé à 51,99 euros par mois, avec 7 euros de réduction la première année, soit 2 euros de plus que l’actuelle offre Ultym.

L’engagement est d’un an. Il y a des frais de mise en service de 48 euros et de résiliation de 59 euros. L’abonnement intègre des « appels illimités vers les fixes et mobiles France/DOM/Europe et fixes de 110 destinations jusqu’à 199 correspondants différents (au-delà : facturés hors forfait) ».

Le forfait propose un accès à 180 chaines de TV avec un décodeur 4K HDR et un « enregistreur TV 100 h ». Prime, Universal et Cafeyn sont offerts pendant un an, puis à 6,99, 5,99 et 9,99 euros par mois ensuite. Si vous souhaitez comparer les offres des FAI, nous avons un tableau interactif à votre disposition.

Les terminaux représenteraient 50 % de l’empreinte carbone du numérique

À consommer avec modération
Les terminaux représenteraient 50 % de l’empreinte carbone du numérique

En 2022, les biens et services liés au numérique représentaient 4,4 % de l’empreinte carbone de la France, avec des émissions à chercher à hauteur de 50 % du côté des terminaux, contre 46 % pour les centres de données. C’est ce que révèle la version mise à jour d’une étude Ademe-Arcep d’évaluation de l’impact environnemental du numérique en France. Elle propose par ailleurs une nouvelle clé de répartition entre les impacts environnementaux liés à la fabrication des terminaux et ceux associés à leur usage.

Le calcul de l’impact environnemental du numérique relève d’une forme de gageure, tant il est difficile de mesurer avec précision le cycle de vie complet d’une chaîne qui, pour l’envoi d’un simple email, va des mines dont sont extraits les matériaux nécessaires à la fabrication des terminaux, jusqu’à l’énergie utilisée pour alimenter les équipements réseau chargés de son acheminement. L’exercice se révèle pourtant nécessaire pour évaluer le poids réel de ce secteur en plein essor et nourrir l’action publique en matière de transition environnementale et de numérique responsable.

Un périmètre mis à jour et étendu

En France, c’est l’équipe combinée formée par l’Ademe et l’Arcep qui s’est attelée à cet épineux dossier, avec une première étude d’impact publiée en 2022, et portant sur les consommations mesurées en 2020. À l’époque, les deux institutions évaluaient à 17,2 millions de tonnes équivalent CO2 les émissions liées à ce secteur, soit 2.5 % des émissions de la France en 2020. Elles estimaient également que la phase de fabrication des terminaux dédiés aux utilisateurs finaux concentrait près de 80 % de leurs impacts environnementaux, contre 20 % seulement engendrés par leur utilisation.

Pour tenter de dresser la carte des impacts du numérique, les chercheurs responsables de l’étude avaient opté pour une segmentation en trois tiers, en envisageant séparément les terminaux utilisateurs (ordinateurs, smartphones, téléviseurs…), les centres de données et le réseau.

Ils admettaient que l’étude présentait certaines limites, notamment parce qu’elle ne prenait en compte que les infrastructures situées en France (logique de production), alors même que de nombreux services en ligne populaires s’appuient sur des ressources hébergées à l’étranger (logique de consommation).

Pour pallier ces lacunes et tenir compte de l’accélération des usages, l’Ademe et l’Arcep ont remis le métier sur l’ouvrage, et procédé à une actualisation de leur étude initiale. La version mise à jour, publiée mi-janvier (PDF), s’appuie d’abord sur des données plus récentes, puisqu’elle envisage les usages de 2022, soit l’année des prémices de l’intelligence artificielle accessible au grand public (ChatGPT a été lancé le 30 novembre 2022).

L’étude intègre par ailleurs trois dimensions supplémentaires : la prise en compte des data centers situés à l’étranger, l’évolution du marché des téléviseurs vers l’OLED et les grandes diagonales, ainsi que des données plus précises sur l’empreinte de la fourniture d’accès à Internet, extraites de la base NégaOctet et complétées par les opérateurs. La démarche reste fidèle à la méthode ACV (analyse du cycle de vie) sous sa forme attributionnelle, sans prise en compte des impacts indirects (effets rebonds).

4,4 % de l’empreinte carbone et 11 % de la consommation électrique

Sur la base de ce périmètre étendu, l’étude estime à 29,5 Mt CO2éq l’empreinte carbone générée sur l’année 2022 par le numérique, « ce qui représente un peu moins que les émissions totales du secteur des poids lourds », remarquent les auteurs.

Les terminaux utilisateurs représentent, selon l’étude, 50 % de cette empreinte carbone. Les centres de données pèsent quant à eux 46 %, en sachant que l’Ademe et l’Arcep évaluent à 53 % la part des usages associés à des infrastructures hébergées à l’étranger. Enfin, le fonctionnement des réseaux de télécommunication (fixes, mobiles ou dorsal, box FAI comprises) équivaudrait à 4 % de l’empreinte totale du secteur.

L’étude propose d’ailleurs de comparer les données de 2022 sur le nouveau périmètre à celles de 2020, mais aussi à celles de 2020 corrigées de l’imprécision liée à la non prise en compte des data centers situés à l’étranger, en réponse à la très complète contre-analyse qu’avait prodiguée le cabinet de conseil Hubblo.

Les deux institutions calculent que le numérique a représenté, en 2022, 51,5 TWh, soit 11,3 % de la consommation électrique française. Une enveloppe qui monte à 65 TWh, en intégrant la consommation des centres de données situés à l’étranger. « À l’échelle d’une personne habitant en France, cela correspond à 434 kg eq. CO2, soit 22 % des émissions soutenables (2 tonnes par personne et par an) », soulignent les auteurs.

La fabrication concentre la majorité des impacts

« On peut également noter qu’une personne mobilise 1,7 tonne de matériaux par an pour son utilisation du numérique », mesure encore l’étude. Elle estime à 117 millions de tonnes la masse totale de ressources utilisées pour produire et utiliser les équipements associés sur un an à l’échelle nationale.

Sur le volet matériel, l’étude s’efforce, comme en 2020, de prendre en compte l’ensemble du cycle de vie, de la fabrication jusqu’à la gestion de la fin de vie. « 60 % des émissions carbone sont liées à la fabrication, à la distribution et à la fin de vie des équipements et infrastructures numériques, et 40 % à l’utilisation ; ce qui signifie que la phase d’usage reste minoritaire », calculent à ce niveau les auteurs.

« Si la part relative liée à la fabrication, ou liée aux équipements diminue, en valeur absolue les émissions
augmentent. Cela signifie qu’il faut continuer les efforts pour augmenter la durée de vie des équipements, et réduire le nombre d’équipements numériques. Mais il faut accentuer les efforts au niveau des usages : avec l’arrivée des nouveaux usages (IA générative notamment) qui risque d’entraîner une explosion de la consommation des data centers dans le monde, il faut insister sur l’importance de la sobriété, c’est-à-dire la remise en question de la nécessité de ces usages
 », conclut l’étude.

☕️ Starship : SpaceX perd le deuxième étage de sa fusée lors de son septième lancement test

Le septième lancement test de Starship avec le propulseur Super Heavy s’est fini plus tôt que prévu dans la nuit de jeudi 16 à vendredi 17 janvier. SpaceX a perdu le contrôle du deuxième étage de sa fusée très rapidement alors que l’objectif de la mission était, entre autres, de tester une « mise à jour en bloc » de celui-ci.

Comme l’explique Space News, cette modification de l’étage supérieur était une « refonte complète » pour permettre un allongement de deux mètres pour atteindre une longueur de 52 mètres et accueillir des réservoirs plus grands contenant 25 % d’ergols en plus.

La fusée de SpaceX a pourtant bien décollé peu après 17 h 37, heure de l’Est nord-américain, ET (23 h 37 à Paris). Et le premier étage s’est séparé correctement environ deux minutes et 45 secondes après pour revenir avec succès, pour la seconde fois, sur le pas de tir afin d’être récupéré par des bras mécaniques. SpaceX a de nouveau montré qu’elle était capable de gérer un lanceur réutilisable pour sa fusée.

Mais les informations du deuxième étage ont ensuite montré qu’un de ses six moteurs s’est éteint à 7 minutes et 40 secondes du décollage, suivi petit à petit par 4 autres.

« Nous avons perdu toute communication avec le vaisseau », a affirmé ensuite l’animateur du live proposé par SpaceX, Dan Huot, ajoutant « cela nous indique clairement qu’il y a eu une anomalie avec l’étage supérieur ».

SpaceX avait prévu un test de rallumage de moteur Raptor et le déploiement de 10 simulateurs embarqués de futurs satellites Starlink v3, ce qui n’a pas pu être fait.

Comme l’indique l’AFP, le régulateur américain de l’aviation (FAA) a expliqué avoir « brièvement ralenti et détourné les avions autour de la zone de chute des débris de véhicules spatiaux ». La FAA ajoute que « les opérations normales ont repris » par la suite.

Cette nuit, Elon Musk a publié sur son réseau social de premières explications : « nous avons eu une fuite d’oxygène/carburant dans la cavité au-dessus du pare-feu du moteur du vaisseau qui était suffisamment importante pour créer une pression dépassant la capacité de ventilation. Outre la vérification des fuites, nous allons ajouter des dispositifs anti-incendie à ce volume et probablement augmenter la zone de ventilation. Rien ne suggère pour l’instant de repousser le prochain lancement au-delà du mois prochain ».

☕️ Fin de partie pour le satellite Gaia, deux catalogues encore à venir

Fin de partie pour le satellite Gaia, deux catalogues encore à venir

En décembre 2013, le satellite Gaia de l’Agence spatiale européenne (ESA) décollait du Centre Spatial Guyanais à Kourou à bord d’une fusée Soyouz-STB. Les observations scientifiques ont débuté en juillet 2014. 11 ans plus tard, « Gaia cesse ses observations » titre l’Observatoire de Paris.

« Nous marquons aujourd’hui la fin des observations scientifiques, et nous célébrons cette incroyable mission qui a dépassé toutes nos attentes, avec une durée de vie presque deux fois supérieure à celle initialement prévue », explique Carole Mundell de l’Agence spatiale européenne.

La mission du satellite était de « construire la carte la plus détaillée et la plus précise de la Voie lactée ». Mais Gaia « ne s’en est pas tenu aux seules étoiles de notre galaxie. Il a aussi scruté d’autres objets : depuis les astéroïdes proches au sein du Système solaire jusqu’aux galaxies très, très éloignées de la Voie lactée ».

Un premier jeu de données issu des observatoires de Gaia était publié en 2016 sous le nom DR1 (Data Release 1), avec notamment la position dans le ciel de plus d’un milliard d’étoiles. En 2018, c’était au tour du second jeu de données DR2, avec pas moins de 1,7 milliard d’étoiles. On passe à près de deux milliards avec le catalogue DR3 en 2022.

« À ce jour, sont recensées plus de 13 000 publications détaillant les résultats scientifiques de la mission : un nombre record ! », se félicite l’Observatoire de Paris. Et ce n’est pas fini puisque Gaia DR4 et DR5 sont attendus, avec des détails sur des exoplanètes, des trous noirs, « et une connaissance de la Voie lactée encore plus précise ». Gaia a aussi détecté un trou noir « qui ne devrait pas exister ».

Le catalogue Gaia DR4 couvrira cinq ans et demi d’observation. Il est attendu pour fin 2026 et devrait contenir 550 To de données. Quant à DR5, il englobera l’intégralité des dix ans et demi d’observation et devrait être mis en ligne vers « la fin de la décennie ».

Le satellite en lui-même doit réaliser des dernières opérations : « Après plusieurs semaines de tests, Gaia quittera son orbite actuelle autour du point de Lagrange L2 ( à 1,5 million de km de la Terre dans la direction opposée au Soleil), pour être placée sur son orbite héliocentrique finale, loin de la sphère d’influence de la Terre. Le véhicule spatial sera passivé le 27 mars 2025, afin d’éviter de causer tout dommage ou interférence avec d’autres véhicules spatiaux ».

☕️ RGPD : noyb dépose plainte contre TikTok, AliExpress, SHEIN, Temu, WeChat et Xiaomi

L’association de Max Schrems, noyb, a annoncé avoir porté plainte contre six entreprises chinoises du numérique auprès de différentes autorités européennes de protection des données personnelles : TikTok et Xiaomi en Grèce [PDF, PDF], Shein en Italie [PDF], AliExpress en Belgique [PDF], WeChat aux Pays-Bas [PDF] et Temu en Autriche [PDF].

Comme dans l’affaire Schrems contre Meta, noyb pointe des transferts de données des utilisateurs européens en dehors de l’UE. Ceux-ci ne sont autorisés par le RGPD qu’exceptionnellement et si le pays de destination ne porte pas atteinte à la protection des données.

Mais ici, contrairement à l’affaire Schrems contre Meta, l’association a un argumentaire plus directement compréhensible : le pays concerné, la Chine, est un État autoritaire reposant sur moult technologies de surveillance. « Les entreprises ne peuvent pas, de manière réaliste, protéger les données des utilisateurs de l’UE contre l’accès du gouvernement chinois », explique noyb.

Kleanthi Sardeli, juriste spécialiste de la protection des données à noyb, va un peu plus loin : « étant donné que la Chine est un État autoritaire qui pratique la surveillance, il est évident qu’elle n’offre pas le même niveau de protection des données que l’UE. Le transfert de données personnelles d’Européens est clairement illégal et doit être interrompu immédiatement ».

noyb affirme que les politiques de confidentialité d’AliExpress, SHEIN, TikTok et Xiaomi indiquent qu’elles transfèrent des données vers la Chine.

Concernant Temu et WeChat, la mention est plus floue puisqu’elle indique seulement que les données sont transférées vers des « pays tiers ». L’ONG et les plaignants qu’elle représente leur ont donc demandé « en vertu de l’article 15 du RGPD […] si leurs données avaient été envoyées en Chine ou dans d’autres pays en dehors de l’UE », sans obtenir de réponse. noyb affirme que « d’après la structure d’entreprise de Temu et de WeChat, il est fort probable que la Chine en fasse partie ».

Meta a abandonné ses systèmes d’automatisation de la réduction de la portée des fake news

Yolo
Meta a abandonné ses systèmes d’automatisation de la réduction de la portée des fake news

Mark Zuckerberg a affiché la semaine dernière un nouveau virage pour Meta. Mais l’annonce de l’abandon des partenariats de fact-checking au moins aux États-Unis s’est accompagnée, de façon plus discrète, de l’arrêt des systèmes de Meta pour réduire la portée des fake news.

Ce début d’année, juste avant l’investiture de Donald Trump, est mouvementé chez Meta. Mark Zuckerberg a décidé de suivre le virage emprunté depuis quelque temps par Elon Musk, notamment concernant la modération des réseaux sociaux.

Il a pris la décision d’arrêter les programmes de fact-checking aux États-Unis et l’entreprise n’est pas claire sur le futur de ceux qui existent en Europe. Meta a aussi changé sa politique de modération, laissant désormais passer certaines insultes envers les femmes et les personnes de la communauté LGBTQ et a stoppé, comme d’autres, sa politique d’inclusivité professionnelle.

Dans l’annonce à propos de cette nouvelle politique de modération faite par Joel Kaplan, le nouveau responsable des affaires internationales de Meta, celui-ci affirmait : « Nous rétrogradons également trop de contenus dont nos systèmes prévoient qu’ils pourraient enfreindre nos normes. Nous sommes en train de nous débarrasser de la plupart de ces rétrogradations et, pour le reste, d’exiger une plus grande confiance dans le contenu qui enfreint nos propres normes », sans pour autant détailler de quel genre de contenu il parlait.

Meta ne pénalise plus les fake news

On en sait désormais un peu plus : le média américain Platformer a appris que Meta avait demandé à ses équipes chargées du classement des contenus de ne plus pénaliser ceux véhiculant des fausses informations. Comme le pointent nos confrères, des fake news comme celles qui ont été diffusées sur Facebook lors de la présidentielle de 2016 comme le soutien du Pape François à Trump ou le Pizzagate peuvent de nouveau se répandre comme n’importe quelle information.

Pourtant, selon Plateformer, les algorithmes de classification de Meta étaient petit à petit arrivés à réduire la portée de ces fake news de 90 %.

Meta renvoie aux déclarations de Mark Zuckerberg en août dernier

La décision de ce changement ne semble pas avoir été prise récemment. En effet, si Meta n’a pas voulu commenter le sujet lorsque nos confrères l’ont contactée, l’entreprise les a renvoyés vers la lettre de Mark Zuckerberg à Jim Jordan, président de la commission judiciaire de la Chambre des représentants, rendue publique en aout dernier.

Le CEO de Meta a envoyé cette lettre dans le cadre d’une commission, dirigée par les Républicains qui accusaient Meta de s’être livrée à « un sabotage politique en supprimant des contenus de droite », comme l’expliquait Wired. Dans son courrier, Mark Zuckerberg faisait une sorte de mea-culpa en affirmant qu’en 2021, l’administration Biden a demandé à Meta « de censurer certains contenus liés à Covid » et que l’entreprise a suivi cette demande. Il y regrettait cette décision.

Il évoquait aussi la rétrogradation d’un article du New-York Post à propos de Hunter Biden, expliquant que « le FBI nous a mis en garde contre une opération de désinformation russe potentielle concernant la famille Biden et la Birmanie avant les élections de 2020 ». Il affirmait : « Nous avons envoyé cet article à des vérificateurs de faits pour examen et l’avons temporairement rétrogradé dans l’attente d’une réponse. Depuis, il a été clairement établi qu’il ne s’agissait pas de désinformation russe et, rétrospectivement, nous n’aurions pas dû rétrograder l’article ».

Mais cette déclaration indiquait donc que l’entreprise ne rétrograderait plus des contenus suspects avant de les avoir vérifiés, pas qu’elle abandonnait totalement la détection et la rétrogradation des fake news.

Peu d’effort aussi pour modérer les publicités problématiques

Les fake news ne sont pas les seules à poser problème dans la politique de modération de Meta. Comme expliqué plus haut, l’entreprise a changé sa politique de modération pour laisser passer certaines insultes. Mais comme le rappelle Alexio Mantzarlis, du centre de recherche Cornell Tech, l’entreprise permet aussi à des services comme Crush AI de publier des milliers de publicités pour une IA qui déshabille les femmes.

« Crush AI échappe à la modération de Meta en créant des dizaines de nouveaux profils d’annonceurs et en changeant fréquemment de domaine. Après avoir informé Meta de trois des quatre domaines que j’avais trouvés, la plateforme a supprimé les annonces correspondantes. Ce matin, le domaine que j’avais involontairement omis de communiquer à Meta diffusait encore 150 annonces », explique-t-il.

En utilisant Similarweb, il a observé que « les quatre sites web du réseau ont reçu 263 119 visites en décembre 2024. Parmi celles-ci, 237 420 provenaient de Facebook ou d’Instagram ». Il conclut : « cela représente 90 % de leur trafic, grâce à Mark Zuckerberg ».

☕️ Linux Mint 22.1, alias Xia, est disponible en version finale

Nouvelle évolution pour la distribution Linux Mint, basée sur Ubuntu et grande ambassadrice de l’environnement Cinnamon. Ce dernier est fourni en version 6.4, avec un nouveau thème par défaut qui doit lui permettre de beaucoup mieux s’intégrer dans les autres distributions.

Dans la bêta, que nous avions prise en main, nous notions également l’arrivée d’une fonction Night Light pour l’utilisation nocturne (teinte orangée de l’image), de nouveaux contrôles OSD, l’arrivée de profils d’énergie, le support de l’applet NetworkManager ou encore la possibilité d’afficher des notifications en plein écran.

Linux Mint 22.1 a bénéficié d’un vaste nettoyage sur les dépendances APT, qui devrait largement profiter aux futurs développements sur le système. Xia profite aussi d’une meilleure compatibilité avec Wayland, une amélioration générale des performances pour le gestionnaire de logiciels, d’une génération de vignettes pour les fichiers OpenRaster ou encore d’une nouvelle collection de fonds d’écran, d’ailleurs mieux rangée (classement par version de Linux Mint).

Pour les personnes qui utilisaient la bêta, la mise à jour se fait automatiquement. Celles sur Linux Mint 22 devront attendre que l’outil de mise à jour soit proposé pour cette nouvelle bascule. Quant aux images ISO, elles peuvent être téléchargées depuis l’annonce officielle.

☕️ Blue Origin : New Glenn atteint l’espace pour son vol inaugural

Après de nombreux reports, la fusée New Glenn de Blue Origin a finalement pris son envol dans la nuit de mercredi à jeudi (jeudi matin heure française). Lancée depuis Cap Canaveral, elle a rempli l’objectif principal affiché par l’entreprise de Jeff Bezos, à savoir atteindre l’orbite spatiale dès son vol inaugural.

« Le deuxième étage est sur son orbite finale après deux démarrages réussis des moteurs BE-3U », précise l’entreprise. Le premier étage de la fusée, qui faisait quant à lui l’objet d’une tentative de récupération dans l’océan Atlantique, a finalement été perdu pendant la descente.

S’il s’agit sans doute d’une déception pour Blue Origin, l’entreprise rappelle qu’elle a toujours affirmé que son objectif premier était d’atteindre l’espace en toute sécurité, la récupération du booster n’étant envisagée que comme une « cerise sur le gâteau » en cas de succès.

 Blue Origin revendique jusqu’ici 22 vols réussis avec sa fusée New Shepard, mais celle-ci, destinée à des vols touristiques, se contente de franchir la ligne de Karmán, à 100 km d’altitude.

New Glenn et sa mission NG-1 constituent sa première tentative de réellement atteindre l’espace. La société devient ainsi le premier acteur du « new space » à réaliser cet objectif dès son vol inaugural.

Une première d’ailleurs saluée par Elon Musk, patron de SpaceX, que Blue Origin a vocation à directement concurrencer avec New Glenn.

☕️ Synapses : un labo sur l’IA et les médias réunit CNRS, Ouest France et Université de Rennes

Dans un communiqué de presse, le CNRS annonce ouvrir avec l’Université de Rennes et Ouest France un laboratoire commun nommé Synapses qui doit travailler sur l’application de l’intelligence artificielle « au service du journalisme ».

des journaux

Ce projet fait partie des 16 sélectionnés par l’Agence nationale de la recherche dans sa vague 2 de l’édition 2023. L’ANR le finance à hauteur de 362 973 euros.

Le CNRS donne les trois axes majeurs de ce nouveau laboratoire joignant des chercheurs à une entreprise de presse :

  • Analyse des archives photographiques : grâce aux 40 millions d’images de Ouest-France, Synapses utilisera l’IA pour faciliter l’analyse et la recherche de photos, facilitant ainsi le travail des journalistes et des documentalistes ;
  • Traitement de textes spécifiques : exploiter plus de 100 ans d’archives textuelles pour améliorer la compréhension et le traitement des textes historiques, en surmontant les défis posés par les évolutions linguistiques ;
  • Visualisation d’informations complexes : développer des outils pour visualiser des données complexes et interconnectées, rendant l’information plus accessible pour les journalistes.

« Ces axes de recherche sont liés à cinq domaines scientifiques majeurs : l’apprentissage automatique, la vision par ordinateur, le traitement du langage naturel, la représentation des connaissances et la visualisation de données complexes », expliquait l’équipe dans la présentation de son projet à l’ANR.

Ce laboratoire commun s’appuie sur un projet déjà existant : l’équipe de recherche Linkmedia dirigée par Laurent Amsaleg, directeur de recherche au CNRS. Mais si Linkmedia embarquait aussi quelques chercheurs d’Inria, pas de trace de cet institut dans le nouveau projet. La plupart des chercheurs de Synapses sont basés à Rennes.

Aux JO de Paris, la vidéosurveillance algorithmique n’a servi à (presque) rien

À qui profite la « vidéoprotection » ?
Aux JO de Paris, la vidéosurveillance algorithmique n’a servi à (presque) rien

Le rapport du comité d’évaluation de l’expérimentation de la vidéosurveillance algorithmique dans le cadre des Jeux olympiques de Paris révèle qu’un seul algorithme a été testé, sur la moitié seulement des motifs autorisés. Six détections d’intrusion et un seul colis suspect ont été identifiés. L’algorithme, par contre, a classé à tort des vitrines et feux de circulation comme incendies potentiels, et qualifié de « colis suspects » des poubelles et des… SDF. L’expérimentation aura donc eu le mérite de montrer qu’en l’état, la VSA n’est pas au point.

« Vidéosurveillance algorithmique : le rapport d’évaluation s’interroge sur l’efficacité du dispositif », titre Le Monde, qui parle d’un « bilan en demi-teinte ». « Le comité d’évaluation émet des doutes sur l’efficacité du dispositif mis en place pour les Jeux de Paris », renchérit France Info, évoquant « des résultats inégaux ».

Nos deux confrères ont, en effet, pu consulter le rapport, remis ce mardi 14 janvier au ministère de l’Intérieur, du comité d’évaluation de l’expérimentation (controversée) de vidéosurveillance algorithmique (VSA) dans l’espace public autorisée dans le cadre des JO de Paris.

France Info, qui fournit bien plus de verbatims du rapport que ne le fait Le Monde, relève que ses auteurs y écrivent que « le recours aux traitements algorithmiques mis en place dans le cadre de l’expérimentation s’est traduit par des performances techniques inégales, très variables en fonction des opérateurs et des cas d’usages, des contextes d’utilisation, ainsi que des caractéristiques techniques et du positionnement des caméras ».

Dans des propos qui font écho à ce que l’on sait déjà de l’efficacité (ou pas) des caméras de vidéosurveillance, le comité rappelle que l’intérêt de tels dispositifs « dépend largement du contexte d’utilisation ». Il relève que la VSA est, par exemple, « moins efficace quand il y a peu d’éclairage », mais plus pertinente « dans les espaces clos ou semi-clos, notamment les couloirs du métro et les gares, par rapport aux résultats observés dans les espaces ouverts ».

Une « maturité technologique insuffisante »

Fort d’une centaine de pages, le rapport commence par rappeler les limites de l’expérimentation, « qui laisse encore des questions en suspens », euphémise Le Monde.

Les auteurs soulignent d’une part que le nombre, sans équivalent dans l’histoire, de forces de l’ordre déployées sur le terrain, et les très nombreuses restrictions d’accès aux zones vidéosurveillées par les algorithmes ont « rendu la VSA moins utile qu’escompté ».

Certaines possibilités offertes par la loi, comme l’analyse d’images prises depuis des drones, n’ont pas, d’autre part, été mises en œuvre « en raison d’une maturité technologique insuffisante », souligne Le Monde.

L’expérimentation n’a en outre porté que sur un seul logiciel (Cityvision, de Wintics), alors qu’une dizaine de prestataires de VSA avaient répondu à l’appel d’offres, et que le ministère de l’Intérieur en avait initialement choisi trois (Wintics, Videtics et Chapsvision).

Le rapport relève que l’évaluation ne saurait donc proposer de « bilan » sur la « pertinence » de la VSA, ni se prononcer sur l’opportunité de la poursuivre, ou pas.

Des vitrines éclairées et feux de voiture pris pour des incendies

De plus, près de la moitié des 8 cas d’usage autorisés après avis de la CNIL n’ont pas été expérimentés, tels que la détection de départs d’incendie, de chutes de personne ou encore d’armes à feu, qui n’ont été testées ni par la RATP, ni par la SNCF.

La ville de Cannes a certes expérimenté la « présence ou utilisation d’armes » mais, tempère Le Monde, « sans résultats concluants et avec un grand nombre de faux positifs » :

« Quant à la détection des feux ou des chutes, le rapport mentionne, là aussi, une faible maturité technologique, les algorithmes prenant parfois les devantures de magasin ou les phares de voiture pour des incendies. »

Les SDF et les poubelles, des « colis suspects » comme les autres

La détection de la « présence d’objets abandonnés » dans les gares et stations de métro n’aurait, de son côté, abouti qu’à des résultats « très moyens ». 62 % des 270 alertes adressées par le logiciel étaient des « faux positifs », et seules 21 (soit moins de 8 %) se sont avérées « pertinentes ».

De plus, relève France Info, le logiciel peinerait à identifier les objets dont la présence sur les lieux n’a rien d’anormal, pour des performances qualifiées de « très inégales ». Il « assimile ainsi régulièrement le mobilier urbain (bancs, panneaux) ou encore les matériels de nettoyage (poubelles, seaux et machines de nettoyage) et autres objets fixes ou usuels » à des « colis suspects » :

« Plus grave, il lui arrive d’assimiler des personnes assises ou statiques, notamment des sans domicile fixe. »

Un seul cas d’usage fait l’unanimité : la détection d’intrusion

Sur les quelques cas d’usage réellement testés, et « de façon générale, les alertes émises par les logiciels de VSA n’ont entraîné qu’un nombre limité d’interventions », résume par ailleurs Le Monde :

« A la SNCF, six ont été menées grâce à la détection automatique d’intrusion en zone interdite avant et pendant les JO, et une seule pour objet abandonné. »

D’après Le Monde, et du point de vue de la technologie, « un seul cas d’usage fait l’unanimité : la détection d’intrusion en zone interdite », notamment utilisée pour identifier les personnes sur les voies.

La détection des flux de circulation et des déplacements en sens interdit (de personnes comme de véhicules), tout comme l’analyse de la densité de population, censée détecter les attroupements, seraient de leur côté jugés « satisfaisants » par les opérateurs de transport.

« Avec toutefois quelques réserves », temporise France Info. Le logiciel « a parfois eu du mal à comptabiliser un nombre d’individus trop resserrés (…) en raison de la hauteur d’emplacement des caméras », relève le rapport. Le dispositif apparaît en outre « moins efficace lorsque les caméras sont trop proches du public, les corps n’étant pas entièrement visibles ».

S’agissant des mouvements de foule, l’efficacité de la VSA serait là aussi « difficile à évaluer », reconnaît le rapport :

« Les quelques retours font état des difficultés rencontrées dans l’identification des véritables mouvements. Le traitement peut, en particulier, assimiler des groupes de personnes se déplaçant dans le même sens, sans précipitation particulière. Il est délicat de définir des mouvements de regroupement ou de dispersion rapide. »

Un « choix politique » qui appelle à « une vigilance particulière »

Le rapport affirme cependant que « les agents concernés sont globalement satisfaits de la mise en œuvre du dispositif » :

« L’intégration des écrans des caméras IA dans les salles de commandement, lorsqu’elle a été réalisée, a contribué à favoriser la complémentarité des caméras classiques et des caméras IA. »

Pour le comité d’évaluation, « l’abandon, la prolongation ou la pérennisation » du dispositif est « un choix politique » qui ne relève pas de sa mission. Il souligne cela dit que, si ce dispositif était mis en place, « une vigilance particulière s’impose (…) afin notamment de prévenir tout risque de détournement des finalités légales ou, plus fondamentalement, d’accoutumance au recours à une telle technologie à des fins de surveillance ».

Le Monde et France Info rappellent également que Laurent Nuñez, préfet de police de Paris, Bruno Retailleau, ministère de l’Intérieur et Philippe Tabarot, le nouveau ministre des Transports, se sont déjà prononcés en faveurs d’une généralisation du dispositif, sans même attendre le rapport du comité d’évaluation.

☕️ L’AFP signe un accord avec Mistral AI

L’Agence France Presse a signé un partenariat avec la start-up Mistral AI, pour permettre à son assistant conversationnel de puiser dans des dépêches pour fournir des réponses aux internautes.

L’assistant de Mistral AI, nommé le Chat, peut à partir de ce 16 janvier s’appuyer sur la production de 2 300 dépêches produites quotidiennement par l’AFP dans six langues : le français, l’anglais, l’espagnol, le portugais, l’allemand et l’arabe.

representation onirique du pouvoir et de l'argent qui circule en ligne grâce aux outils numériques.
Clarote & AI4Media / Better Images of AI / Power/Profit / CC-BY 4.0

Il pourra par ailleurs remonter dans les archives de l’agence jusqu’à 1983. 
Le Chat n’aura en revanche pas accès aux photos, vidéos et infographies de l’AFP.

Ni le montant ni la durée de l’accord n’ont été dévoilés.

Le PDG de l’AFP Fabrice Fries précise auprès du Monde qu’il s’agit d’un « nouveau courant de revenu », et que les 38 millions de contenus concernés ne servent pas à entraîner la machine.

Il s’agit d’un « module qui vient se brancher à notre système et peut être débranché », a déclaré le cofondateur de Mistral Arthur Mensch au quotidien.

Le 15 janvier, Google annonçait avoir signé un accord avec le concurrent états-unien de l’AFP, the Associated Press (AP), pour permettre à son chatbot Gemini de fournir de l’information de qualité aux internautes qui en demanderaient.

☕️ LIDD : le retour d’expérience d’une femme trans dans la tech

Qu’est-ce que ça fait, de transitionner, quand on baigne dans l’informatique depuis toute petite ? Qu’est-ce qui change, au travail, qu’est-ce qui coince, qu’est-ce qui fonctionne mieux que prévu ?

Gwendoline Fichant a les mains dans l’informatique depuis 42 ans, et travaille chez le même employeur depuis une décennie. Il y a trois ans, elle a fait sa transition. Dans le média La première ligne, elle propose un RETEX (retour d’expérience) dans lequel elle décrit la manière dont son coming-out a été accueilli au travail, et sur ce que ça fait, concrètement, de devenir femme dans un milieu professionnel majoritairement masculin.

☕️ Microsoft se dote d’une division CoreAI pour placer l’IA au cœur de son ingénierie

Satya Nadella, PDG de Microsoft, a annoncé cette semaine en interne, puis de façon publique, la création d’une nouvelle division baptisée « CoreAI – Platform and Tools ». Elle est placée sous la responsabilité de Jay Parikh, qui a dirigé l’ingénierie chez Meta entre 2009 et 2021, et revêt, selon Nadella, un caractère hautement stratégique. Sa mission ne serait en effet rien de moins que construire le portfolio bout en bout de solutions nécessaires à l’avènement de l’IA et des technologies d’agents intelligents.

Dans sa lettre, Nadella affirme qu’il voit l’IA comme un véritable changement de paradigme technologique, qui va bouleverser l’ensemble de la pile applicative, des couches basses de l’infrastructure aux interfaces utilisateurs. Le PDG, qui évoque l’équivalent de trente ans d’évolution compressés en seulement trois ans, estime cependant nécessaire de repenser l’ensemble de sa pile d’outils dédiés au développement d’applications, pour basculer vers une logique « AI first ».

« Dans ce monde, Azure doit devenir l’infrastructure de l’IA, tandis que nous construisons notre plateforme d’IA et nos outils de développement dessus, englobant Azure AI Foundry, GitHub et VS Code », déclare Satya Nadella.

Copilot Pro

Arrive donc cette nouvelle division, CoreAI – Plaform and Tools. Elle réunit les équipes Dev Div et AI Platform, ainsi qu’une partie des effectifs rattachés directement au bureau du directeur technique de l’éditeur, chargés des sujets de pointe comme le supercalcul et le développement des runtimes dédiés aux agents intelligents. Elle embarque également l’équipe Engineering Thrive, chargée de mesurer et piloter l’efficacité des équipes de développement internes.

Entre autres missions, la division CoreAI devra créer l’ensemble de la pile amenée à sous-tendre les produits IA maison, dont Copilot, aussi bien pour les développements internes que pour ceux assurés par des clients de l’éditeur. « Ce groupe développera également GitHub Copilot, créant ainsi une boucle de rétroaction étroite entre le produit phare de l’IA et sa plateforme », précise Microsoft.

La nouvelle entité travaillera de concert, mais de façon indépendante, avec la division Microsoft AI, créée en mars dernier pour assurer le développement de tous les produits d’IA grand public de l’éditeur.

Le FBI, avec la France, réussit à désinstaller le logiciel malveillant PlugX sur 4 200 ordinateurs

UnpluggedX
Le FBI, avec la France, réussit à désinstaller le logiciel malveillant PlugX sur 4 200 ordinateurs

Le Département de la justice américain et le FBI ont annoncé avoir réussi à supprimer le logiciel malveillant (malware) PlugX de milliers d’ordinateurs basés aux États-Unis. Ils accusent un groupe de pirates chinois d’être à l’origine de ce malware. Les autorités américaines saluent le parquet de Paris, la gendarmerie et l’entreprise de cybersécurité française Sekoia pour la collaboration qui a permis cette opération.

Dans un communiqué de presse publié ce mardi 14 janvier, le Département de la justice (DOJ) américain annonce avoir mené une opération de plusieurs mois pour supprimer le logiciel malveillant « PlugX » de milliers d’ordinateurs infectés dans le monde.

Dans un document envoyé à la justice américaine en décembre et rendu public [PDF] ce mardi, le FBI affirme qu’un groupe de pirates informatiques étatiques chinois, connu sous les noms de « Mustang Panda » et « Twill Typhoon », a utilisé une version du logiciel malveillant PlugX pour infecter, contrôler et voler des informations sur les ordinateurs des victimes « au moins depuis 2014 ».

Le FBI explique qu’il enquête depuis « au moins 2012 » sur ce malware qui a infecté des milliers d’ordinateurs sous Windows à travers le monde.

Propagation par USB

Les pirates ont utilisé PlugX pour accéder à ces ordinateurs à distance et lancer des commandes. « Par exemple, PlugX permet aux pirates de voler (« exfiltrer ») des fichiers et d’autres informations stockés sur les ordinateurs infectés », explique le service américain.

« Cette variante du logiciel malveillant PlugX se propage par le port USB d’un ordinateur, infectant les périphériques USB connectés, puis se propageant potentiellement à d’autres ordinateurs sous Windows sur lesquels le périphérique USB est ensuite branché » détaille le FBI.

« Une fois qu’il a infecté l’ordinateur victime, le logiciel malveillant reste sur la machine (persistance), notamment en créant des clés de registre qui exécutent automatiquement l’application PlugX au démarrage de l’ordinateur. Les propriétaires d’ordinateurs infectés par le logiciel malveillant PlugX ne sont généralement pas au courant de l’infection », ajoute-t-il.

Plus de 4 200 ordinateurs désinfectés aux États-Unis

Le service américain a donc demandé à la Justice la permission de mettre en place une opération de désinstallation de PlugX sur les ordinateurs infectés.

Au total, le département de la Justice américain annonce que « cette opération autorisée par la justice a permis de supprimer le logiciel malveillant PlugX d’environ 4 258 ordinateurs et réseaux basés aux États-Unis ».

Le FBI a prévu d’informer les fournisseurs d’accès internet des victimes et leur a demandé d’informer eux-mêmes les clients dont les ordinateurs ont fait partie du lot qu’il a nettoyé.

Une collaboration avec la France et l’entreprise de sécurité Sekoia

Le communiqué de presse du DOJ salue comme rarement la collaboration avec la France sur le sujet : « cette opération n’aurait pas été couronnée de succès sans la précieuse collaboration de la division cybernétique du parquet de Paris, de l’unité cybernétique de la gendarmerie française C3N et de Sekoia.io ».

« L’opération internationale a été menée par les forces de l’ordre françaises et Sekoia.io, une société privée de cybersécurité basée en France, qui avait identifié et signalé la possibilité d’envoyer des commandes pour supprimer la version PlugX des appareils infectés », ajoute-t-il.

Le communiqué explique qu’ « en collaboration avec ces partenaires, le FBI a testé les commandes, confirmé leur efficacité et déterminé qu’elles n’avaient pas d’impact sur les fonctions légitimes des ordinateurs infectés et qu’elles ne recueillaient pas d’informations sur le contenu de ces derniers ».

Le Parquet de Paris avait annoncé [PDF] en juillet dernier, qu’ « à la suite d’un signalement de la société Sekoia », il avait « ouvert une enquête préliminaire […] confiée au C3N (centre de lutte contre les criminalités numériques de la gendarmerie nationale) concernant un réseau de machines zombies (botnet) comptant plusieurs millions de victimes dans le monde, dont plusieurs milliers en France, utilisé notamment à des fins d’espionnage ». Il expliquait que les machines des victimes avaient été infectées par PlugX.

« En lien avec le C3N, la société Sekoia a développé une solution technique permettant de désinfecter à distance les machines victimes du botnet », ajoutait le parquet qui expliquait avoir lancé l’opération en collaboration avec des partenaires étrangers le 18 juillet et que celle-ci se poursuivrait pendant plusieurs mois.

Ce mardi, le Chief intelligence officer de Sekoia, François Deruty a publié un très sobre message sur Bluesky : « Coopération internationale, fierté de l’équipe TDR de sekoia.io ».

Patch Tuesday : Microsoft corrige 159 failles, dont trois déjà exploitées

Sans attendre
Patch Tuesday : Microsoft corrige 159 failles, dont trois déjà exploitées

Le dernier lâcher de correctifs de Microsoft est imposant. Il vient colmater pas moins de 159 failles réparties dans plusieurs produits de l’entreprise, dans Windows essentiellement. Trois de ces vulnérabilités sont déjà exploitées, rendant l’installation des correctifs urgente.

Le deuxième mardi de chaque mois, Microsoft publie ses correctifs de sécurité. Ils arrosent aussi bien Windows que d’autres produits comme Office, Visual Studio et les environnements .NET. C’est toutefois le système d’exploitation qui concentre l’immense majorité des corrections.

Le premier « Patch Tuesday » de l’année est particulièrement copieux. Pour la Zero Day Initiative de Trend Micro, c’est même le plus important depuis 2017, avec des correctifs pour pas moins de 159 failles, et même 161 si on compte les failles tierces. 11 de ces failles sont critiques, 5 sont connues publiquement et 3 exploitées activement.

D’importantes failles connues ou exploitées

Le principal danger corrigé par ce Patch Tuesday vient d’un lot de huit failles classées comme importantes.

Trois (CVE-2025-21186, CVE-2025-21366 et CVE-2025-21395) résident dans Access et permettent toutes, si exploitées, une exécution de code arbitraire à distance. Elles présentent toutes les trois un score CVSS3.1 de 7,8. CVE-2025-21275 concerne pour sa part App Package Installer, également avec un score de 7,8. Elle peut entrainer une élévation de privilèges. Quant à CVE-2025-21308, avec un score de 6,5, elle touche la gestion des thèmes dans Windows.

Le problème vient surtout d’un groupe de trois failles concernant l’hyperviseur Hyper-V. Estampillées CVE-2025-21333, CVE-2025-21334 et CVE-2025-21335, elles permettent à une personne authentifiée d’exécuter du code avec les privilèges SYSTEM. Ces trois vulnérabilités sont activement exploitées. Il est donc conseillé d’installer les mises à jour au plus vite.

Une dizaine de failles critiques

Si ces failles sont publiques ou exploitées, elles sont « seulement » importantes. Les correctifs publiés hier soir colmatent également 11 brèches critiques :

  • CVE-2025-21380 (CVSS 8,8) : Azure Marketplace SaaS Resources, peut révéler des informations
  • CVE-2025-21296 (CVSS 7,5) : BranchCache, exécution de code à distance
  • CVE-2025-21294 (CVSS 8,1) : Digest Authentication, exécution de code à distance
  • CVE-2025-21385 (CVSS 8,8) : Purview, peut révéler des informations
  • CVE-2025-21295 (CVSS 8,1) : SPNEGO Extended Negotiation (NEGOEX), exécution de code à distance
  • CVE-2025-21178 (CVSS 8,8) : Visual Studio, exécution de code à distance
  • CVE-2025-21311 (CVSS 9,8) : NTLM V1, élévation de privilèges
  • CVE-2025-21298 (CVSS 9,8) : OLE (Object Linking and Embedding), exécution de code à distance
  • CVE-2025-21307 (CVSS 9,8) : Reliable Multicast Transport Driver (RMCAST), exécution de code à distance
  • CVE-2025-21297 (CVSS 8,1) : Remote Desktop Services, exécution de code à distance
  • CVE-2025-21309 (CVSS 8,1) : Remote Desktop Services, exécution de code à distance

On peut voir que trois de ces failles ont un score CVSS de 9,8, soit pratiquement le maximum.

En tout, ce Patch Tuesday colmate une soixantaine de failles pouvant permettre des exécutions de code. Autre point notable, le service Téléphonie de Windows reçoit à lui seul 28 correctifs, mais qui nécessitent tous une interaction avec l’utilisateur. Les 11 failles critiques, les 5 failles importantes publiques et les trois failles importantes déjà exploitées sont en revanche dangereuses. Il est conseillé de mettre à jour rapidement sa ou ses machines.

Les préfectures ont autorisé 1 800 surveillances administratives par drones en 2024

RAA Lovely
Les préfectures ont autorisé 1 800 surveillances administratives par drones en 2024

Deux datajournalistes du Monde ont eu recours à un scraper en Python ainsi qu’à une IA pour parvenir à identifier combien d’autorisations de survol par drones avaient été accordées par les 104 préfectures françaises à la police, la gendarmerie et la douane.

Si les drones sont employés par la police et la gendarmerie « depuis une quinzaine d’années », rappelle Le Monde, il a fallu attendre le 19 avril 2023 pour qu’un décret (voir notre article) encadre leur utilisation dans le cadre de missions de police administrative, « c’est-à-dire pour empêcher les troubles ou la commission d’infractions ».

Il précisait aussi les six finalités autorisées, allant de la « prévention des atteintes à la sécurité des personnes et des biens dans des lieux particulièrement exposés » jusqu’au secours aux personnes en passant par la surveillance des frontières, « en vue de lutter contre leur franchissement irrégulier ».

Dans sa délibération, la CNIL remarquait alors que « la diversité des situations opérationnelles auxquelles les forces de sécurité sont confrontées ne permet pas de définir dans le projet de décret des critères objectifs encadrant la captation, l’enregistrement et la transmission d’images », et considérait que « de telles précisions devront figurer dans la doctrine d’emploi qui devra lui être transmise ». 

Moins d’un mois plus tard, Le Monde avait déjà dénombré 55 autorisations préfectorales, dont 23 utilisations pour surveiller des manifestations (10 rien que pour le 1er mai), 10 autres pour suivre des rodéos urbains, 4 pour des rave-parties et 3 pour des événements sportifs.

346 manifestations, des vols d’huitres et une inauguration de restaurant

Les arrêtés collectés par Le Monde montrent que les drones ont depuis été utilisés pour sécuriser les Jeux olympiques et paralympiques (248 arrêtés) ou d’autres événements sportifs (152 arrêtés, souvent pour des matchs de football), des visites officielles (une cinquantaine d’arrêtés), des commémorations (environ 30 arrêtés), du secours aux personnes (environ 50 arrêtés) ou encore des opérations de surveillance des frontières (59 arrêtés).

Le Monde a aussi identifié 346 autorisations accordées pour surveiller des manifestations, dont 93 à Paris, et 24 en Ille-et-Vilaine et en Gironde, près de 300 autres pour des opérations « place nette » anti-stupéfiants, et découvert des usages plus surprenants :

« les drones ont servi à « connaître le nombre exact » de caravanes sur un rassemblement de gens du voyage à Lunéville (Meurthe-et-Moselle), empêcher des vols d’huîtres dans le bassin d’Arcachon, ou encore, dans les Yvelines, sécuriser l’inauguration d’un restaurant du rappeur Ninho. »

30 % des autorisations accordées la veille, 18 % le jour même

Le Monde rappelle que « les préfectures doivent s’assurer que les drones ne soient utilisés qu’en l’absence de solution alternative moins intrusive en matière de vie privée », et rapporte (au moins) trois cas où le tribunal administratif a suspendu des arrêtés.

Dont une autorisation de surveillance d’un centre de rétention administrative, au motif qu’il existait d’autres moyens « moins intrusifs » pour « prévenir les évasions et les projections » tels que, résume Le Monde, « un meilleur éclairage, la couverture de la cour, la sécurisation du chemin de ronde, une modernisation de la vidéosurveillance, etc. ».

L’article souligne cela dit que « saisir la justice est parfois complexe, avec des délais serrés : 30 % des arrêtés sont signés la veille, et 18 %, le jour même du survol autorisé, y compris pour des manifestations déclarées par avance ».

Or, et à l’instar du recours à des caméras de vidéosurveillance ou de vidéoprotection, la présence de tels drones doit être notifiée aux personnes potentiellement surveillées, « par tout moyen approprié ».

Si la préfecture de police de Paris rétorque ainsi que chaque autorisation « fait l’objet d’une diffusion sur les réseaux sociaux », Le Monde a constaté que, dans la plupart des départements, les autorisations ne sont publiées que dans le seul « recueil des actes administratifs » (RAA), et donc « au milieu de dizaines, voire de centaines de pages d’autres arrêtés préfectoraux ».

Les coulisses techniques de l’enquête

Sur LinkedIn, la datajournaliste et développeuse Léa Sanchez, coautrice de l’enquête, explique avoir codé un programme en Python pour collecter tous les arrêtés préfectoraux datant de 2024 sur les sites des 104 préfectures françaises, avant d’OCRiser ceux qui étaient au format image.

Ayant ainsi recueilli plus de 5 000 arrêtés mentionnant le mot « drone », elle a ensuite utilisé un modèle d’IA pour écarter les autorisations non pertinentes (comme les autorisations de spectacle aérien), extraire les informations principales des arrêtés et les classifier en diverses catégories (manifestation, surveillance des frontières, etc).

Théo Simier, « Tech Lead Data » au Monde, qualifie cette enquête, à laquelle il a lui aussi contribué, de « parfait exemple d’un usage pertinent de l’Intelligence Artificielle (IA) pour le journalisme avec » :

  • « une utilisation pour une enquête difficilement faisable sans une certaine forme d’automatisation (analyse fine de plus de 5000 actes administratifs des préfectures)
  • une vérification manuelle minutieuse afin d’éviter toute erreur factuelle
  • une transparence auprès des lecteurs sur l’usage de l’IA et ses limites
  • une mise en valeur journalistique des données extraites, aboutissant à une enquête éclairante. »

Il explique avoir aidé la datajournaliste « sur le prompt engineering afin d’orienter au mieux l’IA », la mise en place de « la technique du few-shot learning » (une méthode d’apprentissage automatique où un modèle est entraîné à classer des items en fonction de leur similarité à partir de très peu de données, précise la CNIL) en donnant quelques actes administratifs déjà analysés, « afin d’améliorer la pertinence du modèle ».

Il l’a enfin aidé de sorte que la sortie du LLM « respecte un format précis plus facilement analysable », ainsi que « sur l’estimation en amont des coûts afin de s’assurer qu’ils restent sous contrôle ».

FreeOurFeeds, l’initiative qui veut libérer les réseaux sociaux de l’influence des milliardaires

Bien commun social
FreeOurFeeds, l’initiative qui veut libérer les réseaux sociaux de l’influence des milliardaires

Portée par des personnalités du numérique comme du divertissement, FreeOurFeeds veut financer de nouveaux projets fonctionnant sur le protocole qu’utilise Bluesky, et décentraliser la gouvernance de cette infrastructure technique.

X fait fuir une partie de ses utilisateurs, Meta pourrait s’y mettre, vu les récentes décisions de son patron… et Bluesky fait partie des premiers bénéficiaires de cette tendance. Avec sa réputation de réseau social « décentralisé », la plateforme vient de dépasser les 27 millions d’utilisateurs. 

Pour autant, même si son architecture permettra à Bluesky de devenir, à terme, un nœud dans un réseau plus vaste et réellement décentralisé, la plateforme ne l’est pas encore vraiment, comme nous l’expliquions en novembre :

Cela inquiète suffisamment pour qu’une étrange coalition lance l’initiative Free Our Feeds (« libérez nos fils d’actualité »). Le groupe comprend notamment l’acteur Mark Ruffalo, l’écrivain technocritique Cory Doctorow, le fondateur de Wikipédia Jimmy Wales, le musicien Brian Eno ou la directrice exécutive de la Fondation Mozilla Nabiha Syed et une variété d’autres personnalités plus ou moins proches de l’industrie technologique.

Le but du projet : réunir des financements pour faire émerger l’écosystème varié au sein duquel Bluesky est initialement censé se fondre. Ce faisant, l’idée des fondateurs de FreeOurFeeds est d’éviter que les internautes, dont une partie voient actuellement Bluesky comme un refuge, ne retrouvent à nouveau leur expérience prisonnière des variations de politiques de l’entreprise qui maintient la plateforme.

Bluesky, principal représentant d’une future fédération

Bluesky fonctionne sur le protocole AT (Authenticated Transfer), une architecture qui a le potentiel de soutenir un écosystème décentralisé de plateformes et d’application, mais dont le fonctionnement est pour le moment essentiellement dans les mains du nouveau réseau social.

En visant la levée de 30 millions de dollars sur les trois prochaines années, et 4 millions de dollars à court terme, FreeOurFeeds veut pousser cette émergence d’un écosystème plus large. En pratique, l’initiative compte faire évoluer la gouvernance du protocole AT, en créant une organisation d’intérêt public, et financer le développement d’infrastructures indépendantes, puis de nouveaux projets recourant au protocole.

« Imaginez notre réseau routier si toutes les routes appartenaient à un ou deux milliardaires et qu’ils pouvaient taxer n’importe quoi, décider qui est autorisé à aller où, etc, illustre l’un des « gardiens » du projet, Robin Berjon, auprès de TechCrunch. L’infrastructure numérique n’est pas aussi grande ni aussi visible, mais elle fonctionne exactement de la même manière (…) Ce que nous faisons donc, c’est veiller à ce que cette infrastructure numérique, qui est par nature un bien public, soit gérée dans l’intérêt du public. »

Bluesky n’a pas participé au projet, mais sa PDG Jay Garber a déclaré à Fortune : « Nous avons hâte de travailler avec des organisations comme le Projet Free Our Feeds pour faire croître l’adoption du protocole AT et de réseaux ouverts. »

Trouver les fonds

L’enjeu, désormais, est d’attirer des financements. Une complexité en soi, tant la technicité du projet peut compliquer sa compréhension. Robin Berjon indique que si les fonds espérés pour créer la fondation ne sont pas suffisants, ils seront rendus à ceux qui les proposent.

Il insiste auprès de Fortune : le protocole AT n’est pas encore normalisé, c’est donc le moment idéal pour trouver « comment plusieurs opérateurs d’infrastructure peuvent travailler ensemble pour s’assurer que l’ensemble du réseau fonctionne sans heurts, et pour veiller à ce qu’il n’y ait pas de concentration excessive du pouvoir ».

Le défi suivant sera de convaincre le plus grand nombre de faire la transition depuis les réseaux historiques, alors que ces derniers recueillent des années, voire des décennies, de nos interactions sociales.

L’initiative résonne en tout cas avec celle prise par le fondateur de Mastodon, qui travaille actuellement à faire évoluer sa gouvernance. Le but : la placer dans les mains d’une organisation à but non lucratif européenne, pour protéger son indépendance.

❌