Vue lecture

☕️ Pour la Cour suprême, TikTok peut être interdite aux États-Unis dès dimanche

La Cour suprême vient d’affirmer [PDF] que l’interdiction de TikTok prévue par la loi votée pour ce cas particulier pouvait entrer en vigueur ce week-end. Elle rejette donc le recours de l’entreprise et de ByteDance qui affirmaient que l’interdiction violait le premier amendement.

TikTok

« Il ne fait aucun doute que, pour plus de 170 millions d’Américains, TikTok offre un moyen d’expression distinctif , un moyen d’engagement et une ressource de communauté » reconnait la Cour suprême.

« Mais le Congrès a déterminé que la cession était nécessaire pour répondre à ses préoccupations de sécurité nationale bien étayées concernant les pratiques de collecte de données de TikTok et ses relations avec un adversaire étranger », affirme la Cour. Elle ajoute : « nous concluons que les dispositions contestées ne violent pas les droits du premier amendement des requérants ».

« L’arrêt de la Cour d’appel des États-Unis […] est confirmé », conclut la Cour suprême.

Parcoursup : dans l’enfer des « algorithmes »

Que le sort puisse vous être favorable
Parcoursup : dans l’enfer des « algorithmes »

Pendant les prochains mois, un peu moins d’un million d’étudiants vont passer à la moulinette de Parcoursup. Une épreuve stressante pour les candidats et leur famille, avec une procédure pas toujours comprise. On vous explique comment ça fonctionne et les changements de cette année.

Parcoursup est la plateforme nationale de préinscription en première année de l’enseignement supérieur en France selon sa propre définition. Depuis 2018, c’est un passage quasi obligatoire pour la poursuite d’études post bac.

Le fonctionnement n’est pas toujours bien compris, parfois opaque – notamment au niveau des algorithmes, avec l’impression qu’une machine décide de notre vie – et avec des dérives de certains établissements. C’est aussi une source de stress importante pour les candidats (et les parents).

Le calendrier 2025 de Parcoursup

Depuis le 15 janvier, les étudiants peuvent s’inscrire et formuler des vœux, et ce, jusqu’au 13 mars. Les élèves ont ensuite jusqu’au 2 avril pour compléter leur dossier et confirmer leurs vœux. Ensuite, c’est parti pour une attente plus ou moins longue…

Le 2 juin 2025, c’est le « début de la phase principale d’admission », c’est-à-dire les premières réponses des formations (oui, non, liste d’attente). Le 11 juin débute la phase complémentaire avec la possibilité de formuler de nouveaux vœux. La phase principale d’admission se termine le 10 juillet et la phase complémentaire le 11 septembre pour ceux qui n’ont pas d’affectation en juillet.

Parcoursup est né des cendres d’APB

Pour comprendre la genèse de Parcoursup, il faut remonter à Admission Post-Bac (APB) lancé à la fin des années 2000. Les candidats y faisaient des vœux avec un classement par ordre de préférence, tandis que les établissements entraient le nombre de places disponibles et les conditions d’accès aux formations.

Ensuite, une machine passait ces éléments à la moulinette de l’algorithme de Gale-Shapley, dont le but est de résoudre un problème dit de « mariages stables ». Cet algorithme est capable de proposer une solution « stable » (dans le sens équitable) aux candidats, de sorte qu’aucun n’ait l’impression de se faire avoir.

Nous n’allons pas entrer dans les détails, mais on ne peut que vous conseiller de regarder l’excellente vidéo de David Louapre (chaine YouTube Science Étonnante) sur le sujet. Elle date de 2020, mais explique en images et avec des exemples l’algorithme de Gale-Shapley, les problèmes d’APB et les débuts de Parcoursup.

Deux gros problèmes ont causé la chute d’APB : les élèves pouvaient tenter de « craquer le code » et d’optimiser le classement de leurs vœux non pas en fonction de leurs envies, mais pour renforcer leurs chances. Il y avait aussi la gestion pour le moins hasardeuse de certaines formations sous tension, c’est-à-dire avec un grand nombre de candidats. « À la mi-juillet 2017, plus de 86 000 candidats, bacheliers de l’année ou en demande de réorientation, restaient sans proposition. L’autorisation d’un tirage au sort pour l’accès à certaines filières a achevé de gripper le système », expliquait Vie Publique en octobre 2017. La CNIL était même montée au créneau pour dénoncer cette pratique.

Parcoursup est ainsi né sur les cendres d’APB, avec deux principales différences : pas de classement des vœux par les candidats (même si les choses changent, nous y reviendrons) et pas de recours au tirage au sort. Le principe de l’algorithme de Gale-Shapley reste, mais les candidats doivent valider/classer leurs vœux au fil des semaines en fonction des propositions des formations. Conséquence directe : la procédure prend des semaines, avec des allers-retours entre les formations et les candidats, autour de Parcoursup qui joue les passe-plats.

Parcoursup, comment ça marche ?


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Microsoft monte le prix de ses offres 365 Personnel et Famille au nom de l’IA

Microsoft monte le prix de ses offres 365 Personnel et Famille au nom de l’IA

Microsoft vient de procéder à l’intégration de Copilot, son assistant basé sur une intelligence artificielle générative, au sein des éditions Personnel et Famille de sa suite Microsoft 365. Word, Excel, PowerPoint ou Outlook s’ouvrent ainsi aux joies de l’IA… au prix toutefois d’un abonnement en hausse de 30 %.

Lancée en 2013, la suite Office 365, devenue Microsoft 365, représente une inflexion stratégique dans la politique commerciale de l’éditeur de Windows, puisqu’elle incarne le passage d’une licence perpétuelle, achetée et détenue sans limite de temps, à une logique d’abonnement. Depuis plus de dix ans, Microsoft invoque une démarche d’amélioration et d’enrichissement fonctionnel continus pour justifier cette bascule.

L’IA au service des usages grand public

L’éditeur de Redmond franchit cette semaine un nouveau cap, qu’il qualifie de majeur, dans le développement de sa suite bureautique auprès du grand public. Outre l’intégration de Designer, son application dédiée à la retouche d’images et à la création visuelle, à l’abonnement, il vient en effet de déployer son assistant basé sur l’IA, Copilot, au sein des abonnements Microsoft 365 Personnel et Microsoft 365 Famille.

« Microsoft 365 est désormais enrichi de Copilot, notre puissant assistant IA qui simplifie l’exécution des tâches. Votre abonnement débloque des crédits IA pour découvrir Copilot sur les applications Microsoft 365 et au-delà », annonce une invite à l’ouverture des principaux logiciels de la suite.

Dans Word, Excel, PowerPoint, Outlook, OneNote ou Designer, un bouton Copilot fait son apparition au niveau du ruban. À chaque fois, il promet une création, une analyse ou une rédaction automatisée, totalement ou partiellement, à partir de requêtes exprimées en langage naturel.

Impossible en revanche d’utiliser les fonctions Copilot sur un compte de messagerie géré par ses soins. « Les fonctionnalités Copilot dans Outlook s’appliquent aux comptes avec des adresses de messagerie @outlook.com, @hotmail.com, @live.com ou @msn.com et sont disponibles dans Outlook.com, Outlook intégré à Windows, Outlook sur Mac et iOS et l’application Android », stipule l’éditeur.

Dans un billet d’annonce, Microsoft insiste sur les possibilités offertes par Copilot, vidéos à l’appui, dans une optique grand public. L’éditeur montre par exemple comment son assistant sait analyser un budget, résumer un long mail, créer un diaporama animé, ou retoucher une photo.

Microsoft, qui depuis un an restructure son organisation interne pour placer l’IA au cœur de son ingénierie et de tous ses développements produit, notamment grand public, présente cette annonce comme une forme d’aboutissement. « La majorité de nos 84 millions d’abonnés auront désormais accès à Copilot (…) et pourront ainsi tirer parti de l’assistant IA dans les applications de productivité qu’ils connaissent et apprécient déjà », écrit l’éditeur.

60 crédits mensuels

Microsoft ne donne cependant pas vraiment carte blanche pour utiliser Copilot. L’assistant est en effet disponible tant que le compte de l’utilisateur dispose des crédits correspondants. En l’occurrence, un abonnement Personnel ou Famille ouvre droit à 60 crédits, un solde qui se recharge automatiquement au début de chaque mois. « Vous utilisez un crédit à chaque requête adressée à l’IA dans des applications telles que Word, PowerPoint ou Designer », explique Microsoft, dont la FAQ précise par ailleurs que les crédits non utilisés ne sont pas reportés sur le mois suivant.

Dans le cas d’un abonnement Famille (qui permet d’associer jusqu’à cinq utilisateurs différents), seul le propriétaire de l’abonnement reçoit ces 60 crédits. Les autres devront soit souscrire leur propre abonnement, soit prendre la formule Copilot Pro, dédiée à l’IA, en complément de leur accès partagé.

Une fois les 60 crédits dépensés, le détenteur du compte est lui aussi invité à se tourner vers la formule Copilot Pro, facturée pour mémoire 22 euros par utilisateur et par mois.

30 % d’augmentation pour Microsoft 365

Les 60 crédits proposés dans le cadre de l’abonnement se traduisent quant à eux très directement sur le prix de l’abonnement. « Pour refléter les nombreuses innovations intégrées au cours des 12 dernières années, nous augmentons pour la première fois le prix de l’offre Microsoft 365 Personnel et Famille de 3 dollars par mois », indique Microsoft.

En France, le tarif annuel de l’offre Microsoft 365 Personnel passe ainsi de 69 euros à 99 euros par an. La formule Microsoft 365 Famille voit quant à elle son prix passer de 99 à 129 euros par an. « Les abonnés actuels ne verront pas cette augmentation avant leur prochain renouvellement », souligne l’éditeur. Il propose aux clients aux besoins ou aux budgets non compatibles de migrer vers l’offre Basic (abonnement à 20 euros par an, version Web uniquement des logiciels et stockage limité à 100 Go).

Une offre Classique pour les réfractaires à l’IA

Conscient que la pilule risque de paraître difficile à avaler pour les abonnés réfractaires à l’IA, Microsoft a prévu une porte de sortie, sous la forme de versions « Classique » des deux abonnements préexistants.

« Les abonnés existants avec la facturation périodique activée peuvent basculer vers d’autres plans sans crédits Copilot ou IA, comme Microsoft 365 Basic, ou, pendant une durée limitée, vers nos nouveaux plans Microsoft 365 Personnel Classic ou Microsoft 365 Famille Classic », explique une page de support dédiée.

☕️ Le PCIe 7.0 (512 Go/s) toujours en piste pour 2025, la version 0.7 disponible

En ce début d’année, le PCI-SIG, en charge de développer le PCI Express, vient d’annoncer que la version 0.7 du PCIe 7.0 était disponible pour ses membres. Le PCIe 7.0 avait été annoncé pour la première fois en 2022.

En plus de doubler la bande-passante par rapport au PCIe 6.0, cette mouture passe au PAM 4. Au-delà de doubler le débit, le but est de proposer « une faible latence et une haute fiabilité », tout en améliorant « l’efficacité énergétique », affirme le PCI-SIG.

Cette version 0.7 arrive après la 0.5 en avril 2024 et la 0.3 en juin 2023. C’est surtout l’occasion de rappeler que le PCIe 7.0 est toujours prévu pour 2025. Mais autant dire que ce n’est pas un goulot d’étranglement pour le moment puisque les dernières RTX 50 de NVIDIA ne sont « que » PCIe 5.0, contre PCIe 4.0 pour la génération précédente.

Le PCIe 7.0 ne vise pas spécialement les joueurs pour le moment, mais plutôt l’Ethernet 800G, l’intelligence artificielle, l’informatique quantique, le calcul haute performance…

2025-2028 : la CNIL prend le dossier de l’IA sous l’angle de la promotion de l’éthique

Faudrait pas fâcher
2025-2028 : la CNIL prend le dossier de l’IA sous l’angle de la promotion de l’éthique

La CNIL a publié son plan stratégique pour les quatre prochaines années. Celui-ci contient quatre axes dont la protection des mineurs, la cybersécurité et les usages numériques du quotidien. Mais l’autorité veut en premier lieu « promouvoir une intelligence artificielle éthique et respectueuse des droits ».

L’autorité de protection des données personnelles vient, ce jeudi 16 janvier, de publier son plan stratégique pour 2025 - 2028. Celui-ci comporte quatre grands axes : intelligence artificielle, droits des mineurs, cybersécurité et usages du quotidien numérique.

L’IA en premier, mais en douceur

Mais le premier axe de la CNIL pour ces quatre prochaines années est bien l’IA, mais dans un rôle de promotion d’ « une intelligence artificielle éthique et respectueuse des droits ». L’autorité semble être rassurée sur son rôle concernant l’IA en affichant cet objectif comme axe numéro 1 de ce plan. En effet, en 2023, elle luttait avec les différents comités mis en place par l’exécutif sur le sujet et poussait son expertise sur les enjeux de protection des données personnelles liés à l’IA. Elle mettait alors en avant sa volonté d’accompagner avant de contrôler, et semble n’avoir pas changé de logique quant à son rôle de contrôle et de sanction.

En effet, pas question, dans ce document en tout cas, de transformer la CNIL pour réguler l’IA générative, comme l’avaient suggéré des députés il y a un an. Les deux premiers objectifs de cet axe sont de « contribuer au partage de connaissances et d’expertise au sein de l’écosystème de l’IA » et de « clarifier le cadre juridique applicable et mettre en œuvre une régulation effective et équilibrée ». Vient ensuite la volonté de la CNIL de « sensibiliser le grand public aux enjeux de l’IA et le former à l’exercice de ses droits ».

Vient seulement en quatrième objectif le fait de « contrôler la conformité des systèmes d’IA », avec d’abord la volonté de concevoir une méthodologie, puis de « participer à des opérations de contrôles conjointes avec les autorités de protection des données européennes » et enfin de « poursuivre les contrôles des dispositifs d’IA utilisés par l’État et les collectivités territoriales, en particulier dans le cadre de caméras augmentées ».

L’autorité présente plutôt l’intégration de l’IA dans son plan stratégique 2025 - 2028 comme « [s’inscrivant] dans le prolongement de travaux de fond de la CNIL (fiches pratiques, webinaires, colloques) destinés à clarifier le cadre légal, dialoguer avec l’écosystème et développer des capacités d’audit des systèmes ».

Protection des mineurs et « faire de chacun un acteur de la cybersécurité »

Dans son deuxième axe pour les quatre prochaines années, la CNIL veut se concentrer sur la protection des mineurs. Elle prévoit notamment d’augmenter sa présence « sur l’ensemble du territoire national pour sensibiliser le plus grand nombre aux questions de protection des données personnelles et recenser sur le terrain les besoins » et de développer des partenariats avec la communauté éducative, les associations, les collectivités locales et les médias dans les territoires.

Encore une fois, la CNIL met d’abord en avant sa mission de promotion des droits et d’un « usage responsable du numérique ». Le contrôle des opérateurs qui proposent des services en ligne au public mineur est le dernier objectif de cet axe.

Le renforcement de la cybersécurité sur le territoire constitue le troisième axe de ce plan. La CNIL se donne comme objectif notamment de « consolider la coopération et la coordination avec l’écosystème de la cybersécurité » en assurant une « application cohérente et harmonisée des nouveaux textes européens (NIS2, DORA, RIA) en matière de cybersécurité, en lien avec les autres régulateurs ». Elle continuera logiquement à accompagner les victimes de violations de données mais se donne aussi comme objectif de « contribuer au développement de solutions techniques protectrices de la vie privée ». Le renforcement du « respect des règles applicables en matière de sécurité par le contrôle et la sanction » vient aussi en quatrième objectif de cet axe.

Enfin, concernant les usages numériques du quotidien, l’autorité affiche sa volonté de poursuivre la mise en œuvre de son plan d’action « applications mobiles » pour protéger la vie privée des personnes. Elle continuera aussi son travail sur les systèmes d’identité numérique comme le portefeuille européen d’identité numérique (PEIN) ou les solutions de vérification d’identité et de vérification d’âge en ligne.

Émotions à l’Assemblée nationale : est-ce vraiment la faute des réseaux sociaux ?

GPT au rapport
Émotions à l’Assemblée nationale : est-ce vraiment la faute des réseaux sociaux ?

Dans une note du CEPREMAP, trois économistes constatent l’évolution de la teneur des débats à l’Assemblée nationale. Ils décrivent l’émergence d’une « politique TikTok », surtout portée par La France Insoumise. La méthodologie de leurs travaux fait débat.

L’Assemblée nationale, scène de spectacles sous l’effet des réseaux sociaux, et notamment de TikTok ? C’est la thèse détaillée dans une note de l’Observatoire du bien-être au Centre pour la recherche économique et ses applications (CEPREMAP).

Intitulée « La Fièvre parlementaire : ce monde où l’on catche ! Colère, polarisation et politique TikTok à l’Assemblée nationale », la note est co-signée par l’économiste Yann Algan, professeur d’économie à HEC, Thomas Renault, maître de conférence en économie à Paris 1, et Hugo Subtil, chercheur post doctoral à l’Université de Zürich.

Parmi les principaux éléments, les trois auteurs soulignent l’évolution de la tonalité des échanges au fil de la décennie. En 2014, selon leur analyse, « 22 % des discours appartiennent au registre émotionnel plutôt qu’au registre rationnel et des faits. Cette part augmente à 30 % avec l’Assemblée élue en 2017, puis culmine à 40 % avec celle de 2022 jusqu’à sa dissolution en juin 2024. » Deux partis affichent le plus d’interventions classées « émotionnelles » : la France Insoumise (LFI) et le Rassemblement national (RN).

Autre donnée avancée : la réduction des prises de parole, qui traduirait une évolution de fond dans les discours. « Il ne s’agit plus de débattre rationnellement et de convaincre, mais d’exciter les émotions des followers sur [les] réseaux » sociaux. En pratique, tous les partis auraient réduit leur temps de parole, mais LFI plus que les autres, « avec pas plus de 150 mots en moyenne en 2024 ».

Mêlé à des émotions comme la colère, ce format, indiquent-ils plus loin, « correspond exactement au format vidéo de moins d’une minute posté sur les réseaux », et notamment sur TikTok. Entre 2017 et 2024, les auteurs de la note relèvent néanmoins une augmentation de 25 % du nombre d’interruptions de discours, coupes qui peuvent aussi expliquer la réduction des propos.

Enfin, les trois économistes évoquent une polarisation « multipliée par six » au cours de la période, et notamment aggravée au cours des législatures de 2017 - 2022 et 2022 - 2024. « Le choc des colères se manifeste notamment par la violence verbale et le niveau sonore élevé. Selon les rédacteurs des débats de l’Assemblée, les députés ne parlent plus, ils hurlent. »


Des interruptions potentiellement sous-estimées

Mais la méthodologie de la note interroge. Pour réaliser leur analyse, les chercheurs ont récupéré sur le site NosDéputés.fr 1,9 million de discours prononcés de 2007 à 2024 par 1 622 députés issus de 29 partis politiques.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Apple met en pause ses résumés de notifications pour les actualités dans iOS 18.3

iOS 18.3 est en cours de développement et on peut accéder à la bêta depuis les réglages de l’appareil. Avec la bêta 3 sortie hier soir, plusieurs personnes ont remarqué qu’une fonction avait disparu : les résumés de notifications pour les applications d’actualités.

Ces résumés ont provoqué bien des problèmes depuis leur arrivée. Le modèle IA d’Apple se prend régulièrement les pieds dans le tapis, au point d’annoncer de fausses informations.

Particulièrement gênant quand il s’agit des notifications de l’application d’un média, comme s’en était émue la BBC. La fonction d’Apple lui avait fait annoncer, entre autres, que « Luigi Mangione s’est tiré une balle », en référence à l’homme qui a abattu en pleine rue Brian Thompson, PDG de UnitedHealthcare. Or, il n’en était rien.

MacRumors, qui a remarqué l’arrêt du fonctionnement, indique que d’autres changements ont eu lieu. Les résumés sont ainsi présentés en italique pour mieux les distinguer des notifications classiques. En outre, on peut agir sur les résumés directement depuis l’écran verrouillé, via un glissement vers la gauche sur la notification.

Les résumés peuvent toujours être désactivés depuis Paramètres > Notifications, mais l’Europe n’est pas encore concernée. Le bouquet Apple Intelligence n’arrivera en effet qu’en avril, très probablement avec iOS 18.4. Sur les Mac, on peut déjà se servir d’Apple Intelligence au sein de l’Union, mais uniquement quand le système est en anglais.

On notera qu’Apple avait promis effectivement une mise à jour pour mieux présenter les résumés pour ce qu’ils sont. Cependant, on ne sait rien d’une éventuelle mise à jour sous le capot, pour agir directement sur la génération des contenus. Le fait qu’Apple désactive les résumés pour les applications de médias sonne comme un aveu d’échec, même si l’entreprise aime à répéter depuis plusieurs mois qu’il s’agit d’une fonction en bêta.

Les terminaux représenteraient 50 % de l’empreinte carbone du numérique

À consommer avec modération
Les terminaux représenteraient 50 % de l’empreinte carbone du numérique

En 2022, les biens et services liés au numérique représentaient 4,4 % de l’empreinte carbone de la France, avec des émissions à chercher à hauteur de 50 % du côté des terminaux, contre 46 % pour les centres de données. C’est ce que révèle la version mise à jour d’une étude Ademe-Arcep d’évaluation de l’impact environnemental du numérique en France. Elle propose par ailleurs une nouvelle clé de répartition entre les impacts environnementaux liés à la fabrication des terminaux et ceux associés à leur usage.

Le calcul de l’impact environnemental du numérique relève d’une forme de gageure, tant il est difficile de mesurer avec précision le cycle de vie complet d’une chaîne qui, pour l’envoi d’un simple email, va des mines dont sont extraits les matériaux nécessaires à la fabrication des terminaux, jusqu’à l’énergie utilisée pour alimenter les équipements réseau chargés de son acheminement. L’exercice se révèle pourtant nécessaire pour évaluer le poids réel de ce secteur en plein essor et nourrir l’action publique en matière de transition environnementale et de numérique responsable.

Un périmètre mis à jour et étendu

En France, c’est l’équipe combinée formée par l’Ademe et l’Arcep qui s’est attelée à cet épineux dossier, avec une première étude d’impact publiée en 2022, et portant sur les consommations mesurées en 2020. À l’époque, les deux institutions évaluaient à 17,2 millions de tonnes équivalent CO2 les émissions liées à ce secteur, soit 2.5 % des émissions de la France en 2020. Elles estimaient également que la phase de fabrication des terminaux dédiés aux utilisateurs finaux concentrait près de 80 % de leurs impacts environnementaux, contre 20 % seulement engendrés par leur utilisation.

Pour tenter de dresser la carte des impacts du numérique, les chercheurs responsables de l’étude avaient opté pour une segmentation en trois tiers, en envisageant séparément les terminaux utilisateurs (ordinateurs, smartphones, téléviseurs…), les centres de données et le réseau.

Ils admettaient que l’étude présentait certaines limites, notamment parce qu’elle ne prenait en compte que les infrastructures situées en France (logique de production), alors même que de nombreux services en ligne populaires s’appuient sur des ressources hébergées à l’étranger (logique de consommation).

Pour pallier ces lacunes et tenir compte de l’accélération des usages, l’Ademe et l’Arcep ont remis le métier sur l’ouvrage, et procédé à une actualisation de leur étude initiale. La version mise à jour, publiée mi-janvier (PDF), s’appuie d’abord sur des données plus récentes, puisqu’elle envisage les usages de 2022, soit l’année des prémices de l’intelligence artificielle accessible au grand public (ChatGPT a été lancé le 30 novembre 2022).

L’étude intègre par ailleurs trois dimensions supplémentaires : la prise en compte des data centers situés à l’étranger, l’évolution du marché des téléviseurs vers l’OLED et les grandes diagonales, ainsi que des données plus précises sur l’empreinte de la fourniture d’accès à Internet, extraites de la base NégaOctet et complétées par les opérateurs. La démarche reste fidèle à la méthode ACV (analyse du cycle de vie) sous sa forme attributionnelle, sans prise en compte des impacts indirects (effets rebonds).

4,4 % de l’empreinte carbone et 11 % de la consommation électrique

Sur la base de ce périmètre étendu, l’étude estime à 29,5 Mt CO2éq l’empreinte carbone générée sur l’année 2022 par le numérique, « ce qui représente un peu moins que les émissions totales du secteur des poids lourds », remarquent les auteurs.

Les terminaux utilisateurs représentent, selon l’étude, 50 % de cette empreinte carbone. Les centres de données pèsent quant à eux 46 %, en sachant que l’Ademe et l’Arcep évaluent à 53 % la part des usages associés à des infrastructures hébergées à l’étranger. Enfin, le fonctionnement des réseaux de télécommunication (fixes, mobiles ou dorsal, box FAI comprises) équivaudrait à 4 % de l’empreinte totale du secteur.

L’étude propose d’ailleurs de comparer les données de 2022 sur le nouveau périmètre à celles de 2020, mais aussi à celles de 2020 corrigées de l’imprécision liée à la non prise en compte des data centers situés à l’étranger, en réponse à la très complète contre-analyse qu’avait prodiguée le cabinet de conseil Hubblo.

Les deux institutions calculent que le numérique a représenté, en 2022, 51,5 TWh, soit 11,3 % de la consommation électrique française. Une enveloppe qui monte à 65 TWh, en intégrant la consommation des centres de données situés à l’étranger. « À l’échelle d’une personne habitant en France, cela correspond à 434 kg eq. CO2, soit 22 % des émissions soutenables (2 tonnes par personne et par an) », soulignent les auteurs.

La fabrication concentre la majorité des impacts

« On peut également noter qu’une personne mobilise 1,7 tonne de matériaux par an pour son utilisation du numérique », mesure encore l’étude. Elle estime à 117 millions de tonnes la masse totale de ressources utilisées pour produire et utiliser les équipements associés sur un an à l’échelle nationale.

Sur le volet matériel, l’étude s’efforce, comme en 2020, de prendre en compte l’ensemble du cycle de vie, de la fabrication jusqu’à la gestion de la fin de vie. « 60 % des émissions carbone sont liées à la fabrication, à la distribution et à la fin de vie des équipements et infrastructures numériques, et 40 % à l’utilisation ; ce qui signifie que la phase d’usage reste minoritaire », calculent à ce niveau les auteurs.

« Si la part relative liée à la fabrication, ou liée aux équipements diminue, en valeur absolue les émissions
augmentent. Cela signifie qu’il faut continuer les efforts pour augmenter la durée de vie des équipements, et réduire le nombre d’équipements numériques. Mais il faut accentuer les efforts au niveau des usages : avec l’arrivée des nouveaux usages (IA générative notamment) qui risque d’entraîner une explosion de la consommation des data centers dans le monde, il faut insister sur l’importance de la sobriété, c’est-à-dire la remise en question de la nécessité de ces usages
 », conclut l’étude.

☕️ Starship : SpaceX perd le deuxième étage de sa fusée lors de son septième lancement test

Le septième lancement test de Starship avec le propulseur Super Heavy s’est fini plus tôt que prévu dans la nuit de jeudi 16 à vendredi 17 janvier. SpaceX a perdu le contrôle du deuxième étage de sa fusée très rapidement alors que l’objectif de la mission était, entre autres, de tester une « mise à jour en bloc » de celui-ci.

Comme l’explique Space News, cette modification de l’étage supérieur était une « refonte complète » pour permettre un allongement de deux mètres pour atteindre une longueur de 52 mètres et accueillir des réservoirs plus grands contenant 25 % d’ergols en plus.

La fusée de SpaceX a pourtant bien décollé peu après 17 h 37, heure de l’Est nord-américain, ET (23 h 37 à Paris). Et le premier étage s’est séparé correctement environ deux minutes et 45 secondes après pour revenir avec succès, pour la seconde fois, sur le pas de tir afin d’être récupéré par des bras mécaniques. SpaceX a de nouveau montré qu’elle était capable de gérer un lanceur réutilisable pour sa fusée.

Mais les informations du deuxième étage ont ensuite montré qu’un de ses six moteurs s’est éteint à 7 minutes et 40 secondes du décollage, suivi petit à petit par 4 autres.

« Nous avons perdu toute communication avec le vaisseau », a affirmé ensuite l’animateur du live proposé par SpaceX, Dan Huot, ajoutant « cela nous indique clairement qu’il y a eu une anomalie avec l’étage supérieur ».

SpaceX avait prévu un test de rallumage de moteur Raptor et le déploiement de 10 simulateurs embarqués de futurs satellites Starlink v3, ce qui n’a pas pu être fait.

Comme l’indique l’AFP, le régulateur américain de l’aviation (FAA) a expliqué avoir « brièvement ralenti et détourné les avions autour de la zone de chute des débris de véhicules spatiaux ». La FAA ajoute que « les opérations normales ont repris » par la suite.

Cette nuit, Elon Musk a publié sur son réseau social de premières explications : « nous avons eu une fuite d’oxygène/carburant dans la cavité au-dessus du pare-feu du moteur du vaisseau qui était suffisamment importante pour créer une pression dépassant la capacité de ventilation. Outre la vérification des fuites, nous allons ajouter des dispositifs anti-incendie à ce volume et probablement augmenter la zone de ventilation. Rien ne suggère pour l’instant de repousser le prochain lancement au-delà du mois prochain ».

☕️ Fin de partie pour le satellite Gaia, deux catalogues encore à venir

Fin de partie pour le satellite Gaia, deux catalogues encore à venir

En décembre 2013, le satellite Gaia de l’Agence spatiale européenne (ESA) décollait du Centre Spatial Guyanais à Kourou à bord d’une fusée Soyouz-STB. Les observations scientifiques ont débuté en juillet 2014. 11 ans plus tard, « Gaia cesse ses observations » titre l’Observatoire de Paris.

« Nous marquons aujourd’hui la fin des observations scientifiques, et nous célébrons cette incroyable mission qui a dépassé toutes nos attentes, avec une durée de vie presque deux fois supérieure à celle initialement prévue », explique Carole Mundell de l’Agence spatiale européenne.

La mission du satellite était de « construire la carte la plus détaillée et la plus précise de la Voie lactée ». Mais Gaia « ne s’en est pas tenu aux seules étoiles de notre galaxie. Il a aussi scruté d’autres objets : depuis les astéroïdes proches au sein du Système solaire jusqu’aux galaxies très, très éloignées de la Voie lactée ».

Un premier jeu de données issu des observatoires de Gaia était publié en 2016 sous le nom DR1 (Data Release 1), avec notamment la position dans le ciel de plus d’un milliard d’étoiles. En 2018, c’était au tour du second jeu de données DR2, avec pas moins de 1,7 milliard d’étoiles. On passe à près de deux milliards avec le catalogue DR3 en 2022.

« À ce jour, sont recensées plus de 13 000 publications détaillant les résultats scientifiques de la mission : un nombre record ! », se félicite l’Observatoire de Paris. Et ce n’est pas fini puisque Gaia DR4 et DR5 sont attendus, avec des détails sur des exoplanètes, des trous noirs, « et une connaissance de la Voie lactée encore plus précise ». Gaia a aussi détecté un trou noir « qui ne devrait pas exister ».

Le catalogue Gaia DR4 couvrira cinq ans et demi d’observation. Il est attendu pour fin 2026 et devrait contenir 550 To de données. Quant à DR5, il englobera l’intégralité des dix ans et demi d’observation et devrait être mis en ligne vers « la fin de la décennie ».

Le satellite en lui-même doit réaliser des dernières opérations : « Après plusieurs semaines de tests, Gaia quittera son orbite actuelle autour du point de Lagrange L2 ( à 1,5 million de km de la Terre dans la direction opposée au Soleil), pour être placée sur son orbite héliocentrique finale, loin de la sphère d’influence de la Terre. Le véhicule spatial sera passivé le 27 mars 2025, afin d’éviter de causer tout dommage ou interférence avec d’autres véhicules spatiaux ».

☕️ RGPD : noyb dépose plainte contre TikTok, AliExpress, SHEIN, Temu, WeChat et Xiaomi

L’association de Max Schrems, noyb, a annoncé avoir porté plainte contre six entreprises chinoises du numérique auprès de différentes autorités européennes de protection des données personnelles : TikTok et Xiaomi en Grèce [PDF, PDF], Shein en Italie [PDF], AliExpress en Belgique [PDF], WeChat aux Pays-Bas [PDF] et Temu en Autriche [PDF].

Comme dans l’affaire Schrems contre Meta, noyb pointe des transferts de données des utilisateurs européens en dehors de l’UE. Ceux-ci ne sont autorisés par le RGPD qu’exceptionnellement et si le pays de destination ne porte pas atteinte à la protection des données.

Mais ici, contrairement à l’affaire Schrems contre Meta, l’association a un argumentaire plus directement compréhensible : le pays concerné, la Chine, est un État autoritaire reposant sur moult technologies de surveillance. « Les entreprises ne peuvent pas, de manière réaliste, protéger les données des utilisateurs de l’UE contre l’accès du gouvernement chinois », explique noyb.

Kleanthi Sardeli, juriste spécialiste de la protection des données à noyb, va un peu plus loin : « étant donné que la Chine est un État autoritaire qui pratique la surveillance, il est évident qu’elle n’offre pas le même niveau de protection des données que l’UE. Le transfert de données personnelles d’Européens est clairement illégal et doit être interrompu immédiatement ».

noyb affirme que les politiques de confidentialité d’AliExpress, SHEIN, TikTok et Xiaomi indiquent qu’elles transfèrent des données vers la Chine.

Concernant Temu et WeChat, la mention est plus floue puisqu’elle indique seulement que les données sont transférées vers des « pays tiers ». L’ONG et les plaignants qu’elle représente leur ont donc demandé « en vertu de l’article 15 du RGPD […] si leurs données avaient été envoyées en Chine ou dans d’autres pays en dehors de l’UE », sans obtenir de réponse. noyb affirme que « d’après la structure d’entreprise de Temu et de WeChat, il est fort probable que la Chine en fasse partie ».

Baisses des prix de l’électricité : notre comparatif des offres de base, heures creuses et tempo

C’est si simple de faire compliqué
Baisses des prix de l’électricité : notre comparatif des offres de base, heures creuses et tempo

Les nouveaux tarifs de l’électricité sont désormais connus, mais en version HT seulement. Avec quelques calculs, on passe rapidement en TTC. On voit que Tempo « version 2025 » profite bien moins de la baisse que les deux autres (base et heures creuses). On vous explique tout cela avec un tableau comparatif.

Comme nous venons de l’expliquer, La Commission de régulation de l’énergie (alias CRE) vient de publier sa délibération sur les nouveaux tarifs réglementés de l’électricité. Elle annonce une baisse moyenne de 15 %, mais dans les faits, c’est très inégal en fonction des offres.

Il existe pour rappel trois abonnements proposés par EDF au tarif réglementé (ou tarif bleu) : la formule de base avec un kWh au prix unique toute la journée, un tarif heures creuses avec un prix réduit pendant les heures creuses (qui varient suivant les logements), mais avec un kWh plus cher que le tarif de base pendant les heures pleines. Enfin, il y a tempo qui mérite à lui seul un article complet pour comprendre de quoi il en retourne.

Prix du kWh en tarif bleu : comment passer du HT au TTC ?

La CRE ne communique que sur les prix HT, nous avons donc recalculé le tarif TTC du kWh. Pour cela, il faut ajouter l’accise (ex TICFE), qui passera de 2,1 à 3,37 centimes par kWh au 1ᵉʳ février. Il faut ensuite ajouter de la TVA à 20 % sur le prix du kWh et de l’accise.

Voici les résultats sans plus attendre :

  • Base :
    • 20,16 centimes par kWh au lieu de 25,16 centimes
  • Heures creuses :
    • 16,96 centimes par kWh en heures creuses au lieu de 20,68 centimes
    • 21,46 centimes par kWh en heures pleines au lieu de 27 centimes
  • Tempo :
    • Jours bleus :
      • 12,88 centimes par kWh en heures creuses au lieu de 12,96 centimes
      • 15,52 centimes par kWh en heures pleines au lieu de 16,09 centimes
    • Jours blancs :
      • 14,52 centimes par kWh en heures creuses au lieu de 14,86 centimes
      • 17,92 centimes par kWh en heures pleines au lieu de 18,94 centimes
    • Jours rouges :
      • 15,18 centimes par kWh en heures creuses au lieu de 15,68 centimes
      • 65,86 centimes par kWh en heures pleines au lieu de 75,62 centimes

20 % de baisse en TTC, contre 30 % en HT… la faute à l’accise

La baisse est donc aux alentours de 20 % sur les prix TTC, alors qu’elle est plus proche de 30 % sur les tarifs HT, ce qui s’explique par la hausse importante de l’accise (+ 60 %). Tous les calculs sont disponibles dans ce tableau Google Spreadsheet partagé. Vous pouvez l’importer dans votre compte pour le modifier à souhait.

Nouveaux tarifs Tempo : de 0,6 à 13 % de baisse seulement

Sur Tempo, c’est bien plus resserré. L’écart varie entre 0,6 % (sur le tarif bleu en heure creuse qui ne baisse que de 0,08 centime par kWh) avec un maximum de 13 % sur le tarif rouge en heure pleine qui passe de 75,62 à 65,86 centimes. Si on fait une moyenne, les tarifs tempo ne baissent que de 5 % environ, loin des 20 % des offres base et heures creuses.

Prix TTC des abonnements… c’est compliqué

On remarque aussi une augmentation des abonnements, entre 6 et 12 % selon le cas, avec une moyenne aux alentours de 8 %. Les trois offres sont cette fois-ci logées à la même enseigne. Mais attention, le tarif TTC de l’abonnement augmentera davantage puisque le Turpe (Tarif d’utilisation des réseaux électriques publics d’électricité) prendra 7,7 % au 1ᵉʳ février, et entrainera avec lui la contribution Tarifaire d’Acheminement (CTA), qui représente « 21,93% de la partie fixe du tarif d’acheminement appliqué par les gestionnaires des réseaux de distribution d’électricité », rappelle la médiateur de l’énergie.

Enedis rappelle que le tarif d’utilisation des réseaux publics d’électricité correspond au prix « payé par tous les utilisateurs des réseaux publics de transport et de distribution et vise à couvrir les coûts du distributeur dès lors qu’ils correspondent à ceux d’un gestionnaire de réseau efficace ».

La filiale d’EDF explique que « ce tarif unique comporte trois composantes principales : le soutirage, la gestion de la clientèle et le comptage ». On parle aussi de composantes annuelles de soutirage (CS), de gestion (CG) et de comptage (CC).

Pour le cas des clients raccordés en basse tension avec une puissance inférieure ou égale à 36 kVA (le cas des particuliers), des explications sont données page 19 de ce document du 1er novembre 2024. Il ne prend donc pas en compte les augmentations à venir le 1ᵉʳ février.

Il faut maintenant que la proposition de la CRE soit validée et publiée au Journal officiel pour entrer en vigueur. EDF et les fournisseurs d’électricités ne tarderont certainement pas à mettre à jour leurs documents commerciaux, nous referons alors le point sur la situation.

Dans tous les cas, un rappel utile si vous comparez des offres : regardez le montant du kWh et de l’abonnement, toujours en TTC pour avoir des bases comparables. N’hésitez pas non plus à utiliser notre comparateur maison dont vous êtes le héros.

Traduire du code C en Rust « safe » ? Deux chercheurs l’ont fait

« Une pierre de plus à l’édifice »
Traduire du code C en Rust « safe » ? Deux chercheurs l’ont fait

Le langage Rust a largement gagné en visibilité ces dernières années, au point qu’on le retrouve désormais aussi bien dans le noyau de Windows que celui de Linux. Reste une interrogation tenace : est-il possible de convertir l’ancien code C en Rust ? Le sujet occupe jusqu’à la DARPA américaine. Plus récemment, deux chercheurs ont fait une percée et nous avons parlé à l’un d’eux, Aymeric Fromherz.

Pourquoi le langage Rust est-il devenu si désirable ? Essentiellement parce qu’il arrive à marier des performances proches du C (sans toutefois l’égaler) et certaines caractéristiques que l’on rencontre surtout dans les langages managés, comme Java et C#. C’est notamment vrai avec tout ce qui touche à la sécurité en mémoire, dont le typage fort.

Si le sujet a pris tant d’ampleur, c’est notamment parce que certaines grandes entreprises courent après les bugs liés à la mémoire. En 2019, Microsoft avertissait ainsi que 70 % des failles de sécurité détectées dans Windows étaient liées à la sécurité de la mémoire. Ce taux est le même depuis presque 20 ans. L’éditeur évoquait alors pour la première fois son intérêt pour le Rust, que nous avions analysé.

Le score vous parait important ? Il est le même chez Google. « Environ 70 % de nos bugs de sécurité de haute sévérité sont des problèmes d’insécurité de la mémoire (c’est-à-dire des erreurs avec les pointeurs C/C++). La moitié d’entre eux sont des bugs de type « use-after-free » », écrivait ainsi l’éditeur dans un billet de 2020 sur la sécurité de Chromium (projet open source à la base de Chrome et dont la gouvernance vient d’évoluer légèrement). Google indiquait par la même occasion se pencher sur Rust comme possible solution lorsque la solution s’y prêtait, entre autres langages selon le contexte (Java, Kotlin, Swift, etc.).

Du code flambant neuf… et le reste ?

Le Rust s’invite depuis quelques années dans le développement bas niveau et système, permettant l’écriture de nouveaux modules normalement débarrassés de la plupart des problèmes liés à des bugs en mémoire. Par exemple, avec la version 24H2 de Windows 11, le noyau du système embarque pour la première fois du code écrit en Rust. Ce mouvement est nettement accentué par des recommandations officielles. C’est vrai en particulier aux États-Unis, comme à la NSA en 2022 ou à la Maison-Blanche en 2024.


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Nintendo livre un avant-goût de la Switch 2, présentée en avril prochain

Nintendo livre un avant-goût de la Switch 2, présentée en avril prochain

Objet de nombreuses fuites ces dernières semaines, l’annonce de la console Nintendo Switch 2 interviendra finalement le 2 avril prochain. Le constructeur japonais a officialisé la nouvelle au travers d’une vidéo, publiée jeudi en début d’après-midi, qui donne rendez-vous pour un Nintendo Direct, du nom des conférences de presse en ligne pendant lesquelles il annonce généralement ses nouveautés.

La vidéo prend la forme d’un teaser qui révèle l’apparence et quelques-unes des fonctionnalités de la future console. En ouverture, un morphing montre que la Switch 2 adoptera une diagonale d’écran supérieure à celle de l’actuelle Switch. Elle montre également une connectique enrichie, et donne un aperçu des nouvelles interactions autorisées par les prochaines manettes Joy-Con. Ces dernières, aux bords arrondis, pourront notamment être utilisées sur la tranche à la façon d’une souris d’ordinateur.

Nintendo indique par ailleurs dans sa bande-annonce que la Switch 2 sera rétro-compatible avec les jeux de la Switch de première génération, avec toutefois quelques réserves : « Certains titres Nintendo Switch pourraient être incompatibles ou ne pas être entièrement compatibles avec la Nintendo Switch 2 ». D’après les rumeurs, le constructeur japonais serait resté fidèle à NVIDIA pour sa console.

Sur son site, Nintendo précise que l’annonce du 2 avril sera suivie d’événements de prise en main dans plusieurs grandes villes européennes. En France, la marque investira le Grand Palais à Paris, du 4 au 6 avril. La date de lancement commercial n’est quant à elle pas communiquée, Nintendo n’évoquant pour l’instant que 2025, sans plus de précisions.

Ça va swinguer sur l’électricité : le détail des hausses et baisses de prix au 1er février

Plus j’augmente moins vite, moins je baisse plus vite
Ça va swinguer sur l’électricité : le détail des hausses et baisses de prix au 1er février

Dans deux semaines, il va y avoir du changement sur les tarifs de l’électricité. D’un côté, nous avons deux augmentations sur les « taxes » (accise et Turpe). De l’autre, une baisse des tarifs réglementés, de 15 % en moyenne. Tout le monde est concerné, même ceux qui sont sur une offre à prix « fixe ». La CRE vient de dévoiler ses propositions pour les nouveaux tarifs réglementés (Bleus, HC/HP et Tempo).

Dans un arrêté publié au Journal officiel le 20 décembre, le gouvernement a confirmé la fin du bouclier tarifaire à partir du 1ᵉʳ février 2025, avec une hausse des taxes. Néanmoins, selon Vie publique, « les consommateurs bénéficieront néanmoins d’une baisse du tarif réglementé de vente de l’électricité (TRVE), grâce à la baisse des prix sur les marchés de gros ».


Il reste 94% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Blue Origin : New Glenn atteint l’espace pour son vol inaugural

Après de nombreux reports, la fusée New Glenn de Blue Origin a finalement pris son envol dans la nuit de mercredi à jeudi (jeudi matin heure française). Lancée depuis Cap Canaveral, elle a rempli l’objectif principal affiché par l’entreprise de Jeff Bezos, à savoir atteindre l’orbite spatiale dès son vol inaugural.

« Le deuxième étage est sur son orbite finale après deux démarrages réussis des moteurs BE-3U », précise l’entreprise. Le premier étage de la fusée, qui faisait quant à lui l’objet d’une tentative de récupération dans l’océan Atlantique, a finalement été perdu pendant la descente.

S’il s’agit sans doute d’une déception pour Blue Origin, l’entreprise rappelle qu’elle a toujours affirmé que son objectif premier était d’atteindre l’espace en toute sécurité, la récupération du booster n’étant envisagée que comme une « cerise sur le gâteau » en cas de succès.

 Blue Origin revendique jusqu’ici 22 vols réussis avec sa fusée New Shepard, mais celle-ci, destinée à des vols touristiques, se contente de franchir la ligne de Karmán, à 100 km d’altitude.

New Glenn et sa mission NG-1 constituent sa première tentative de réellement atteindre l’espace. La société devient ainsi le premier acteur du « new space » à réaliser cet objectif dès son vol inaugural.

Une première d’ailleurs saluée par Elon Musk, patron de SpaceX, que Blue Origin a vocation à directement concurrencer avec New Glenn.

☕️ Synapses : un labo sur l’IA et les médias réunit CNRS, Ouest France et Université de Rennes

Dans un communiqué de presse, le CNRS annonce ouvrir avec l’Université de Rennes et Ouest France un laboratoire commun nommé Synapses qui doit travailler sur l’application de l’intelligence artificielle « au service du journalisme ».

des journaux

Ce projet fait partie des 16 sélectionnés par l’Agence nationale de la recherche dans sa vague 2 de l’édition 2023. L’ANR le finance à hauteur de 362 973 euros.

Le CNRS donne les trois axes majeurs de ce nouveau laboratoire joignant des chercheurs à une entreprise de presse :

  • Analyse des archives photographiques : grâce aux 40 millions d’images de Ouest-France, Synapses utilisera l’IA pour faciliter l’analyse et la recherche de photos, facilitant ainsi le travail des journalistes et des documentalistes ;
  • Traitement de textes spécifiques : exploiter plus de 100 ans d’archives textuelles pour améliorer la compréhension et le traitement des textes historiques, en surmontant les défis posés par les évolutions linguistiques ;
  • Visualisation d’informations complexes : développer des outils pour visualiser des données complexes et interconnectées, rendant l’information plus accessible pour les journalistes.

« Ces axes de recherche sont liés à cinq domaines scientifiques majeurs : l’apprentissage automatique, la vision par ordinateur, le traitement du langage naturel, la représentation des connaissances et la visualisation de données complexes », expliquait l’équipe dans la présentation de son projet à l’ANR.

Ce laboratoire commun s’appuie sur un projet déjà existant : l’équipe de recherche Linkmedia dirigée par Laurent Amsaleg, directeur de recherche au CNRS. Mais si Linkmedia embarquait aussi quelques chercheurs d’Inria, pas de trace de cet institut dans le nouveau projet. La plupart des chercheurs de Synapses sont basés à Rennes.

Aux JO de Paris, la vidéosurveillance algorithmique n’a servi à (presque) rien

À qui profite la « vidéoprotection » ?
Aux JO de Paris, la vidéosurveillance algorithmique n’a servi à (presque) rien

Le rapport du comité d’évaluation de l’expérimentation de la vidéosurveillance algorithmique dans le cadre des Jeux olympiques de Paris révèle qu’un seul algorithme a été testé, sur la moitié seulement des motifs autorisés. Six détections d’intrusion et un seul colis suspect ont été identifiés. L’algorithme, par contre, a classé à tort des vitrines et feux de circulation comme incendies potentiels, et qualifié de « colis suspects » des poubelles et des… SDF. L’expérimentation aura donc eu le mérite de montrer qu’en l’état, la VSA n’est pas au point.

« Vidéosurveillance algorithmique : le rapport d’évaluation s’interroge sur l’efficacité du dispositif », titre Le Monde, qui parle d’un « bilan en demi-teinte ». « Le comité d’évaluation émet des doutes sur l’efficacité du dispositif mis en place pour les Jeux de Paris », renchérit France Info, évoquant « des résultats inégaux ».

Nos deux confrères ont, en effet, pu consulter le rapport, remis ce mardi 14 janvier au ministère de l’Intérieur, du comité d’évaluation de l’expérimentation (controversée) de vidéosurveillance algorithmique (VSA) dans l’espace public autorisée dans le cadre des JO de Paris.

France Info, qui fournit bien plus de verbatims du rapport que ne le fait Le Monde, relève que ses auteurs y écrivent que « le recours aux traitements algorithmiques mis en place dans le cadre de l’expérimentation s’est traduit par des performances techniques inégales, très variables en fonction des opérateurs et des cas d’usages, des contextes d’utilisation, ainsi que des caractéristiques techniques et du positionnement des caméras ».

Dans des propos qui font écho à ce que l’on sait déjà de l’efficacité (ou pas) des caméras de vidéosurveillance, le comité rappelle que l’intérêt de tels dispositifs « dépend largement du contexte d’utilisation ». Il relève que la VSA est, par exemple, « moins efficace quand il y a peu d’éclairage », mais plus pertinente « dans les espaces clos ou semi-clos, notamment les couloirs du métro et les gares, par rapport aux résultats observés dans les espaces ouverts ».

Une « maturité technologique insuffisante »

Fort d’une centaine de pages, le rapport commence par rappeler les limites de l’expérimentation, « qui laisse encore des questions en suspens », euphémise Le Monde.

Les auteurs soulignent d’une part que le nombre, sans équivalent dans l’histoire, de forces de l’ordre déployées sur le terrain, et les très nombreuses restrictions d’accès aux zones vidéosurveillées par les algorithmes ont « rendu la VSA moins utile qu’escompté ».

Certaines possibilités offertes par la loi, comme l’analyse d’images prises depuis des drones, n’ont pas, d’autre part, été mises en œuvre « en raison d’une maturité technologique insuffisante », souligne Le Monde.

L’expérimentation n’a en outre porté que sur un seul logiciel (Cityvision, de Wintics), alors qu’une dizaine de prestataires de VSA avaient répondu à l’appel d’offres, et que le ministère de l’Intérieur en avait initialement choisi trois (Wintics, Videtics et Chapsvision).

Le rapport relève que l’évaluation ne saurait donc proposer de « bilan » sur la « pertinence » de la VSA, ni se prononcer sur l’opportunité de la poursuivre, ou pas.

Des vitrines éclairées et feux de voiture pris pour des incendies

De plus, près de la moitié des 8 cas d’usage autorisés après avis de la CNIL n’ont pas été expérimentés, tels que la détection de départs d’incendie, de chutes de personne ou encore d’armes à feu, qui n’ont été testées ni par la RATP, ni par la SNCF.

La ville de Cannes a certes expérimenté la « présence ou utilisation d’armes » mais, tempère Le Monde, « sans résultats concluants et avec un grand nombre de faux positifs » :

« Quant à la détection des feux ou des chutes, le rapport mentionne, là aussi, une faible maturité technologique, les algorithmes prenant parfois les devantures de magasin ou les phares de voiture pour des incendies. »

Les SDF et les poubelles, des « colis suspects » comme les autres

La détection de la « présence d’objets abandonnés » dans les gares et stations de métro n’aurait, de son côté, abouti qu’à des résultats « très moyens ». 62 % des 270 alertes adressées par le logiciel étaient des « faux positifs », et seules 21 (soit moins de 8 %) se sont avérées « pertinentes ».

De plus, relève France Info, le logiciel peinerait à identifier les objets dont la présence sur les lieux n’a rien d’anormal, pour des performances qualifiées de « très inégales ». Il « assimile ainsi régulièrement le mobilier urbain (bancs, panneaux) ou encore les matériels de nettoyage (poubelles, seaux et machines de nettoyage) et autres objets fixes ou usuels » à des « colis suspects » :

« Plus grave, il lui arrive d’assimiler des personnes assises ou statiques, notamment des sans domicile fixe. »

Un seul cas d’usage fait l’unanimité : la détection d’intrusion

Sur les quelques cas d’usage réellement testés, et « de façon générale, les alertes émises par les logiciels de VSA n’ont entraîné qu’un nombre limité d’interventions », résume par ailleurs Le Monde :

« A la SNCF, six ont été menées grâce à la détection automatique d’intrusion en zone interdite avant et pendant les JO, et une seule pour objet abandonné. »

D’après Le Monde, et du point de vue de la technologie, « un seul cas d’usage fait l’unanimité : la détection d’intrusion en zone interdite », notamment utilisée pour identifier les personnes sur les voies.

La détection des flux de circulation et des déplacements en sens interdit (de personnes comme de véhicules), tout comme l’analyse de la densité de population, censée détecter les attroupements, seraient de leur côté jugés « satisfaisants » par les opérateurs de transport.

« Avec toutefois quelques réserves », temporise France Info. Le logiciel « a parfois eu du mal à comptabiliser un nombre d’individus trop resserrés (…) en raison de la hauteur d’emplacement des caméras », relève le rapport. Le dispositif apparaît en outre « moins efficace lorsque les caméras sont trop proches du public, les corps n’étant pas entièrement visibles ».

S’agissant des mouvements de foule, l’efficacité de la VSA serait là aussi « difficile à évaluer », reconnaît le rapport :

« Les quelques retours font état des difficultés rencontrées dans l’identification des véritables mouvements. Le traitement peut, en particulier, assimiler des groupes de personnes se déplaçant dans le même sens, sans précipitation particulière. Il est délicat de définir des mouvements de regroupement ou de dispersion rapide. »

Un « choix politique » qui appelle à « une vigilance particulière »

Le rapport affirme cependant que « les agents concernés sont globalement satisfaits de la mise en œuvre du dispositif » :

« L’intégration des écrans des caméras IA dans les salles de commandement, lorsqu’elle a été réalisée, a contribué à favoriser la complémentarité des caméras classiques et des caméras IA. »

Pour le comité d’évaluation, « l’abandon, la prolongation ou la pérennisation » du dispositif est « un choix politique » qui ne relève pas de sa mission. Il souligne cela dit que, si ce dispositif était mis en place, « une vigilance particulière s’impose (…) afin notamment de prévenir tout risque de détournement des finalités légales ou, plus fondamentalement, d’accoutumance au recours à une telle technologie à des fins de surveillance ».

Le Monde et France Info rappellent également que Laurent Nuñez, préfet de police de Paris, Bruno Retailleau, ministère de l’Intérieur et Philippe Tabarot, le nouveau ministre des Transports, se sont déjà prononcés en faveurs d’une généralisation du dispositif, sans même attendre le rapport du comité d’évaluation.

☕️ L’AFP signe un accord avec Mistral AI

L’Agence France Presse a signé un partenariat avec la start-up Mistral AI, pour permettre à son assistant conversationnel de puiser dans des dépêches pour fournir des réponses aux internautes.

L’assistant de Mistral AI, nommé le Chat, peut à partir de ce 16 janvier s’appuyer sur la production de 2 300 dépêches produites quotidiennement par l’AFP dans six langues : le français, l’anglais, l’espagnol, le portugais, l’allemand et l’arabe.

representation onirique du pouvoir et de l'argent qui circule en ligne grâce aux outils numériques.
Clarote & AI4Media / Better Images of AI / Power/Profit / CC-BY 4.0

Il pourra par ailleurs remonter dans les archives de l’agence jusqu’à 1983. 
Le Chat n’aura en revanche pas accès aux photos, vidéos et infographies de l’AFP.

Ni le montant ni la durée de l’accord n’ont été dévoilés.

Le PDG de l’AFP Fabrice Fries précise auprès du Monde qu’il s’agit d’un « nouveau courant de revenu », et que les 38 millions de contenus concernés ne servent pas à entraîner la machine.

Il s’agit d’un « module qui vient se brancher à notre système et peut être débranché », a déclaré le cofondateur de Mistral Arthur Mensch au quotidien.

Le 15 janvier, Google annonçait avoir signé un accord avec le concurrent états-unien de l’AFP, the Associated Press (AP), pour permettre à son chatbot Gemini de fournir de l’information de qualité aux internautes qui en demanderaient.

☕️ LIDD : le retour d’expérience d’une femme trans dans la tech

Qu’est-ce que ça fait, de transitionner, quand on baigne dans l’informatique depuis toute petite ? Qu’est-ce qui change, au travail, qu’est-ce qui coince, qu’est-ce qui fonctionne mieux que prévu ?

Gwendoline Fichant a les mains dans l’informatique depuis 42 ans, et travaille chez le même employeur depuis une décennie. Il y a trois ans, elle a fait sa transition. Dans le média La première ligne, elle propose un RETEX (retour d’expérience) dans lequel elle décrit la manière dont son coming-out a été accueilli au travail, et sur ce que ça fait, concrètement, de devenir femme dans un milieu professionnel majoritairement masculin.

❌