Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Écoconception des services numériques : le référentiel est là, avec ses ambitions et limites

Et maintenant ?
Une bouteille à la mer numérique par Flock

Le référentiel général de l’écoconception des produits est désormais en ligne. Ce document, très attendu, constitue un premier jet et a la mission délicate de faire bouger les lignes. Il n’est cependant pas contraignant et ambitionne surtout, pour l’instant, la collecte des connaissances et des retours d’expérience.

Ces dernières années, en France, plusieurs agences mettent l’accent sur la sobriété énergétique. Par extension, la sobriété numérique devient un sujet prégnant, nos usages augmentant continuellement.

L’Arcep et l’Arcom, en lien avec l’ADEME, publient donc ce référentiel, après la consultation publique d’octobre dernier. L’objectif est clair : intégrer dès la conception des pratiques vertueuses en matière de minimisation de l’empreinte environnementale. La rédaction du document a également bénéficié du concours de la CNIL, de la DINUM et d’Inria.

Écoconception : de quoi parle-t-on ?

Avant de plonger dans le référentiel, son périmètre et ses objectifs, il faut s’arrêter un instant sur l’écoconception proprement dite. La définition courante – et reprise par le document – est « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».

Une définition qui résume à elle seule l’objectif général du référentiel : minimiser autant que possible la consommation d’énergie et de ressources. Le Graal devient alors un service ayant nécessité le strict minimum à son fonctionnement et n’envoyant que la juste quantité d’informations.

Tout le monde est concerné (ou presque)

Le périmètre du référentiel est vaste. Les serveurs, terminaux, box internet, réseaux d’opérateurs, centres de données, les infrastructures logicielles et plus généralement les services numériques sont concernés. On trouve donc aussi bien des sites web que des API (Application Programming Interface), des systèmes d’exploitation, des systèmes d’intelligence artificielle (SIA), tout le SaaS (Software as a Service), les registres de blockchains, plateformes vidéo et autres services en ligne.

En d’autres termes, tout ce qui touche de près ou de loin au numérique. Mais le référentiel ne se veut pas une bible parée à toutes les utilisations. Comme indiqué, il ne fait « pas obstacle à l’existence de documents d’écoconception complémentaires, plus exhaustifs ou spécifiques à certaines catégories de produits ou services numériques ». Par exemple, un référentiel dédié aux objets connectés (IoT).

Le document se voulant généraliste et un « socle commun de bonnes pratiques », tous les métiers liés au numérique sont concernés. Tout ce qui touche à la gestion des projets, à la maîtrise d’ouvrage, à l’UX (user experience), aux éléments graphiques, au marketing, à l’ingénierie logicielle ou système, ou encore à la publication de contenus est visé.

Quatre axes majeurs

Pour parvenir à maitriser la consommation des services numériques, les trois agences proposent quatre axes principaux d’action.

D’abord, en soulageant les terminaux. Si la fabrication de ces derniers n’entre pas dans le périmètre du texte, il est possible d’influer sur ce qu’ils utilisent. Par exemple, en veillant à ce que les services aient une consommation mesurée de ressources, pour s’assurer que des appareils anciens puissent continuer à les utiliser.

Les autres idées comprennent l’adaptation du service au contexte (par exemple, optimiser la vidéo pour la taille de l’écran, pour éviter la 4K sur un smartphone), la possibilité d’utiliser le service sur le plus grand nombre possible d’appareils (interfaces tactiles et claviers physiques), l’usage de l’open source « comme levier de prolongation de la durée des services » (et donc des terminaux et des objets connectés), ainsi que la disponibilité des mises à jour essentielles pendant toute la durée de vie des terminaux. Le référentiel souhaite également que les services puissent être utilisés sur des versions antérieures des systèmes d’exploitation et navigateurs.

Deuxième axe, la promotion de la sobriété face à la captation de l’attention. Et c’est là un vaste chantier qui s’ouvre pour les agences, car elles souhaitent la restriction des murs de contenus infinis, du déclenchement automatique des vidéos, des notifications intempestives et autres. Le référentiel milite pour des informations claires, la fin des dark patterns (appelés « procédés manipulatoires »), des fonctions telles qu’un bouton ou un mode économie d’énergie. Il est également question de limiter la captation des données et métadonnées à des fins publicitaires.

Troisième axe, la diminution des ressources mobilisées pendant tout le cycle de vie du service. Les pistes avancées sont nombreuses : interroger les appareils pour adapter les ressources consommées aux besoins réels, réduire le poids des contenus multimédias, limiter les requêtes aux serveurs, minimiser les ressources nécessaires aux calculs asynchrones, favoriser les hébergeurs efficients et limiter l’utilisation de technologies énergivores. La blockchain et l’apprentissage automatique (donc les IA) sont citées.

Enfin, pour son dernier axe, le référentiel veut promouvoir la transparence, essentiellement avec une approche « par la donnée ». Par exemple, « a minima » par la publication de chiffres sur les émissions de gaz à effet de serre, la consommation énergétique, ainsi que la consommation en eau et en ressources abiotiques minéraux/métaux. Il n’est cependant pas toujours facile d’avoir des chiffres fiables sur lesquels se baser. De même, par la sélection d’un hébergeur transparent sur ses performances environnementales. Enfin, par la publication des objectifs environnementaux.

Comment s’articule le RGSEN pour les structures intéressées ?

Puisque l’on parle d’un référentiel non contraignant, les structures intéressées par son contenu doivent le prendre en main, via un kit d’autoévaluation, en vue d’une déclaration d’écoconception. Celle-ci, si validée, permet alors à l’entreprise (ou autre) d’en faire la communication, notamment à des fins d’image publique, voire dans sa publicité.

Le référentiel propose ainsi 78 critères (91 dans le document soumis à consultation en octobre), présentés sous forme de questions. Chacun est accompagné d’une fiche pratique pour en expliquer les tenants et aboutissants. Un indice de priorisation est également présent pour chaque critère. Il tient compte de l’impact estimé sur l’empreinte environnementale, de sa portée systémique, de ses éventuels effets indirects sur d’autres secteurs et du niveau d’ambition de sa mise en œuvre. Le référentiel, dans sa première édition finalisée, comprend trois niveaux : Prioritaire, Recommandé et Modéré.

L’ensemble permet de calculer un score. Le calcul tient compte des niveaux, puisque chacun possède un facteur de pondération : 1,5 pour Prioritaire, 1,25 pour Recommandé et 1 pour Modéré. L’obtention du score se calcule en divisant les points obtenus par le nombre maximal de points, puis en multipliant le résultat par 100.

Comme le reste, ces niveaux se présentent comme très généralistes. Le document précise même qu’il s’agit d’informations données « à titre indicatif », puisque la difficulté d’implémentation peut fortement varier d’un service à l’autre et selon le contexte.

Il fallait cependant que le référentiel tienne compte de cette mise en œuvre et donne des pistes.

Des critères nombreux et variés

Le référentiel propose une liste de 78 critères répartis entre les trois niveaux de priorité. Chaque élément est accompagné d’un degré de difficulté : Faible, Modéré ou Fort.

Les 30 premiers éléments sont prioritaires et sont mis en avant car les plus à même d’avoir un impact significatif sur la sobriété numérique. Certains sont directement liés à la stratégie et posent la question de l’intérêt même du service, surtout après pondération de ses impacts environnementaux. Certaines modifications sur un service peuvent en effet amener à revoir intégralement son fonctionnement, voire sa conception. Des objectifs ont-ils été fixés pour réduire ces impacts ? A-t-il été conçu avec des technologies ouvertes et interopérables ?

Une partie des éléments a trait à la conception-même du produit et semblent « évidents », dans la mesure où ces questions interviennent presque à chaque fois : lister les profils matériels pouvant servir à accéder au service, la possible utilisation sur d’anciens modèles de terminaux ou versions d’un système d’exploitation, le type de maintenance prévue, etc. Ou, pour deux éléments classés « Fort », une garantie de démarche de réduction des impacts environnementaux imposée aux fournisseurs et la prise en compte des impacts dans la sélection des services tiers.

Après la stratégie et les spécifications, on trouve six autres rubriques : architecture, expérience et interface utilisateur (UX et UI), contenus, frontend, backend, hébergement et algorithmie. Selon le niveau de priorité, certaines rubriques sont d’ailleurs vides. Par exemple, il n’y a rien pour le frontend en « Prioritaire », aucun critère « Modéré » pour l’algorithmie, etc.

Certaines rubriques attirent également l’attention au regard de l’actualité. L’algorithmie, justement, parce qu’elle renvoie directement à l’IA. Les questions posées par le référentiel ne sont donc pas étonnantes : une phase d’entrainement est-elle réellement nécessaire ? Le niveau de complexité est-il minimisé et proportionnel à l’usage effectif ? La quantité de données a-t-elle été limitée au strict nécessaire ? La stratégie d’inférence est-elle optimisée ?

L’hébergement est également un point important. Les questions posées sont classiques et portent sur la mise en place d’une démarche de réduction de l’empreinte, la gestion durable des équipements ou encore d’un PUE minimisé.

Autre exemple, la vidéo. Le référentiel revient sur l’idée courante d’une adaptation de la qualité selon l’usage, avec mise en avant d’un mode sobriété qui enverrait par exemple du 480p sur smartphone. Les questions posées concernent aussi bien la qualité que la technologie de compression utilisée, la capacité à moduler le flux selon l’appareil visé, etc.

Autant de fiches pratiques que de critères

Dans le document, on remarque vite que la partie la plus intéressante se trouve dans les annexes. Ce sont elles qui contiennent les questions et surtout les fiches pratiques qui les accompagnent.

Ces fiches sont essentielles, car elles détaillent ce qui se cache derrière chaque question : les enjeux, la mise en œuvre, les moyens de tests et de contrôle et une rubrique pour « aller plus loin ».

Pour reprendre le cas de la vidéo, la fiche technique commence par rappeler qu’elle représentait 66 % du trafic internet en 2023 et rappelle les principaux objectifs. Les codecs AV1, VP9 et HEVC sont mis en avant pour leur efficacité, mais peuvent entrainer une consommation supplémentaire d’énergie si leur décodage n’est pas pris matériellement en charge par la puce, le CPU devant alors s’en occuper.

Côté mise en œuvre, le codage à débit variable doit être préféré, selon la fiche, éventuellement avec un plafond maximal pour que « les contenus plus complexes restent lisibles avec une connexion internet à bas débit ». On retrouve bien sûr l’idée d’adaptation de la qualité visuelle en fonction du support, quitte à tenir compte de la présence de texte pour augmenter le début, afin d’en préserver la netteté.

Viennent ensuite plusieurs points à valider afin de remplir le critère : le débit variable, la présence des vidéos dans une définition inférieure à 720p, l’utilisation de codecs accélérés matériellement par la majorité du parc existant et le résumé de tous les choix techniques dans la déclaration d’écoconception.

Il s’agit bien sûr d’un exemple, mais toutes les fiches sont bâties sur le même modèle. Elles sont plus techniques et concrètes que le reste du document et en constituent d’ailleurs la vraie matière.

Derrière l’évidente volonté, les vœux pieux ?

Le document donne de très nombreuses pistes et propulse sous les feux de la rampe une thématique destinée à prendre de l’ampleur. Ne serait-ce que parce que le coût de l’énergie, même si actuellement en baisse, ne reviendra sans doute plus aux anciens niveaux. L’écologie fonctionne mieux quand elle signifie une baisse de la facture. Mais l’énergie n’est qu’une partie du problème, puisque la consommation des matériaux tient également une bonne place dans le référentiel.

On en revient ainsi à l’idée première : n’utiliser que ce qui est réellement nécessaire. Et là, certaines idées peuvent devenir des vœux pieux, à moins de déclencher un sursaut mondial et d’accorder l’ensemble des violons. Reprenons l’exemple des services qui devraient être disponibles sur les anciens systèmes d’exploitation et appareils. Ce seul point ouvre une cascade d’autres.

Il faudrait en effet décider les constructeurs de terminaux à entretenir leurs produits sur une durée bien plus longue qu’actuellement. Si Apple fournit en général au moins cinq ans de mises à jour à ses iPhone, le monde des smartphones Android ressemble plus à une jungle. On espère d’ailleurs que la décision de Google de fournir sept ans de mises à jour majeures (et donc au moins autant de mineures) à toute sa gamme Pixel 8 fera tache d’huile dans l’industrie. Moins de modèles, plus de support ?

Une équation loin d’être évidente, car la plupart des fournisseurs de terminaux et de services sont étrangers. On voit mal comment la France pourrait par exemple convaincre un Samsung de multiplier par deux ou trois la durée de support de ses appareils mobiles. Un règlement européen entrera en vigueur en juin 2025, justement sur les « exigences en matière d’écoconception — smartphones, téléphones portables autres que smartphones, téléphones sans fil et tablettes ». Il est notamment question de proposer « des mises à jour du système d’exploitation pendant au moins cinq ans après la mise sur le marché du produit ».

Autre problème potentiel, certains services ne peuvent plus fonctionner avec d’anciennes versions de systèmes d’exploitation ou de navigateurs pour des raisons de sécurité. C’est le cas des applications bancaires, qui tolèrent mal par exemple les appareils Android rootés.

Même constat pour les mesures liées à la captation d’attention. Comment motiver Meta à revoir le fonctionnement de ses murs de contenus infinis, alors qu’ils sont l’essence de services tels que Facebook et Instagram ?

Un premier pas

Le référentiel a le mérite de défricher le terrain de l’écoconception. Il n’est pas contraignant et n’aurait pas pu l’être, car valable uniquement pour la France.

Le maître-mot du RGSEN est « sobriété » et, à lui seul, permet d’ancrer un peu la réflexion de l’écoconception dans les consciences. Il entraine des questions comme « A-t-on besoin de ce service ? » ou « Cet usage est-il raisonné ? Approprié ? ».

Le chemin à parcourir est cependant encore bien long. On le sait depuis longtemps, la consommation du numérique est surtout drainée par la fabrication des appareils. Une part importante de l’économie est fondée sur le renouvellement régulier des produits, longtemps considérés comme (presque) jetables.

Le document rappelle cependant que si le numérique ne représente actuellement que 2,5 % de l’empreinte carbone en France, ses usages sont amenés à exploser d’ici 2030. L’ADEME estime ainsi que le trafic sera multiplié par 6 et que le nombre d’appareils bondira de 65 %, porté par l’explosion des objets connectés. L’empreinte carbone du carbone augmenterait alors de 45 % et la consommation de ressources abiotiques (métaux et minéraux) de 14 %.

Comme le dit le référentiel lui-même, il ne s’agit pas de révolutionner l’industrie du numérique, mais d’établir « une base de connaissances et recommandations commune permettant d’accompagner les démarches volontaires d’écoconception ». Dans cette optique, il se veut un « outil d’action et de sensibilisation ».

De la même manière que les rapports de l’Arcep sur la consommation du numérique s’enrichissent à chaque édition, il sera intéressant de suivre l’évolution du référentiel.

Nous reviendrons dans un deuxième temps sur certains aspects du RGSEN, notamment ses limites et défis.

☕️ GTA VI : Rockstar resserre la date de sortie à l’automne 2025

GTA VI

En décembre dernier, l’éditeur de jeux vidéo publiait la première bande-annonce d’un des jeux les plus attendus : Grand Theft Auto VI. Le jeu était alors prévu pour 2025, sans plus de détails.

Au détour de ses résultats financiers pour l’année 2024, Take-Two Interactive Software ajuste son calendrier, mais pas pour annoncer du retard pour une fois. « Nos perspectives reflètent un rétrécissement de la fenêtre de lancement précédemment établie par Rockstar Games de l’année 2025 à l’automne 2025 pour Grand Theft Auto VI », explique Strauss Zelnick, CEO de Take-Two.

L’entreprise en profite pour faire le bilan de GTA V : « Les ventes ont dépassé nos prévisions et, à ce jour, le titre s’est vendu à environ 200 millions d’unités dans le monde ».

☕️ L’Europe ouvre une seconde procédure formelle contre Meta

Deux semaines après avoir ouvert une procédure formelle contre Meta sur la question des publicités trompeuses et de la désinformation, la Commission européenne double la mise avec la protection des mineurs sur Facebook et Instagram. Cela s’inscrit dans le cadre du DSA (Digital Services Act).

« Nous ne sommes pas convaincus que Meta ait fait suffisamment pour se conformer aux obligations légales sur les services numériques afin de limiter les risques d’effets négatifs sur la santé physique et mentale des jeunes Européens sur ses plateformes Facebook et Instagram », explique Thierry Breton.

La Commission explique en effet être préoccupée par le fait que « les systèmes de Facebook et d’Instagram, y compris leurs algorithmes, puissent stimuler des dépendances comportementales chez les enfants et créer des effets “terrier de lapin” ».

Cette notion renvoie à l’enfermement des jeunes utilisateurs sur une application, pris dans une sombre spirale de contenus nocifs. En février, ce terme avait déjà été utilisé par la Commission lors de l’annonce d’une procédure formelle à l’encontre de TikTok.

En outre, la Commission européenne est également préoccupée par les méthodes d’assurance et de vérification de l’âge mises en place par Meta.

S’ils sont prouvés, « ces manquements constitueraient des violations des articles 28, 34 et 35 de la législation sur les services numériques », explique la Commission. Il faudra attendre le résultat de l’enquête approfondie pour savoir ce qu’il en est.

Sur l’autre versant des règlements européens, le DMA, la Commission européenne a lancé des procédures d’infractions contre plusieurs géants du Net, dont Meta.

Android 15 : les nouveautés de la bêta 2, celles à venir

Pour la révolution, on repassera
La nouvelle version d'Android 15 par Flock

Google profite de sa conférence I/O pour annoncer les nouveautés Android à venir dans l’année, mais aussi lancer la seconde bêta d’Android 15. Le leitmotiv est « d’améliorer la qualité, la vitesse et la durée de vie de la batterie ». Des améliorations sont apportées sur la sécurité et la confidentialité, notamment avec l’espace privé.

Au fil des dernières versions, l’interface d’Android ne change quasiment pas. Il arrive même parfois que les utilisateurs n’aient pas grand-chose à se mettre sous la dent. Avec Android 15, Google propose une fonctionnalité qui pourrait en intéresser certains : l’espace privé.

Un « espace privé » pour vos applications

Dans la veine du Dossier verrouillé de Google Photos pour les contenus multimédia, l’espace privé « permet aux utilisateurs de créer un espace séparé sur leur appareil où ils peuvent garder les applications sensibles à l’abri des regards indiscrets, sous une couche d’authentification supplémentaire ».

Afin de cloisonner les informations, cette fonctionnalité utilise un profil utilisateur distinct, qui est en pause lorsque l’espace privé n’est pas déverrouillé. Dans ce cas, les applications ne sont pas actives et ne peuvent donc pas afficher de notification par exemple. Les contenus générés et téléchargés par les applications de l’espace privé sont séparés du reste, mais il existe des passerelles pour les photos par exemple, via system sharesheet et photo picker quand l’espace privé est déverrouillé évidemment.

Google prévient qu’il y a pour le moment un bug gênant à prendre en considération avant de tenter l’expérience : la création d’un espace privé supprime les icônes d’application de l’écran d’accueil. Il devrait être corrigé dans quelques jours.

Sous le capot d’Android : autonomie et performances

Les services de synchronisation des données d’une application fonctionnant au premier plan ne peuvent pas être actifs pendant plus de 6h sur une période de 24h. Dans le cas contraire, Android préviendra l’application qui aura quelques secondes pour se fermer toute seule, faute de quoi c’est le système qui s’en chargera.

Il suffit que l’utilisateur interagisse avec l’application pour remettre le compteur des six heures à zéro. Google met en avant d’autres manières de synchroniser les données. Le but est de moins solliciter la batterie et donc d’augmenter l’autonomie des smartphones.

Toujours à destination des développeurs, Android prend désormais en charge des pages mémoire de 16 ko, en plus des 4 ko qui étaient la base jusqu’à présent. « Les appareils dotés de pages de plus grande taille peuvent offrir des performances améliorées pour les charges de travail gourmandes en mémoire », explique Google.

La société met en avant quelques chiffres : des temps de chargement des applications en baisse de 3,16 %, une consommation au lancement réduite de 4,56 %, une ouverture de la caméra plus rapide de 4,48 à 6,60 %, un démarrage du smartphone plus rapide de 1,5 % (soit environ 0,8 seconde…). Pas de quoi révolutionner le monde, mais toujours bon à prendre.

« Nous prévoyons de rendre la compatibilité des pages de 16 Ko requise pour les téléchargements d’applications sur le Play Store l’année prochaine ». Avec la hausse de la quantité de mémoire dans les terminaux mobiles, la prise en charge des pages de 16 ko devrait aussi augmenter sur les terminaux. Le mouvement est en tout cas lancé chez Google.

Dans Android 15, le décodeur logiciel AV1 dav1d de VideoLAN « est disponible pour les appareils Android ne prenant pas en charge le décodage AV1 de manière matérielle. Il est jusqu’à trois fois plus performant que l’ancien décodeur logiciel AV1 ».

OpenGL over Vulkan

Sur la partie graphique, Google rappelle que l’API Vulkan est disponible dans le NDK depuis Android 7.0 et qu’elle est « l’interface préférée d’Android pour le GPU ». Android 15 prend en charge la couche d’abstraction ANGLE (Almost Native Graphics Layer Engine) développée par Google « pour exécuter OpenGL ES sur Vulkan ».

ANGLE est pour le moment présent pour des tests, tandis qu’il deviendra le pilote par défaut sur de nombreux terminaux l’année prochaine (probablement avec Android 16). En 2026 (avec Android 17 ?), Google a « l’espoir qu’OpenGL ES ne sera disponible que via ANGLE ». « Nous prévoyons de continuer à prendre en charge OpenGL ES sur tous les appareils », précise rapidement (et en gras) le billet de blog.

Les autres changements, la Platform Stability approche

Sous le capot toujours, Google renforce ses mécanismes de protection contre les applications malveillantes. Pour les applications utilisant la fonctionnalité Picture-in-Picture (PiP), Android 15 promet d’être encore plus fluide. Cette seconde bêta permet aussi aux développeurs de « jouer » avec les vibrations afin de les personnaliser en fonction du type de notification.

Dans Health Connect, deux nouveaux types de données sont pris en charge : la température cutanée et les plans d’entraînement. Vous pouvez désormais préciser à Android le genre à utiliser pour vous parler. C’était déjà possible en français, mais cette fonctionnalité débarque dans d’autres langues.

Des améliorations sont aussi de la partie pour les polices d’écriture en chinois, japonais et coréen. La version minimale du SDK à prendre en charge pour pouvoir installer des applications passe de la 23 à la 24.

La prochaine grande étape arrivera en juin, avec la Platform Stability pour Android 15. À ce moment-là, les API des SDK/NDK seront figées, permettant aux développeurs de se préparer pleinement à la sortie du nouveau système d’exploitation mobile. Une autre bêta est prévue au moins en juillet, puis la version finale vers la rentrée.

Les notes de version détaillées se trouvent par ici. Les Pixel à partir des 6, 6a et 6 Pro peuvent en profiter, ainsi que des smartphones de partenaires chez Honor, Lenovo, OnePlus, realme, vivo et Xiaomi pour ne citer qu’eux. Tous les liens se trouvent par là.

De l’IA un peu partout

Plus tard dans l’année, Google ajoutera une fonctionnalité à Android : la détection de vol, avec l’aide de l’intelligence artificielle. L’IA était pour rappel (et sans aucune surprise) au centre des annonces de Google lors de sa conférence I/O. La société en met partout, à toutes les sauces ou presque, y compris dans les résultats de son moteur de recherche.

Le principe est simple : l’IA essayera de détecter « si quelqu’un vous arrache votre téléphone des mains et essaie de courir, de faire du vélo ou de s’enfuir avec ». Dans ce cas, le téléphone se verrouillera automatiquement.

Toujours avec de l’intelligence artificielle, Google Play Protect scrutera votre appareil pour « repérer les applications susceptibles de se livrer à une fraude ou à un hameçonnage ». En cas d’alerte, « l’application est envoyée à Google pour un examen supplémentaire ». L’utilisateur est prévenu et l’application désactivée si besoin. Google affirme ne pas collecter de données personnelles.

Dans Google Wallet, vous pourrez prochainement prendre en photo des cartes physiques (billets, bibliothèque, assurance, abonnement…) et en créer une version numérique, accessible directement depuis votre Wallet. L’application se charge de récupérer les données de la photo (comme certaines le fond déjà avec les cartes bancaires au moment de payer) et de les remettre en ordre.

La réalité augmentée (AR) basée sur la géolocalisation prendra plus de place dans Maps sur smartphone. Si un point d’intérêt propose du contenu AR et que vous vous trouvez à proximité, il suffira de cliquer sur « AR Experience » pour en profiter sur son écran. « Notre programme d’accès anticipé débutera à Singapour et à Paris plus tard cette année en tant que projet pilote de 6 mois ». Une vidéo de présentation à Paris a été mise en ligne.

Wear OS 5 en Developer Preview

Les montres connectées avec Wear OS ont aussi droit à leur nouveauté, avec la version 5 du système en Developer Preview. Elle est basée sur Android 14 et « l’amélioration continue de l’autonomie de la batterie est au cœur de notre version de Wear OS 5 », affirme Google. Courir un marathon consomme, par exemple, 20 % de moins (sur la montre, pas pour vous) qu’avec Wear OS 4.

Le site BreachForums et ses chaînes Telegram ont été saisis par le FBI

Breached, again

Le principal forum anglophone d’échange et de vente de données volées a, pour la troisième fois en trois ans, été saisi par les autorités. Il venait de mettre en vente des données issues d’Europol, et trois exploits 0day.

BreachForums, le forum anglophone de partage et de vente de violations de données personnelles, a de nouveau été saisi par les autorités américaines, dans le cadre d’une enquête internationale impliquant les polices du Royaume-Uni, de Nouvelle-Zélande, d’Australie, de Suisse, de l’Ukraine et de l’Islande, rapportent H4ckManac et de nombreux observateurs des forums cybercriminels.

Capture d'écran du message du FBI après la saisie de BreachForums

Cette saisie intervient peu après qu’IntelBroker, un acteur de la menace russe arborant un avatar nazi et devenu modérateur de BreachForums, y ait mis en vente la semaine passée des données volées via le portail Europol Platform for Experts (EPE), précise DataBreaches.

L’EPE est une plateforme en ligne que les experts des services répressifs utilisent pour « partager leurs connaissances, leurs meilleures pratiques et des données non personnelles sur la criminalité ». Le portail affiche encore, à ce jour, qu’il est « actuellement en maintenance ».

Europol avait confirmé la compromission des données du portail auprès de BleepingComputer, précisant que le ou les attaquants s’étaient probablement introduits en utilisant des informations d’identification volées :

« Aucune information opérationnelle n’est traitée sur cette application EPE. Aucun système central d’Europol n’est affecté et, par conséquent, aucune donnée opérationnelle d’Europol n’a été compromise. »

IntelBroker affirme également avoir compromis la plateforme SIRIUS utilisée pour accéder à des preuves électroniques transfrontalières dans le cadre d’enquêtes et de procédures pénales par les autorités judiciaires et policières de 47 pays, dont les États membres de l’UE, le Royaume-Uni, les pays ayant conclu un accord de coopération avec Eurojust et le Parquet européen (EPPO).

Aucun des documents de l’échantillon ne portait de mention de classification, mais certains étaient tamponnés « For Official Use Only (FOUO) ».

Trois exploits 0days avaient également été mis en vente sur BreachForums par un utilisateur se faisant appeler Cvsp, souligne DataBreaches. L’une des annonces concernait un exploit VMware ESXi VME (au prix de 1,3 million de dollars), l’autre un exploit Windows LPE (pour 150 000 dollars) et la troisième un exploit Outlook RCE (mis à prix : 1,7 million de dollars).

20 ans de liberté surveillée, 1 an privé d’Internet


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Caroline Blanchot (Ugit CGT) appelle à un débat public sur le déploiement de l’intelligence artificielle

Illustration chimérique d'internautes

Dans une tribune au Monde, la secrétaire générale de l’Union général des ingénieurs, cadres et techniciens CGT Caroline Blanchot critique les conclusions du rapport rendu mi-mars au président de la République par la Commission de l’intelligence artificielle.

« En engageant la nation “encore plus vite et encore plus loin” dans le numérique et « sans régulation » », écrit-elle, citant Bruno Le Maire, « le gouvernement s’affranchit de tout débat, pourtant nécessaire pour introduire une telle technologie capable de refaçonner nos sociétés ».

Et d’appeler à un « véritable débat sociétal », qui serait « d’ailleurs l’occasion de revitaliser notre démocratie ».

Sujets prioritaires, pour la syndicaliste : les effets de l’intelligence artificielle sur le travail (elle regrette les « montants dérisoires (200 millions d’euros) » prévus pour les reconversions professionnelles), la question du coût environnemental de l’IA, alors que sa demande exponentielle risque de faire exploser la consommation d’eau des datacenters, et le maintien des droits numériques des internautes (droit à l’information, à l’accès, à la rectification, à l’oubli et à la portabilité).

Caroline Blanchot souligne par ailleurs que, bien mobilisées, les technologies au sens large permettraient d’ « établir une cartographie de l’empreinte sociale et écologique de toute la chaîne de fabrication et de valeur ». « Mais l’IA servira-t-elle à ça, et surtout… qui doit en décider ? »

OpenAI : l’équipe chargée de contrôler les IA s’amenuise

Who will watch the superintelligence?
Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

OpenAI a subi mercredi 15 mai les départs de deux de ses chercheurs qui dirigeaient son équipe nommée « Superalignment » : Ilya Sutskever et Jan Leike. Ceux-ci travaillaient au sein d’OpenAI sur des travaux de recherche en vue de maitriser l’avènement d’une potentielle IA générale que toute l’équipe dirigeante de l’entreprise affiche comme imminente.

Sam Altman a publié un billet de blog pour annoncer la nouvelle : « Ilya et OpenAI vont se séparer. C’est très triste pour moi ; Ilya est sans aucun doute l’un des plus grands esprits de notre génération, un phare dans ce domaine et un ami cher. Son génie et sa vision sont bien connus. Sa chaleur et sa compassion sont moins connues, mais non moins importantes ».

Ilya Sutskever est co-fondateur d’OpenAI et était depuis le début son responsable scientifique.

Jan Leike, un autre membre de l’équipe de recherche d’OpenAI, a annoncé en parallèle son départ d’un bref « j’ai démissionné » sur Twitter. Tous les deux étaient à la tête de l’équipe « Superalignment » d’OpenAI.

La persuasion d’un avènement proche de l’intelligence artificielle générale

Persuadés que l’intelligence artificielle générale (AGI) est proche, ils ont monté cette équipe au sein de l’entreprise il y a un peu moins d’un an dans le but de trouver des solutions « pour piloter et contrôler des systèmes d’IA beaucoup plus intelligents que nous ».

Sans aucune pincette ni fondement scientifique, cette équipe affirmait que « la superintelligence sera la technologie la plus importante que l’humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants du monde ».

« Mais l’immense pouvoir de la superintelligence pourrait aussi être très dangereux et conduire à la déresponsabilisation de l’humanité, voire à son extinction », expliquaient-ils, ce qui justifiait la création d’une telle équipe au sein de l’entreprise leader de l’IA générative.

Dans son tweet annonçant son départ, Ilya Sutskever ré-affirme être « convaincu qu’OpenAI construira une AGI à la fois sûre et bénéfique ».

Pourtant, Ilya Sutskever fait partie des membres du Conseil d’administration qui avaient voté pour le départ de Sam Altman au début de la semaine de folie de novembre dernier pendant laquelle le CEO d’OpenAI a été limogé puis réintégré, après un passage éclair chez Microsoft.

Il avait ensuite regretté sa participation « aux actions du conseil d’administration ». Comme l’expliquait à l’époque The Atlantic, les tensions au sein d’OpenAI étaient dues, en partie, à cause d’une divergence profonde : « alors qu’Altman et Greg Brockman [qui a suivi Sam Saltman dans ses allers-retours, ndlr], président d’OpenAI, encourageaient une commercialisation accrue, le responsable scientifique de l’entreprise, Ilya Sutskever, s’inquiétait de plus en plus de savoir si OpenAI respectait la mission de l’association à but non lucratif qui consistait à créer des IAG bénéfiques ».

À la réintégration de Sam Altman, Ilya Sutskever a quitté le conseil d’administration tout en restant à son poste de responsable scientifique.

Dans son billet, Sam Altman annonce qu’Ilya Sutskever sera remplacé par Jakub Pachocki, qui était jusque-là responsable de l’équipe de recherche de l’entreprise sur l’optimisation du deep learning et de l’apprentissage par renforcement à grande échelle.

De son côté, Jan Leike devrait être remplacé par John Schulman qui était responsable de l’équipe qui travaille sur l’apprentissage par renforcement.

Depuis le début de l’année, Daniel Kokotajlo,William Saunders, Leopold Aschenbrenner et Pavel Izmailov, d’autres membres (ou ex-membres) de l’équipe « Superalignment » ont, eux aussi, quitté le navire. Dans le cas des deux derniers, il s’agit d’un licenciement suite à des fuites d’informations.

Si John Schulman doit prendre la tête de cette équipe de plus en plus vide, il n’est pas sûr que Jakub Pachocki reprenne aussi cette responsabilité.

Peu de résultats de recherche

À la création de l’équipe « Superalignment » en juillet 2023, celle-ci se donnait quatre ans pour résoudre le « problème » du manque de moyen pour « pour piloter et contrôler des systèmes d’IA beaucoup plus intelligents que nous ».

L’équipe a, en un an et depuis sa création, mis en ligne un seul article dans laquelle elle se pose la question « Peut-on utiliser un modèle plus petit (moins performant) pour superviser un modèle plus grand (plus performant) ? ». Elle y expliquait que « lorsque nous supervisons GPT-4 avec un modèle de niveau GPT-2 en utilisant cette méthode pour des tâches de Traitement automatique du langage naturel, le modèle résultant a généralement des performances comprises entre GPT-3 et GPT-3.5 ». Les chercheurs de l’équipe concluaient néanmoins qu’ « il existe encore d’importantes disparités entre notre configuration empirique actuelle et le problème ultime de l’alignement des modèles surhumains ».

Il reste trois ans à leurs remplaçants pour atteindre le but que s’était fixé l’équipe, si la volonté est encore là de pousser la recherche de l’entreprise dans ce sens.

Car ces départs montrent que ceux qui affichaient les positions les plus effrayées face à l’arrivée prochaine d’une intelligence artificielle générale n’ont plus un poids significatif au sein d’OpenAI.

☕️ Fronde européenne contre Temu

Dans un communiqué, le BEUC (bureau européen des unions de consommateurs) explique que la plateforme de e-commerce (qui revendique pas moins de 75 millions d’utilisateurs mensuels en Europe) « ne protège pas les consommateurs en enfreignant le Digital Services Act, une loi européenne importante et récente qui fixe des exigences et des obligations pour les places de marché en ligne ».

Le BEUC a ainsi déposé une plainte auprès de la Commission européenne, tandis que 17 de ses membres ont fait de même auprès des autorités nationales. En France, c’est l’UFC-Que Choisir qui monte au créneau et dépose plainte devant l’Arcom.

L’association dresse la liste des griefs :

Temu ne fournit pas une traçabilité suffisante des professionnels qui vendent des produits sur la plateforme. Il s’agit d’une infraction majeure car les consommateurs doivent savoir à qui ils achètent et qui contacter en cas de problème, notamment pour obtenir un remplacement, une réparation ou un remboursement de leur produit ;
Temu est tenue d’expliquer le fonctionnement de ses systèmes de recommandation et la valeur des critères de sélection pour l’affichage des produits individuels. Cependant, Temu ne le fait que de manière très rudimentaire, ce qui ne répond pas aux normes ;
Temu ne fournit pas de hauts niveaux de sécurité aux mineurs en ne conditionnant pas l’accès au service à une vérification d’âge ;
Temu utilise un certain nombre de techniques de manipulation, appelées « dark patterns », notamment par l’utilisation de faux compteurs de temps ou en créant un prétendu stock limité créant un sentiment d’urgence.

☕️ Microsoft suggère à des centaines d’employés chinois de se relocaliser

Microsoft a suggéré à plusieurs centaines d’employés de ses départements spécialisés dans le cloud et l’intelligence artificielle en Chine d’envisager de changer de pays, selon les informations du Wall Street Journal.

En pleines tensions entre les États-Unis et la Chine, ces ingénieurs, en majorité de nationalité chinoise, se sont vu proposer des délocalisations en Irlande, en Australie, aux États-Unis et ailleurs.

Auprès de Reuters, l’entreprise déclare que proposer de telles « opportunités internes fait partie intégrant de la gestion de [leurs] activités mondiales ».

Dans ce cadre, elle confirme avoir transmis des opportunités facultatives à un certain nombre d’employés localisés en Chine, sans préciser le nombre de personnes concernées – le Wall Street Journal l’estime entre 700 et 800 personnes.

Google donne les clés de son moteur de recherche à l’IA générative

Sundar, un ami qui vous veut du bien
Illustration de Flock sur I/O 2024 axé sur l'IA

Google a annoncé de gros changements dédiés à l’activité qui a fait sa célébrité : la recherche. Alors que des rumeurs insistantes veulent qu’OpenAI lance son propre moteur de recherche cette année, l’entreprise de Montain View intègre aux forceps l’IA générative dans les résultats. Après un an de test, la fonctionnalité se lance dans le grand bain.

Moteur de recherche : un changement radical pour tous, par défaut

Il y avait déjà des éléments alimentés par l’IA dans les résultats, mais il s’agit cette fois de mettre l’accent sur la fonction. Depuis mai 2023, Google « dynamise la recherche avec l’IA générative », mais uniquement sous forme de test via la Search Generative Experience (SGE) du Search Labs.

En mars de cette année, un premier changement important : cette fonctionnalité poussée par l’IA générative était automatiquement proposée à certains utilisateurs, sans qu’ils aient besoin de s’inscrire au SGE. Cela concernait un « sous-ensemble de requêtes, sur un petit pourcentage du trafic de recherche aux États-Unis », affirmait l’entreprise à Search Engine Land. Désormais, Google passe la seconde : « AI Overview commence à être déployé pour tout le monde aux États-Unis, et d’autres pays seront bientôt disponibles ». C’est à n’en point douter un mouvement mondial, pour l’ensemble des utilisateurs.

Comme montré dans la vidéo de Google, les résultats d’une recherche montreront d’abord le résumé de ce qu’en aura compris le moteur. Les sources seront citées, ce qui signifie que des sites seront mis en avant. La liste classique viendra en dessous. L’ensemble est baptisé AI Overview.

Google rassure, les éditeurs s’inquiètent


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Raspberry Pi confirme son intention d’entrer en bourse, à Londres

On en parle depuis des mois maintenant, mais les choses s’accélèrent. La fondation en charge de développer le micro-ordinateur a publié une série de documents sur son site dédié aux investisseurs, confirmant ainsi une information de Reuters.

Raspberry Pi en profite pour faire les comptes : plus de 60 millions de micro-ordinateurs vendus depuis ses débuts en 2012, dont 7,4 millions l’année dernière. Niveau finance, tout va bien : « Pour l’exercice terminé le 31 décembre 2023, les revenus s’élevaient à 265,8 millions de dollars, avec un bénéfice brut de 66,0 millions de dollars et un résultat opérationnel bénéfice de 37,5 millions de dollars ».

« Pour la Fondation Raspberry Pi, actionnaire patient et solidaire, cette introduction en bourse est l’opportunité de redoubler d’efforts pour permettre aux jeunes de réaliser leur potentiel grâce à la puissance de l’informatique », explique Eben Upton (CEO de Raspberry Pi).

La cotation se ferait au London Stock Exchange. Il est prévu de mettre en vente des actions existantes et d’en introduire de nouvelles. Il n’y a pas de précision sur le tarif visé pour le moment, ni sur la date d’introduction en bourse.

« Raspberry Pi a déclaré qu’elle visait une cotation premium sur le marché principal, ce qui signifie qu’elle pourra être incluse dans les indices FTSE. En raison de sa taille, il est probable qu’elle fasse partie de l’indice FTSE 250 », ajoute ZoneBourse.

Blocage de TikTok en Nouvelle-Calédonie : quels sont les enjeux ?

Tik tok tic tac
TikTok

Le blocage du réseau social TikTok est une première pour la France. Mais la situation en Nouvelle-Calédonie est différente de celle en métropole, où mettre en place un tel blocage aurait été plus compliqué. Explications.

Depuis hier 20h, « l’état d’urgence est déclaré sur l’ensemble du territoire de la Nouvelle-Calédonie », comme en atteste le décret n° 2024-436 du 15 mai 2024. Cette décision est une réponse aux violentes émeutes (qui ont fait plusieurs morts, dont un gendarme) déclenchées suite à l’adoption, par l’Assemblée nationale et le Sénat, d’une « révision constitutionnelle réformant le corps électoral calédonien, dont les indépendantistes ne veulent pas », explique France Bleu.

Interdiction de TikTok : une mesure « sans précédent »

Le premier ministre, Gabriel Attal, explique que Louis Le Franc, haut-commissaire de la République en Nouvelle-Calédonie (qui est donc dépositaire de l’autorité de l’État dans l’archipel), a « interdit TikTok ». Le réseau social est ciblé, car il est très utilisé par les émeutiers, explique l’AFP.

« Cette mesure d’interdiction intervient également sur fond de craintes d’ingérences et de désinformation sur les réseaux sociaux venant de pays étrangers qui chercheraient à attiser les tensions », détaille le Monde en se basant sur des sources gouvernementales et de sécurité.

Ces dernières évoquent « des pays comme la Chine [ByteDance, le propriétaire de TikTok est chinois, ndlr] ou l’Azerbaïdjan ». Viginum (le service de détection des ingérences numériques étrangères) était déjà monté au créneau pour dénoncer une campagne de déstabilisation des JO de Paris liée à l’Azerbaïdjan Sur le blocage de Twitter, Emmanuel Poinas, vice-président du tribunal de Nouméa, expliquait ce matin à BFM que le réseau social offre « des possibilités de diffuser de l’information qui n’est pas forcément fiable. En l’état, la diffusion d’informations non fiables ne peut que développer des risques de trouble et d’émeutes ». TikTok n’est pas le seul dans ce cas, mais sa forte notoriété auprès des jeunes pourrait en faire une cible de choix. Pour rappel, la question du blocage des réseaux sociaux avait déjà été soulevée par Emmanuel Macron pendant les émeutes en métropole après la mort de Nahel.

Une mesure proportionnée ?

Nicolas Hervieu (spécialiste du droit public et européen), explique que « cette mesure (sans précédent…) est liée au régime de l'état d'urgence ». Il ajoute néanmoins que « la légalité de cette décision du ministère de l’Intérieur annoncée par Gabriel Attal est discutable. Car le lien avec le terrorisme est plus que douteux… ». En effet, le décret du 15 mai s’appuie sur la loi du 3 avril 1955 relative à l’état d’urgence, qui stipule : « Le ministre de l'Intérieur peut prendre toute mesure pour assurer l'interruption de tout service de communication au public en ligne provoquant à la commission d'actes de terrorisme ou en faisant l'apologie ». De son côté, Maitre « Eolas » (un pseudo, mais un vrai avocat) explique que « c’est une interdiction provisoire, dans le cadre de l’état d’urgence. S’il s’avérait que les émeutiers utilisent TikTok pour provoquer à la rébellion armée et se coordonner, c’est une mesure qui peut être proportionnée à la nécessité de rétablir l’ordre et la sécurité publique ». Cela laisse donc une ouverture aux citoyens de Nouvelle-Calédonie pour contester cette décision, en se basant « sur l’illégalité manifeste de cette décision compte tenu du fait que le blocage n’est possible qu’en cas de provocation ou apologie du terrorisme au sens stricte », explique Nicolas Hervieu au Figaro.

Le droit de l’Union européenne reste à distance

Alexandre Archambault, également avocat et spécialiste du numérique, ajoute que cette interdiction est « envisageable (en théorie) sur toute portion du territoire non soumise au droit de l'Union », mais qu’elle est « inopérante sur toute autre partie soumise au droit de l'Union ». Il explique en effet que les services de la Commission européenne estiment « que des troubles à l'ordre public dans un seul État ne peuvent fonder blocage VLOP ». Ce terme désigne les Très grandes plateformes en ligne, dont fait partie TikTok, qui sont soumises au DSA. La Nouvelle-Calédonie, la Polynésie française, Saint-Pierre-et-Miquelon, les Terres australes et antarctiques françaises, Wallis-et-Futuna et Saint-Barthélemy sont en effet des pays et des territoires d’outre-mer (PTOM). Ils « ne sont pas intégrés à l’Union européenne, mais ils bénéficient d’un régime d’association », explique Vie-publique.fr. Une différence qui a donc toute son importance. De leur côté, Saint-Martin, la Martinique, La Réunion, Mayotte, la Guadeloupe, et la Guyane sont des régions ultrapériphériques (RUP). Elles « font partie intégrante de l’UE et sont assujetties au droit communautaire, au même titre que les autres régions européennes », explique la représentation permanente de la France auprès de l’Union européenne. La situation serait donc différente si les émeutes se déroulaient à la Réunion ou en métropole, par exemple, et que le gouvernement souhaitait bloquer TikTok.

Un blocage « opérationnel » sur les mobiles

Toujours est-il que « c’est en vigueur et ça fonctionne opérationnellement (uniquement sur les téléphones). C’est l’office des postes et des télécommunications de Nouvelle-Calédonie qui intervient depuis hier pour bloquer les accès à l’application TikTok », confirme le cabinet du premier ministre à BFM. La méthode utilisée (blocage DNS, par IP, autres…) n’est pas précisée. Le blocage est d’autant plus simple à mettre en place, qu’en Nouvelle-Calédonie il y a un « unique régulateur et opérateur local, l'Office des Postes et Télécommunications de Nouvelle-Calédonie, l'OPT-NC », ajoute Alexandre Archambault à nos confrères. En métropole, la multiplication des opérateurs (fixes et mobiles) et la réglementation européenne auraient compliqué les choses. Reste maintenant la question de l’efficacité de cette mesure. Le blocage mis en place peut-il facilement être contourné ? Les émeutiers vont-ils rapidement changer de réseaux sociaux ? Combien de temps cette mesure va-t-elle rester en place ? Aucune réponse à ces questions n'a été formulée pour le moment. Concernant la Nouvelle-Calédonie, Gabriel Attal va présider une nouvelle cellule de crise ce matin à 8h30. Emmanuel Macron a de son côté proposé aux élus calédoniens un « échange par visioconférence », après une réunion de crise prévue à 11h. Rappelons enfin que le décalage horaire est important avec Paris, puisqu’il y a neuf heures de plus à Nouméa.

☕️ VMware Workstation Pro et Fusion Pro deviennent gratuits en usage personnel

Personne offrant un cadeau

Comme nous l’indiquions dernièrement, VMware s’est lancé dans un grand ménage de ses licences depuis le rachat par Broadcom. Les licences perpétuelles disparaissent et l’éditeur se focalise sur les produits serveurs et cloud, au détriment des produits « front ».

Dans la foulée, il n’y a pas que des mauvaises nouvelles. Les clients de virtualisation Workstation Pro (Windows, Linux) et Fusion Pro (Mac) peuvent maintenant être utilisés gratuitement pour un usage personnel.

La seule condition pour utiliser les logiciels est de s’inscrire sur le site de VMware pour avoir un compte. L’usage commercial, lui, reste payant.

Google fait un all-in sur l’IA avec Gemini

From Google I/O to Google I/A
Illustration de Flock sur I/O 2024 axé sur l'IA

Google a donné hier soir le top départ de sa conférence I/O 2024. Comme prévu, il n’a pratiquement été question que d’intelligence artificielle. Bon gré mal gré, l’entreprise diffuse Gemini dans tous ses produits, confirmant que pas un service n’y échappera. Dans la masse, certaines annonces sont particulièrement intéressantes.

Pas question pour Google de se laisser distancer. Face à la toute-puissance d’OpenAI et de ses modèles GPT, la firme de Mountain View persiste et signe : elle sait où elle va. Les annonces de la conférence I/O vont ainsi toutes dans la même direction, du renforcement des modèles existants aux nouvelles fonctions affiliées Gemini dans les services de l’entreprise.

Si une partie des annonces concerne les développeurs, d’autres touchent directement les utilisateurs finaux. En revanche, tout ce qui concerne Android 15 ne sera dévoilé que ce soir. Concernant la partie matérielle, nous sommes déjà revenus sur le nouveau TPU de 6e génération.

On commence avec les annonces liées à Gemini. Nous en reviendrons plus tard sur les autres apports, notamment ceux pour Android.

Gemini 1.5 Pro grimpe à deux millions de jetons


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Starliner encore repoussée, une fuite d’hélium détectée

Après plusieurs années de retard, on pourrait se dire qu’on n’est plus à quelques jours près. La capsule habitable Starliner de Boeing qui doit concurrencer Crew Dragon de SpaceX n’a toujours pas décollé. Le lancement est entaché de plusieurs problèmes depuis des années.

C’était au début une vanne sur l’étage supérieur du lanceur (Atlas V), qui a été réparée et testée. Mais dans la foulée, une petite fuite d’hélium a été détectée dans le module de service de la capsule. « L’hélium est utilisé dans les systèmes de propulseurs des engins spatiaux pour permettre aux propulseurs de s’allumer et n’est ni combustible ni toxique », précise Boeing.

« Les équipes visent maintenant une date de lancement au plus tôt à 22h43 le mardi 21 mai, pour effectuer des tests supplémentaires ». Atlas V et Starliner restent pour l’instant en place (à la verticale) dans le lancement spatial-41. Les astronautes sont pour le moment retournés avec leur famille à Houston, ajoute la NASA.

Boeing est actuellement confronté à une série noire avec ses avions, avec une multiplication des incidents. Les retards et les problèmes à répétition de Starliner viennent s’ajouter, sans oublier Elon Musk qui en profite pour tacler allègrement le retard de son concurrent.

☕️ Ryzen 5 8400F et 7 8700F : deux CPU AM5, USB4 et PCIe 4.0

Au début de l’année, AMD lançait ses APU Ryzen de la série 8000G, des CPU avec une partie graphique intégrée, contrairement à la série 7000. Voilà qu’AMD a décidé de lancer deux nouvelles références se terminant par un F. Vous l’aurez certainement compris, il s’agit de processeurs sans partie graphique.

Le Ryzen 5 8400F dispose de 6 cœurs (4,2 GHz, 4,7 GHz en boost) et 12 threads, contre 8 cœurs (4,1 GHz, 5 GHz en boost) et 16 threads pour le Ryzen 7 8700F. Cette fois, AMD ne mélange pas les architectures Zen 4 et 4C puisque tous les cœurs sont des Zen 4. Pour le reste, ils reprennent les caractéristiques techniques de la série 8000, notamment l’impasse sur le PCIe 5.0 pour n’avoir que 16 lignes PCIe 4.0 utilisables.

Seul le Ryzen 7 8700F dispose du moteur Ryzen AI pour les calculs liés à l’intelligence artificielle. Celui-ci n’est disponible que s’il « est associé à une carte graphique Radeon compatible avec accélération AI », précise AMD.

Le Ryzen 5 8400F est vendu aux alentours de 210 euros chez les revendeurs mis en avant par AMD, contre 330 euros pour le Ryzen 7 8700F.

Le Ryzen 5 8400F se place donc en face du Ryzen 5 7600X (fréquence plus rapide, cache L3 plus important et PCIe 5.0) et même au-dessus du Ryzen 5 7600 que l’on trouve à un peu plus de 200 euros.

Nous avons actualisé notre tableau comparatif des processeurs Ryzen avec une architecture Zen 4 pour le grand public (socket AM5) :

Sûreté dans les transports : extension de la vidéosurveillance algorithmique

Mais ce n'est qu'une expérimentation
Dessin de Flock remplaçant les anneaux olympiques par des caméras de vidéosurveillance

Les députés examinent aujourd’hui une proposition de loi sur la sûreté dans les transports, qui vise notamment à autoriser de nouvelles expérimentations en matière de vidéosurveillance algorithmique (VSA). Un texte critiqué par les ONG de défense des droits numériques.

Ce mercredi 15 mai, en commission, les députés examinent une proposition de loi déposée le 28 décembre par le député Philippe Tarabot (Les Républicains) et relative « à la sûreté dans les transports ».

Auprès du Monde, son rapporteur Clément Beaune ne cache pas que cette proposition de loi s’inscrit dans la droite ligne des lois « sécurité globale » de 2021, Jeux Olympiques de 2023 et Savary (relative à la lutte contre les incivilités, les atteintes à la sécurité publique et les actes terroristes dans les transports collectifs) de 2016.

Alors qu’Amnesty International appelle les parlementaires à ancrer dans la loi une interdiction de recours à la reconnaissance faciale dans l’espace public, l’ancien ministre insiste de son côté sur le fait que ce texte-ci « ne permet pas l’utilisation de la reconnaissance faciale ou d’outils biométriques ». Il permet, en revanche, l’usage de traitements algorithmiques sur les captations de vidéosurveillance réalisées par les agents.

La Quadrature du Net, de son côté, critique autant le fond que la forme : le texte est étudié en procédure accélérée, ce qui signifie qu’il ne fera l’objet que d’une lecture par Chambre. Le but : la rendre opérationnelle avant l’ouverture des Jeux olympiques et paralympiques.

Spécialiste des enjeux de surveillance, l’association déclare ne pas avoir été auditionnée et estime que la rapidité du processus empêche les parlementaires d’être correctement informés sur les enjeux posés par les technologies dont il est question.

La technologie pour « sécuriser l’offre de service »

En pratique, c’est le chapitre III du texte, intitulé « une sécurisation de l’offre de service par la technologie », qui concentre le gros des critiques. En l’état, celui-ci prévoit que « dans l’exercice de leurs missions […] et dans le cadre de la prévention des atteintes à l’ordre public, les agents assermentés […] peuvent procéder, au moyen de caméras individuelles, à un enregistrement audiovisuel de leurs interventions lorsque se produit ou est susceptible de se produire un incident, eu égard aux circonstances de l’intervention ou au comportement des personnes concernées. »

L’enregistrement est déclaré non permanent, et a « pour finalités la prévention des incidents au cours des interventions des agents assermentés […] le constat des infractions et la poursuite de leurs auteurs par la collecte de preuves ainsi que la formation et la pédagogie des agents. Lorsque la sécurité des agents est menacée, les images captées et enregistrées au moyen de caméras individuelles peuvent être transmises en temps réel au poste de commandement du service concerné. »

Les caméras doivent être portées « de façon apparente », un « signal visuel » doit témoigner de l’enregistrement en cours, et les personnes enregistrées en être informées. « Les enregistrements audiovisuels, hors le cas où ils sont utilisés dans le cadre d’une procédure judiciaire, administrative ou disciplinaire, sont effacés au bout de trente jours. »

L’article 8 bis donne aussi, « à titre expérimental », l’autorisation pour les « conducteurs des services réguliers de transport public par autobus ou autocars » de recourir aux caméras individuelles, pour les mêmes raisons.

L’article 11 permet par ailleurs aux opérateurs de transport public de « mettre en œuvre un système consistant en la captation, la transmission et l’enregistrement du son dans les véhicules qu’ils utilisent » pour leur service régulier. Et ce, pour les mêmes motifs qu’ils sont autorisés à réaliser des enregistrements audiovisuels.

Craintes durables envers les expérimentations de vidéosurveillance algorithmique

Le traitement algorithmique des flux collectés, de son côté, est encadré par l’article 9 de la proposition de loi. La Quadrature du Net critique un « quasi copié-collé de l’article 10 de la loi relative aux Jeux olympiques », en ce qu’il permet, « à titre expérimental et jusqu’à 1er janvier 2027 », de « mettre en œuvre des logiciels de traitement de données non biométriques pour extraire et exporter les images ainsi réquisitionnées » pour analyser les images recueillies, lorsqu’il existe « une ou plusieurs raisons plausibles de soupçonner » que les personnes enregistrées ont « commis ou tenté de commettre une infraction ».

L’article 10 de la proposition de loi sur la sûreté dans les transports donne aux services internes de sécurité de la SNCF et de la RATP l’autorisation de « collecter et traiter des données sensibles, à l’exception des données génétiques, biométriques ou concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique ».

En 2023, le Conseil constitutionnel a déclaré l’article 10 du texte précédent (qui permet aussi l’usage de drones) constitutionnel. Cela dit, comme elle le critiquait déjà lors des travaux sur la loi relative aux Jeux olympiques, Amnesty International souligne que de la vidéosurveillance algorithmique à la reconnaissance faciale, « il n’y a qu’un pas ».

La Quadrature du Net considère par ailleurs qu’un projet d’expérimentation sur trois ans comme celui proposé par le texte ne sert qu’à « banaliser et légitimer » des technologies testées illégalement, et dont l’usage ultime consiste à « augmenter le contrôle de l’espace public, réduisant ainsi l’anonymat et les libertés qu’on y exerce ». Et d’illustrer comment, même sans reconnaissance faciale ou biométrique, l’étendue des contrôles déjà rendue possible par les technologies de VSA est large.

Sans compter qu’au sujet de la reconnaissance faciale, des expérimentations sont déjà réalisées, encore une fois de manière illégale.

IA : Google présente Trillium, ses TPU de 6e génération

T là ou TPU là ?

Les Tensor Processing Unit sont des puces développées par Google pour l’intelligence artificielle, de l’entraînement à l’inférence. La société vient d’annoncer sa sixième génération, qu’elle présente comme 4,7x plus performante que la génération précédente.

Hier, lors de la keynote d‘ouverture de la conférence I/O, Google a tiré tous azimuts sur l’intelligence artificielle (nous y reviendrons). La société s’en amuse elle-même avec un décompte officiel : durant son discours, Sundar Pichai y a fait référence pas moins de 121 fois, c’est du moins le décompte fait par… une IA.

Mais pour utiliser des intelligences artificielles, il faut des machines capables de les entrainer et de les faire tourner. Si NVIDIA et ses GPU règnent en maitres sur le haut du panier dans le monde des datacenters, de nombreuses autres sociétés développent leurs propres puces. C’est le cas de Google avec ses Tensor Processing Unit (TPU). Il s’agit d’ASIC (circuits intégrés spécifiques aux applications) conçus « pour accélérer les charges de travail de machine learning ».

TPU v6 : 4,7x plus performantes que les v5e

La sixième génération a été annoncée hier. Elle devrait logiquement s’appeler TPU v6, mais Google n’utilise pas cette appellation dans son communiqué. L’entreprise se contente d’un nom de code : Trillium. Comme nous l’avions déjà détaillé, la précédente génération comportait deux versions : v5e et v5p. Les premières visent le meilleur rapport performances/prix, tandis que les secondes (lancées plus tard) misent tout sur les performances.

Bien évidemment, Google compare sa sixième génération de TPU aux v5e, pas aux V5p. Il est ainsi question d’un maximum de « 4,7 fois plus » de performances par puce, sans savoir à quoi cela correspond exactement.

Si on se base sur les 197 TFLOP du v5e en blfoat16, on arriverait à un maximum théorique de 926 TFLOP, soit deux fois plus que les performances du v5p. Mais le 4.7x pourrait aussi renvoyer à un cas particulier, impossible donc en l’état d’en savoir plus.

Quoi qu’il en soit, pour arriver à cette hausse des performances, Google explique avoir augmenté la taille de ses unités de multiplication matricielle (MXU) et la fréquence d’horloge de sa puce, sans préciser dans quelles mesures.

Bande passante HBM et ICI doublée

Google annonce aussi avoir « doublé la capacité et la bande passante de la mémoire HBM, ainsi que la bande passante Interchip Interconnect (ICI) par rapport au TPU v5e ». On passerait ainsi à 1 638 Go/s sur la mémoire (en prenant 819 Go/s pour le v5e) , ce qui reste en dessous des 2 765 Go/s du v5p.

La bande passante de l’ICI est de 1 600 Gb/s sur v5e, on doit donc arriver à 3 200 Gb/s sur Trillium (TPU v6), contre 4 800 Gb/s sur v5p.

Pour en terminer avec les chiffres, Google affirme que son TPU Trillium est « plus de 67 % plus économe en énergie que le v5e ». Mais comme l’entreprise ne donne pas de chiffre sur la consommation, impossible d’en savoir plus.

« Trillium est équipé de la troisième génération de SparseCore », un accélérateur permettant « d’accélérer l’intégration de charges de travail lourdes ». Google affirme que ses TPU Trillium « permettent de former plus rapidement la prochaine vague de modèles et de servir les modèles avec une latence réduite et un coût moindre ». Une phrase que l’on peut ressortir à chaque nouvelle génération.

Jusqu’à 256 TPU Trillium par pod

Ces TPU de la génération Trillium peuvent être assemblés par paquet de 256 pour former un pod, exactement comme les v5e. Les v5p peuvent s’agglutiner par paquet de 8 960 pour rappel, contre 4 096 pour les v4 et 1 024 pour les v3. Des centaines de pods peuvent s’interconnecter pour former un système capable de délivrer plusieurs péta-opérations par seconde.

Sundar Pichai a indiqué durant la conférence que Trillium sera disponible pour les clients d’ici à la fin de l’année, tout comme le CPU maison Axion d’ailleurs. Il faudra attendre début 2025 pour les GPU Blackwell de NVIDIA.

Stack Overflow face à une révolte contre son accord avec OpenAI

La pile de données

Après la signature du contrat avec OpenAI permettant à l’entreprise d’entrainer ses grands modèles de langage sur les contenus publiés sur son site, Stack Overflow fait face à des utilisateurs mécontents qui ont essayé de supprimer leurs anciens posts. Le site a bloqué toutes les possibilités de retirer le contenu qu’il héberge.

En début de semaine dernière, Stack Overflow a annoncé la signature d’un contrat avec OpenAI. Mais depuis et comme l’a repéré The Verge, une partie de la communauté du site est en colère, certains utilisateurs s’opposent à ce que les questions et réponses qu’ils ont rédigées pendant des années soient vendues et utilisées pour alimenter l’entrainement des modèles d’OpenAI.

Ainsi, comme il l’explique sur son compte Mastodon, l’utilisateur benui a essayé en début de semaine dernière de supprimer ses réponses les mieux notées. Mais il s’est rendu compte que ce n’était pas possible, car Stack Overflow ne permet pas de supprimer des réponses acceptées considérant qu’elles participent à la connaissance bâtie par la communauté de ses utilisateurs.

Benui a finalement décidé de modifier ses réponses en les remplaçant par un message critiquant l’accord avec OpenAI. Mais il explique qu’une heure après, des modérateurs avaient remis la réponse initiale et suspendu son compte pour 7 jours.

Questions et réponses sous licence Creative Commons BY-SA

Depuis, d’autres utilisateurs ont aussi témoigné de cette impossibilité de manifester son refus de l’utilisation de son contenu dans le cadre de l’accord entre Stack Overflow et OpenAI.

Les conditions générales du site expliquent que « vous ne pouvez pas révoquer l’autorisation donnée à Stack Overflow de publier, distribuer, stocker et utiliser ce contenu et de permettre à d’autres personnes d’avoir des droits dérivés pour publier, distribuer, stocker et utiliser ce contenu ».

Le site impose aussi à tous ses utilisateurs de la licence Creative Commons 4.0 BY-SA qui est la licence la plus permissive. Cette licence, utilisée aussi par Wikipédia, permet à n’importe qui, dans n’importe quel but, même commercial, de réutiliser le contenu.

Rappelons aussi qu’il existe déjà depuis quelques années un outil permettant de télécharger l’intégralité de Stack Overflow. Ce projet a été mis en place en collaboration avec le français Kiwix et récupère (« scrap ») les questions/réponses du site pour créer des versions « hors ligne ».

Même sans les accords commerciaux de Stack Overflow, des entreprises peuvent se servir d’une version hors ligne comportant toutes les questions/réponses en licence Creative Commons BY-SA pour entrainer leurs modèles.

Des utilisateurs qui se sentent trahis

Mais Christian Hujer, utilisateur du site, explique sous l’annonce de Stack Overflow que le problème pour lui va au-delà des aspects légaux : « je me sens bafoué, trompé, trahi et exploité ». Lui aussi ajoute qu’il va supprimer son compte, même s’il sait que ses questions et réponses ne seront pas supprimées avec.

Cette fronde des utilisateurs de Stack Overflow n’est pas sans rappeler celle qu’a connue Reddit l’année dernière contre le passage de son API en payant. Le réseau social a finalement réussi à « normaliser » la situation après des mois de remous au sein de sa communauté. On ne sait pas si le mouvement de protestation de la communauté de Stack Overflow va suivre cette voie et à quelle vitesse, mais ce genre d’accords risque de freiner les utilisateurs à participer à la vie de plateformes de ce genre.

❌