Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 17 mai 2024Next.ink

Linux 6.9 améliore encore le support matériel, surtout les processeurs AMD récents

17 mai 2024 à 15:04
Droit au cœur
Photographie retouchée de Long Ma pour Unsplash

Nouvelle mouture pour le noyau Linux, qui passe en version 6.9. Les améliorations sont nombreuses, particulièrement pour le support matériel. On note aussi un meilleur support des écrans 4K et un démarrage plus rapide dans certains.

Les noyaux Linux fournissent l’essentiel du support matériel dans les distributions. On peut bien sûr installer des pilotes dédiés (c’est même souvent le cas avec les GPU NVIDIA), mais c’est bien au « kernel » d’assurer l’exploitation du matériel dans l’immense majorité des cas. Aussi, l’arrivée d’un nouveau noyau permet souvent le support de matériels récents.

Le noyau 6.9 ne fait pas exception et ajoute de nouveaux éléments, notamment pour Intel et AMD.

Du côté des processeurs

L’une des principales améliorations concerne les processeurs Zen et la fonction Preferred Core. Celle-ci permet d’orienter certaines tâches vers les cœurs les plus puissants du processeur, le système communiquant avec l’ordonnanceur pour répartir la charge.

Ce support était attendu pour le noyau 6.8 mais n’avait pas eu le temps d’être finalisé. Pour en profiter, il faut que le pilote P-State d’AMD soit installé. Cet ajout est d’autant plus important qu’AMD fournit un nombre croissant de processeurs comprenant des cœurs performants (Zen4) et des cœurs efficaces (Zen4c).

Restons chez AMD avec deux autres nouveautés. D’abord, une meilleure prise en compte de SEV-SNP, l’une des fonctions dévolues à la sécurité cryptographique dans le pack SEV, qui comprend également SEV-ES. Ces fonctions sont présentes dans les puces EPYC et devraient être toutes gérées dans le noyau 6.10. Ensuite, le support du FRU Memory Poison Manager, qui permet aux informations sur les erreurs en mémoire vive de persister entre les redémarrages.

Côté Intel, on note une série de correctifs pour les processeurs Meteor Lake destinés aux ordinateurs portables. Les paramètres Energy Performance Preference ont été ajustés, avec à la clé de meilleures performances. Signalons aussi l’intégration d’Intel FRED (Flexible Return and Event Delivery), dont la mission est de permettre des transitions entre les niveaux de privilèges avec une latence faible.

Enfin, un support plus étendu des instructions x86S, lancées pour rappel il y a un an pour simplifier l’architecture x86 et supprimer le support des systèmes 16 et 32 bits.

Améliorations graphiques

L’un des plus gros apports du noyau Linux 6.9 est la prise en charge de polices plus grandes dans FBDEV (frame-buffer device). La largeur maximale passe à 64 et la hauteur à 128. Cela ne vous évoque peut-être rien, mais ce changement permet un bien meilleur support des écrans haute définition, notamment 4K, en cas d’utilisation de la console.

Plusieurs autres améliorations sont présentes, notamment pour le pilote i915 d’Intel, le support du tunneling DisplayPort, ou encore celui de fastboot pour les anciennes plateformes.

Processeurs ARM, stockage et autres

Comme toujours, le nouveau noyau propose des ajouts significatifs dans le support de certaines architectures ARM et autres. C’est le cas de RISC-V qui y gagne entre autres la prise en charge des routines cryptographiques à accélération vectorielle.

L’architecture LoongAarch reçoit certaines attentions, elle aussi, dont le support d’objtool, du live-patching (pour appliquer les correctifs du noyau sans redémarrer la machine) ainsi que des fonctions supplémentaires pour la configuration du noyau. Plusieurs nouveautés aussi pour ARM64, dont le support de la compilation Rust dans le noyau.

Côté stockage, signalons l’arrivée d’une grosse nouveauté : la gestion du mode FUSE passthrough. En clair, les opérations de lecture et écriture sont transmises directement par le noyau au système de fichiers de l’espace utilisateur, avec à la clé une amélioration des performances du FS, en évitant de surcharger le daemon. On note aussi des améliorations significatives dans le support de l’exFAT, dont une nette augmentation des performances quand l’option dirsync est activée.

Disponibilité du noyau 6.9

La récupération du nouveau noyau diffère selon la distribution utilisée. Dans la plupart des cas, les distributions classiques (Ubuntu, Fedora…) attendant la version majeure suivante pour livrer une évolution importante du noyau. Dans ce genre de cas, il est conseillé d’attendre, même si des outils permettent le téléchargement et l’installation du nouveau noyau dans sa version générique.

Les autres distributions, en rolling release, proposent déjà ce noyau ou vont le faire très prochainement.

☕️ Firefox 126 est là, le RTX Video Super Resolution de NVIDIA pris en charge

17 mai 2024 à 13:39
Logo de Firefox

La nouvelle mouture du navigateur est en ligne depuis hier. On y trouve plusieurs nouveautés intéressantes, comme une amélioration de la fonction « Copier sans le pistage du site », rajoutée en novembre et qui prend maintenant en compte les URL imbriquées.

Firefox 126 supporte également le standard de compression zstd et le décodage matériel de l’AV1 pour les Mac équipés de puces M3.

Mais le plus gros ajout est sans conteste la prise en charge de deux fonctions de NVIDIA : RTX Video Super Resolution et RTX Video HDR. La première fonctionne comme un DLSS pour les vidéos, pour en améliorer la qualité. L’autre retravaille les vidéos pour les convertir en HDR10.

Dans les deux cas, ce support n’est présent que sous Windows (10 ou 11). Il faut une GeForce RTX de la série 2000 ou plus récente, ainsi qu’un pilote en version 550 au moins. Les options liées à la vidéo doivent être activées dans le panneau de contrôle NVIDIA et le HDR doit être coché dans les paramètres de Windows. Il faut donc un écran compatible.

Côté sécurité, Firefox 126 colmate 17 failles, dont deux critiques.

Écoconception des services numériques : le référentiel est là, avec ses ambitions et limites

17 mai 2024 à 07:00
Et maintenant ?
Une bouteille à la mer numérique par Flock

Le référentiel général de l’écoconception des produits est désormais en ligne. Ce document, très attendu, constitue un premier jet et a la mission délicate de faire bouger les lignes. Il n’est cependant pas contraignant et ambitionne surtout, pour l’instant, la collecte des connaissances et des retours d’expérience.

Ces dernières années, en France, plusieurs agences mettent l’accent sur la sobriété énergétique. Par extension, la sobriété numérique devient un sujet prégnant, nos usages augmentant continuellement.

L’Arcep et l’Arcom, en lien avec l’ADEME, publient donc ce référentiel, après la consultation publique d’octobre dernier. L’objectif est clair : intégrer dès la conception des pratiques vertueuses en matière de minimisation de l’empreinte environnementale. La rédaction du document a également bénéficié du concours de la CNIL, de la DINUM et d’Inria.

Écoconception : de quoi parle-t-on ?

Avant de plonger dans le référentiel, son périmètre et ses objectifs, il faut s’arrêter un instant sur l’écoconception proprement dite. La définition courante – et reprise par le document – est « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».

Une définition qui résume à elle seule l’objectif général du référentiel : minimiser autant que possible la consommation d’énergie et de ressources. Le Graal devient alors un service ayant nécessité le strict minimum à son fonctionnement et n’envoyant que la juste quantité d’informations.

Tout le monde est concerné (ou presque)

Le périmètre du référentiel est vaste. Les serveurs, terminaux, box internet, réseaux d’opérateurs, centres de données, les infrastructures logicielles et plus généralement les services numériques sont concernés. On trouve donc aussi bien des sites web que des API (Application Programming Interface), des systèmes d’exploitation, des systèmes d’intelligence artificielle (SIA), tout le SaaS (Software as a Service), les registres de blockchains, plateformes vidéo et autres services en ligne.

En d’autres termes, tout ce qui touche de près ou de loin au numérique. Mais le référentiel ne se veut pas une bible parée à toutes les utilisations. Comme indiqué, il ne fait « pas obstacle à l’existence de documents d’écoconception complémentaires, plus exhaustifs ou spécifiques à certaines catégories de produits ou services numériques ». Par exemple, un référentiel dédié aux objets connectés (IoT).

Le document se voulant généraliste et un « socle commun de bonnes pratiques », tous les métiers liés au numérique sont concernés. Tout ce qui touche à la gestion des projets, à la maîtrise d’ouvrage, à l’UX (user experience), aux éléments graphiques, au marketing, à l’ingénierie logicielle ou système, ou encore à la publication de contenus est visé.

Quatre axes majeurs

Pour parvenir à maitriser la consommation des services numériques, les trois agences proposent quatre axes principaux d’action.

D’abord, en soulageant les terminaux. Si la fabrication de ces derniers n’entre pas dans le périmètre du texte, il est possible d’influer sur ce qu’ils utilisent. Par exemple, en veillant à ce que les services aient une consommation mesurée de ressources, pour s’assurer que des appareils anciens puissent continuer à les utiliser.

Les autres idées comprennent l’adaptation du service au contexte (par exemple, optimiser la vidéo pour la taille de l’écran, pour éviter la 4K sur un smartphone), la possibilité d’utiliser le service sur le plus grand nombre possible d’appareils (interfaces tactiles et claviers physiques), l’usage de l’open source « comme levier de prolongation de la durée des services » (et donc des terminaux et des objets connectés), ainsi que la disponibilité des mises à jour essentielles pendant toute la durée de vie des terminaux. Le référentiel souhaite également que les services puissent être utilisés sur des versions antérieures des systèmes d’exploitation et navigateurs.

Deuxième axe, la promotion de la sobriété face à la captation de l’attention. Et c’est là un vaste chantier qui s’ouvre pour les agences, car elles souhaitent la restriction des murs de contenus infinis, du déclenchement automatique des vidéos, des notifications intempestives et autres. Le référentiel milite pour des informations claires, la fin des dark patterns (appelés « procédés manipulatoires »), des fonctions telles qu’un bouton ou un mode économie d’énergie. Il est également question de limiter la captation des données et métadonnées à des fins publicitaires.

Troisième axe, la diminution des ressources mobilisées pendant tout le cycle de vie du service. Les pistes avancées sont nombreuses : interroger les appareils pour adapter les ressources consommées aux besoins réels, réduire le poids des contenus multimédias, limiter les requêtes aux serveurs, minimiser les ressources nécessaires aux calculs asynchrones, favoriser les hébergeurs efficients et limiter l’utilisation de technologies énergivores. La blockchain et l’apprentissage automatique (donc les IA) sont citées.

Enfin, pour son dernier axe, le référentiel veut promouvoir la transparence, essentiellement avec une approche « par la donnée ». Par exemple, « a minima » par la publication de chiffres sur les émissions de gaz à effet de serre, la consommation énergétique, ainsi que la consommation en eau et en ressources abiotiques minéraux/métaux. Il n’est cependant pas toujours facile d’avoir des chiffres fiables sur lesquels se baser. De même, par la sélection d’un hébergeur transparent sur ses performances environnementales. Enfin, par la publication des objectifs environnementaux.

Comment s’articule le RGSEN pour les structures intéressées ?

Puisque l’on parle d’un référentiel non contraignant, les structures intéressées par son contenu doivent le prendre en main, via un kit d’autoévaluation, en vue d’une déclaration d’écoconception. Celle-ci, si validée, permet alors à l’entreprise (ou autre) d’en faire la communication, notamment à des fins d’image publique, voire dans sa publicité.

Le référentiel propose ainsi 78 critères (91 dans le document soumis à consultation en octobre), présentés sous forme de questions. Chacun est accompagné d’une fiche pratique pour en expliquer les tenants et aboutissants. Un indice de priorisation est également présent pour chaque critère. Il tient compte de l’impact estimé sur l’empreinte environnementale, de sa portée systémique, de ses éventuels effets indirects sur d’autres secteurs et du niveau d’ambition de sa mise en œuvre. Le référentiel, dans sa première édition finalisée, comprend trois niveaux : Prioritaire, Recommandé et Modéré.

L’ensemble permet de calculer un score. Le calcul tient compte des niveaux, puisque chacun possède un facteur de pondération : 1,5 pour Prioritaire, 1,25 pour Recommandé et 1 pour Modéré. L’obtention du score se calcule en divisant les points obtenus par le nombre maximal de points, puis en multipliant le résultat par 100.

Comme le reste, ces niveaux se présentent comme très généralistes. Le document précise même qu’il s’agit d’informations données « à titre indicatif », puisque la difficulté d’implémentation peut fortement varier d’un service à l’autre et selon le contexte.

Il fallait cependant que le référentiel tienne compte de cette mise en œuvre et donne des pistes.

Des critères nombreux et variés

Le référentiel propose une liste de 78 critères répartis entre les trois niveaux de priorité. Chaque élément est accompagné d’un degré de difficulté : Faible, Modéré ou Fort.

Les 30 premiers éléments sont prioritaires et sont mis en avant car les plus à même d’avoir un impact significatif sur la sobriété numérique. Certains sont directement liés à la stratégie et posent la question de l’intérêt même du service, surtout après pondération de ses impacts environnementaux. Certaines modifications sur un service peuvent en effet amener à revoir intégralement son fonctionnement, voire sa conception. Des objectifs ont-ils été fixés pour réduire ces impacts ? A-t-il été conçu avec des technologies ouvertes et interopérables ?

Une partie des éléments a trait à la conception-même du produit et semblent « évidents », dans la mesure où ces questions interviennent presque à chaque fois : lister les profils matériels pouvant servir à accéder au service, la possible utilisation sur d’anciens modèles de terminaux ou versions d’un système d’exploitation, le type de maintenance prévue, etc. Ou, pour deux éléments classés « Fort », une garantie de démarche de réduction des impacts environnementaux imposée aux fournisseurs et la prise en compte des impacts dans la sélection des services tiers.

Après la stratégie et les spécifications, on trouve six autres rubriques : architecture, expérience et interface utilisateur (UX et UI), contenus, frontend, backend, hébergement et algorithmie. Selon le niveau de priorité, certaines rubriques sont d’ailleurs vides. Par exemple, il n’y a rien pour le frontend en « Prioritaire », aucun critère « Modéré » pour l’algorithmie, etc.

Certaines rubriques attirent également l’attention au regard de l’actualité. L’algorithmie, justement, parce qu’elle renvoie directement à l’IA. Les questions posées par le référentiel ne sont donc pas étonnantes : une phase d’entrainement est-elle réellement nécessaire ? Le niveau de complexité est-il minimisé et proportionnel à l’usage effectif ? La quantité de données a-t-elle été limitée au strict nécessaire ? La stratégie d’inférence est-elle optimisée ?

L’hébergement est également un point important. Les questions posées sont classiques et portent sur la mise en place d’une démarche de réduction de l’empreinte, la gestion durable des équipements ou encore d’un PUE minimisé.

Autre exemple, la vidéo. Le référentiel revient sur l’idée courante d’une adaptation de la qualité selon l’usage, avec mise en avant d’un mode sobriété qui enverrait par exemple du 480p sur smartphone. Les questions posées concernent aussi bien la qualité que la technologie de compression utilisée, la capacité à moduler le flux selon l’appareil visé, etc.

Autant de fiches pratiques que de critères

Dans le document, on remarque vite que la partie la plus intéressante se trouve dans les annexes. Ce sont elles qui contiennent les questions et surtout les fiches pratiques qui les accompagnent.

Ces fiches sont essentielles, car elles détaillent ce qui se cache derrière chaque question : les enjeux, la mise en œuvre, les moyens de tests et de contrôle et une rubrique pour « aller plus loin ».

Pour reprendre le cas de la vidéo, la fiche technique commence par rappeler qu’elle représentait 66 % du trafic internet en 2023 et rappelle les principaux objectifs. Les codecs AV1, VP9 et HEVC sont mis en avant pour leur efficacité, mais peuvent entrainer une consommation supplémentaire d’énergie si leur décodage n’est pas pris matériellement en charge par la puce, le CPU devant alors s’en occuper.

Côté mise en œuvre, le codage à débit variable doit être préféré, selon la fiche, éventuellement avec un plafond maximal pour que « les contenus plus complexes restent lisibles avec une connexion internet à bas débit ». On retrouve bien sûr l’idée d’adaptation de la qualité visuelle en fonction du support, quitte à tenir compte de la présence de texte pour augmenter le début, afin d’en préserver la netteté.

Viennent ensuite plusieurs points à valider afin de remplir le critère : le débit variable, la présence des vidéos dans une définition inférieure à 720p, l’utilisation de codecs accélérés matériellement par la majorité du parc existant et le résumé de tous les choix techniques dans la déclaration d’écoconception.

Il s’agit bien sûr d’un exemple, mais toutes les fiches sont bâties sur le même modèle. Elles sont plus techniques et concrètes que le reste du document et en constituent d’ailleurs la vraie matière.

Derrière l’évidente volonté, les vœux pieux ?

Le document donne de très nombreuses pistes et propulse sous les feux de la rampe une thématique destinée à prendre de l’ampleur. Ne serait-ce que parce que le coût de l’énergie, même si actuellement en baisse, ne reviendra sans doute plus aux anciens niveaux. L’écologie fonctionne mieux quand elle signifie une baisse de la facture. Mais l’énergie n’est qu’une partie du problème, puisque la consommation des matériaux tient également une bonne place dans le référentiel.

On en revient ainsi à l’idée première : n’utiliser que ce qui est réellement nécessaire. Et là, certaines idées peuvent devenir des vœux pieux, à moins de déclencher un sursaut mondial et d’accorder l’ensemble des violons. Reprenons l’exemple des services qui devraient être disponibles sur les anciens systèmes d’exploitation et appareils. Ce seul point ouvre une cascade d’autres.

Il faudrait en effet décider les constructeurs de terminaux à entretenir leurs produits sur une durée bien plus longue qu’actuellement. Si Apple fournit en général au moins cinq ans de mises à jour à ses iPhone, le monde des smartphones Android ressemble plus à une jungle. On espère d’ailleurs que la décision de Google de fournir sept ans de mises à jour majeures (et donc au moins autant de mineures) à toute sa gamme Pixel 8 fera tache d’huile dans l’industrie. Moins de modèles, plus de support ?

Une équation loin d’être évidente, car la plupart des fournisseurs de terminaux et de services sont étrangers. On voit mal comment la France pourrait par exemple convaincre un Samsung de multiplier par deux ou trois la durée de support de ses appareils mobiles. Un règlement européen entrera en vigueur en juin 2025, justement sur les « exigences en matière d’écoconception — smartphones, téléphones portables autres que smartphones, téléphones sans fil et tablettes ». Il est notamment question de proposer « des mises à jour du système d’exploitation pendant au moins cinq ans après la mise sur le marché du produit ».

Autre problème potentiel, certains services ne peuvent plus fonctionner avec d’anciennes versions de systèmes d’exploitation ou de navigateurs pour des raisons de sécurité. C’est le cas des applications bancaires, qui tolèrent mal par exemple les appareils Android rootés.

Même constat pour les mesures liées à la captation d’attention. Comment motiver Meta à revoir le fonctionnement de ses murs de contenus infinis, alors qu’ils sont l’essence de services tels que Facebook et Instagram ?

Un premier pas

Le référentiel a le mérite de défricher le terrain de l’écoconception. Il n’est pas contraignant et n’aurait pas pu l’être, car valable uniquement pour la France.

Le maître-mot du RGSEN est « sobriété » et, à lui seul, permet d’ancrer un peu la réflexion de l’écoconception dans les consciences. Il entraine des questions comme « A-t-on besoin de ce service ? » ou « Cet usage est-il raisonné ? Approprié ? ».

Le chemin à parcourir est cependant encore bien long. On le sait depuis longtemps, la consommation du numérique est surtout drainée par la fabrication des appareils. Une part importante de l’économie est fondée sur le renouvellement régulier des produits, longtemps considérés comme (presque) jetables.

Le document rappelle cependant que si le numérique ne représente actuellement que 2,5 % de l’empreinte carbone en France, ses usages sont amenés à exploser d’ici 2030. L’ADEME estime ainsi que le trafic sera multiplié par 6 et que le nombre d’appareils bondira de 65 %, porté par l’explosion des objets connectés. L’empreinte carbone du carbone augmenterait alors de 45 % et la consommation de ressources abiotiques (métaux et minéraux) de 14 %.

Comme le dit le référentiel lui-même, il ne s’agit pas de révolutionner l’industrie du numérique, mais d’établir « une base de connaissances et recommandations commune permettant d’accompagner les démarches volontaires d’écoconception ». Dans cette optique, il se veut un « outil d’action et de sensibilisation ».

De la même manière que les rapports de l’Arcep sur la consommation du numérique s’enrichissent à chaque édition, il sera intéressant de suivre l’évolution du référentiel.

Nous reviendrons dans un deuxième temps sur certains aspects du RGSEN, notamment ses limites et défis.

À partir d’avant-hierNext.ink

☕️ VMware Workstation Pro et Fusion Pro deviennent gratuits en usage personnel

15 mai 2024 à 15:30
Personne offrant un cadeau

Comme nous l’indiquions dernièrement, VMware s’est lancé dans un grand ménage de ses licences depuis le rachat par Broadcom. Les licences perpétuelles disparaissent et l’éditeur se focalise sur les produits serveurs et cloud, au détriment des produits « front ».

Dans la foulée, il n’y a pas que des mauvaises nouvelles. Les clients de virtualisation Workstation Pro (Windows, Linux) et Fusion Pro (Mac) peuvent maintenant être utilisés gratuitement pour un usage personnel.

La seule condition pour utiliser les logiciels est de s’inscrire sur le site de VMware pour avoir un compte. L’usage commercial, lui, reste payant.

Google fait un all-in sur l’IA avec Gemini

15 mai 2024 à 15:15
From Google I/O to Google I/A
Illustration de Flock sur I/O 2024 axé sur l'IA

Google a donné hier soir le top départ de sa conférence I/O 2024. Comme prévu, il n’a pratiquement été question que d’intelligence artificielle. Bon gré mal gré, l’entreprise diffuse Gemini dans tous ses produits, confirmant que pas un service n’y échappera. Dans la masse, certaines annonces sont particulièrement intéressantes.

Pas question pour Google de se laisser distancer. Face à la toute-puissance d’OpenAI et de ses modèles GPT, la firme de Mountain View persiste et signe : elle sait où elle va. Les annonces de la conférence I/O vont ainsi toutes dans la même direction, du renforcement des modèles existants aux nouvelles fonctions affiliées Gemini dans les services de l’entreprise.

Si une partie des annonces concerne les développeurs, d’autres touchent directement les utilisateurs finaux. En revanche, tout ce qui concerne Android 15 ne sera dévoilé que ce soir. Concernant la partie matérielle, nous sommes déjà revenus sur le nouveau TPU de 6e génération.

On commence avec les annonces liées à Gemini. Nous en reviendrons plus tard sur les autres apports, notamment ceux pour Android.

Gemini 1.5 Pro grimpe à deux millions de jetons


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Suivez la conférence d’ouverture de la Google I/O à 19h

14 mai 2024 à 15:40
Logo de la Google I/O 2024

Google donnera le coup d’envoi de sa conférence I/O à 19h, heure française.

La société est attendue au tournant, dans un monde désormais régi par les annonces sur l’intelligence artificielle. Cette dernière devrait une nouvelle fois occuper une majorité de l’espace consacré aux nouveautés.

La Google I/O est consacrée aux développeurs. L’entreprise y dévoile en général des apports pour Android, Chrome, ChromeOS, Google Play, etc. Android 15 devrait y faire une première apparition et les rumeurs évoquent également un nouveau dongle Chromecast.

Windows 11 24H2 activera par défaut BitLocker sur les nouvelles installations

14 mai 2024 à 10:01
Quelques belles colères en perspective

La prochaine évolution majeure de Windows 11 présentera un changement important sur les nouvelles installations : l’activation par défaut du chiffrement BitLocker. Cette décision ne sera pas sans conséquences dans certains cas.

BitLocker est une technologie de chiffrement logiciel pour les partitions. Elle existe depuis Vista et est traditionnellement fournie avec les éditions Pro et Enterprise de Windows. Depuis Windows 10 Pro, il n’est ainsi pas rare de trouver dans le commerce des ordinateurs portables dont le disque est déjà chiffré.

En théorie, ce chiffrement intégral, basé sur XTS-AES 128 ou 256 bits, permet la protection des données. En effet, en cas de vol de l’appareil, les données ne seront pas accessibles sans la clé. C’est du moins l’effet recherché, car cette protection n’est pas absolue.

Microsoft a dans l’idée de généraliser BitLocker à l’ensemble des versions de Windows 11, y compris l’édition Famille, sur toutes les nouvelles installations. À moins que l’éditeur ne communique abondamment sur ce changement, il y aura cependant des problèmes.

BitLocker par défaut sur les installations Windows 11 24H2


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ iOS 17.5 et macOS 14.5 disponibles en versions finales

14 mai 2024 à 05:53
iPhone 15

Nouvelles mises à jour importantes pour les plateformes Apple. Comme d’habitude, c’est iOS qui présente le plus d’apports.

iOS 17.5 introduit ainsi la possibilité d’installer des applications depuis des sites web, toujours dans l’idée de plaire à la Commission européenne, mais avec le même genre de limitations que les boutiques tierces.

Le système officialise également la nouvelle détection de suivi des balises développée conjointement avec Google. On y trouve aussi un mode réparation, qui permet de confier son appareil à une boutique sans devoir attendre trop longtemps, à cause de la protection contre le vol. iOS 17.5 corrige également 15 failles de sécurité.

Le programme de macOS 14.5 est beaucoup plus court : la mise à jour ne présente que des corrections de bugs. Du moins en France, puisque l’application News+ reçoit quelques apports, mais n’y est pas disponible.

Même chose pour tvOS 17.5, dont la liste des nouveautés n’est pas connue, mais qui devrait essentiellement contenir des corrections. Quant à watchOS 10.5, il n’y a rien à se mettre sous la dent, en dehors d’un nouveau fond d’écran Pride (certes réussi) et quelques corrections de bugs.

T-Mobile, AT&T et Verizon condamnés par la FCC pour avoir partagé des données de localisation

30 avril 2024 à 14:03
Bonnes intentions
Mappemonde centrée sur les États-Unis

La Federal Communications Commission (FCC) vient de condamner trois opérateurs américains à une amende cumulée de 196,5 millions de dollars. Les entreprises sont accusées d’avoir partagé les données de géolocalisation de clients sans avoir explicitement demandé leur autorisation.

La FCC vient de donner un grand coup de pied dans la fourmilière des données de localisation. T-Mobile, AT&T et Verizon sont condamnées à une amende globale de 196,5 millions de dollars. La somme est répartie comme suit : 80,1 millions de dollars pour T-Mobile, 57,3 millions de dollars pour AT&T et 46,9 millions de dollars pour Verizon. Manquent 12,2 millions de dollars, qui sont en fait infligés à Sprint, rachetée par T-Mobile en 2018 pour 26,5 milliards de dollars.

« Les enquêtes menées par le Bureau d’application de la FCC auprès des quatre opérateurs ont révélé que chacun d’entre eux vendait l’accès aux informations de localisation de ses clients à des “agrégateurs”, qui revendaient ensuite l’accès à ces informations à des fournisseurs tiers de services de géolocalisation. Ce faisant, chaque opérateur a tenté de se décharger de son obligation d’obtenir le consentement du client sur les destinataires en aval des informations de localisation, ce qui, dans de nombreux cas, signifiait qu’aucun consentement valable du client n’avait été obtenu », a déclaré la FCC dans un communiqué.

Toujours selon la Commission, « cet échec initial a été aggravé lorsque, après avoir pris conscience de l’inefficacité de leurs mesures de protection, les opérateurs ont continué à vendre l’accès aux informations de localisation sans prendre de mesures raisonnables pour les protéger de tout accès non autorisé ».

Des rapports qui remontent à 2018


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Au travers d’une enquête, l’ANFR rappelle les règles des bandes de fréquences « libres »

30 avril 2024 à 13:13

L’Agence nationale des fréquences publie régulièrement des enquêtes maison, c’est-à-dire le travail de ses agents sur le terrain pour trouver les sources du brouillage et mettre fin aux perturbations. Pour fêter ses 25 ans, elle avait publié un long recueil sous la forme d’un florilège des brouillages d’ondes.

L’enquête du jour est intitulée « Il y a du gaz dans l’eau ». En décembre dernier, l’Agence était saisie par une entreprise spécialisée dans la distribution d’eau. Elle expliquait subir des « perturbations importantes et permanentes des fréquences comprises entre 169,400 MHz et 169,475 MHz utilisées pour la transmission de données de compteurs d’eau ».

Ces fréquences se trouvent dans une bande libre, pouvant « être exploitée sans autorisation administrative », ni redevance ou déclaration préalable. C’est par exemple le cas du Wi-Fi (2,4, 5 et 6 GHz), du Bluetooth (2,4 GHz), du RFID (13,5 MHz), etc.

L’Arcep propose un petit tableau des principaux usages :

Mais attention, libre ne veut pas dire « far west » sans règles : « Plusieurs utilisateurs peuvent donc “cohabiter” ; mais encore faut-il que chacun suive la réglementation en vigueur ». L’une d’entre elles est que le taux d’occupation d’un seul émetteur « doit rester en moyenne au-dessous de 10 % du temps ».

Dans le cas de cette enquête, un poste de supervision d’un pipeline pétrolier était à plus de 30 % d’occupation des fréquences. Cela « ne laisse plus assez de temps libre pour que la compagnie de distribution d’eau effectue sans incident la télérelève de la consommation de ses abonnés ».

La société a changé son fusil d’épaule pour passer « sous régime de licence individuelle », lui garantissant ainsi un usage exclusif des fréquences. Cela permet aussi d’avoir une transmission « protégée, et donc mieux adaptée à une application dédiée à la sécurité du transport des hydrocarbures ».

L’ANFR précise un point important : si une bande libre est saturée car il y a trop d’utilisateurs, mais que chacun émet conformément aux conditions d’utilisation, « rien ne peut être entrepris au plan légal ». Ce serait donc une saturation « autorisée ». « C’est la rançon de l’utilisation de fréquences qui ne donnent pas droit au paiement d’une redevance ».

☕️ Vivaldi 6.7 sait enfin endormir automatiquement les onglets inactifs

30 avril 2024 à 07:30
Vivaldi

La version 6.7 de Vivaldi était un peu passée sous nos radars. Elle embarque pourtant des améliorations bienvenues, dont l’hibernation des onglets inactifs, permettant d’en décharger les ressources. Cette fonction est active pour tous les types d’onglets, qu’ils soient seuls, en groupes ou en espaces de travail.

Le fonctionnement de ce Memory Saver est à peu près le même que sur les autres navigateurs. Les onglets en hibernation sont grisés et cliquer dessus relance le chargement des ressources. Il s’agit cependant d’une option, désactivée par défaut. On la trouve dans les réglages du navigateur, section Onglets. Elle laisse le choix entre Automatique et le choix d’une durée entre une, deux, trois et six heures d’inactivité.

Vivaldi indique que ce fonctionnement aura un impact positif sur l’utilisation mobile d’un ordinateur portable.

Parmi les autres nouveautés, signalons un agrégateur de flux plus efficace dans la détection des flux lors de la navigation (particulièrement sur Reddit, GitHub et YouTube), la possibilité d’envoyer une sélection d’onglets dans un nouvel espace de travail, des capacités d’export supplémentaires pour les mots de passe et flux, ainsi que le support de la juxtaposition native des fenêtres dans macOS.

☕️ Microsoft ouvre les sources de… MS-DOS 4.0

29 avril 2024 à 08:02

Vous vous souvenez peut-être, Microsoft avait ouvert les sources de MS-DOS 1.25 et 2.0, il y a dix ans, pour les confier au Computer History Museum. Le code avait été publié dans un dépôt GitHub quatre ans plus tard. Ce dernier contient désormais le code de MS-DOS 4.0, toujours sous licence MIT.

L’histoire de cette version du système est intéressante. En effet, la mouture commercialisée n’est pas celle initialement développée. La version d’origine disposait d’un multitâche préemptif. Ce dernier permettait à un programme, avec un développement idoine, de fonctionner en tâche de fond.

Lorsque le projet a été présenté en 1986, il n’a cependant pas créé l’enthousiasme. À sa sortie commerciale en 1988, le système sera nettement plus classique dans son approche.

Le code publié sur le dépôt GitHub contient bien ce multitâche préemptif qui avait été abandonné. Le travail de récupération et de publication a été réalisé conjointement avec IBM. Microsoft donne des détails intéressants dans son annonce.

☕️ Aux États-Unis, Threads sur le point de dépasser X (Twitter)

26 avril 2024 à 12:00
threads instagram facebook

Selon les données d’Apptopia, Threads compte désormais plus d’utilisateurs quotidiens que X.

En hausse de 55 % par rapport à décembre, 28 millions d’utilisateurs actifs lancent ainsi l’application de Meta quotidiennement, contre 22 millions en moyenne pour X (17 millions en décembre).

La hausse constatée du côté de X reste à relativiser dans la mesure où d’autres relevés, comme ceux de Sensor Tower, enregistrent une baisse de 19 % de l’usage quotidien entre octobre 2022 et le premier trimestre 2024.

Threads devient par ailleurs la troisième plus téléchargée de l’App Store d’Apple, note Business Insider, quand X tombe en 41e place.

Windows 11 ajoute des publicités dans le menu Démarrer, comment les supprimer

26 avril 2024 à 09:18
Rogntudjuuu !

Microsoft déploie actuellement des « suggestions » dans le menu Démarrer de Windows 11. Ces suggestions sont en fait des publicités pour des applications à récupérer dans le Store. Elles sont faciles à désactiver, mais reflètent un problème croissant.

Depuis le 23 avril, Microsoft déploie la mise à jour KB5036980, portant la version de Windows 11 au numéro de build 22621.3527 ou 22631.3527. Elle n’est pas encore déployée automatiquement : seules les personnes allant cliquer manuellement sur le bouton « Rechercher » dans Windows Update pourront la trouver, si elles ont activé l’option « Recevez les dernières mises à jour dès qu’elles sont disponibles », juste en dessous.

Comme indiqué par Microsoft dans le bulletin lié, on y trouve plusieurs nouveautés, comme l’apparition automatique des applications les plus utilisées dans la zone « Nos recommandations » du menu Démarrer, si elles n’y sont pas déjà épinglées. On trouve également plusieurs améliorations pour les widgets, avec une icône plus nette et un fonctionnement plus fiable sur écran verrouillé.

Mais « l’apport » qui nous intéresse, c’est l’arrivée d’applications « recommandées » dans le menu Démarrer.

Des publications faciles à supprimer


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ La FCC rétablit la réglementation sur la neutralité du net aux États-Unis

26 avril 2024 à 06:04
structure de fils métalliques interconnectée

Le régulateur des télécoms américain, la Federal Communications Commission (FCC), a voté mercredi 25 avril le rétablissement des réglementations empêchant les fournisseurs d’accès internet (FAI) des États-Unis de fournir un service de qualité différente selon la nature des informations (messagerie vs streaming, par exemple) ou le fournisseur de contenus, explique le New York Times.

Ce principe de « neutralité du net », défendu depuis la mise en place du réseau, avait été établi dans une réglementation il y a près de 10 ans par le gouvernement d’Obama. Mais Donald Trump l’avait fait abroger.

La FCC l’a donc remise en place lors d’un vote de trois voix contre deux. Ce vote rétablit aussi un plus grand contrôle de la FCC sur les FAI, notamment sur les pannes et sur les questions de sécurité.

☕️ OVHcloud dévisse de près de 30 % en bourse après l’annonce de ses résultats

26 avril 2024 à 05:45
Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

Mardi, l’hébergeur roubaisien publiait son bilan financier pour le premier semestre 2024. La société parlait en titre d’un « contexte économique difficile », notamment en Europe « où les clients optimisent leurs ressources cloud ».

Le chiffre d’affaires est de 486 millions d’euros, « en croissance de 10,8 % en données comparables et de 10,6 % en données publiées ». Le cloud privé représente toujours la plus grosse part avec 302,5 millions d’euros. Le cloud public et le webcloud (et autres) se partagent le reste du gâteau avec respectivement 88,4 millions et 95,1 millions d’euros.

Sur la répartition géographique, la France est toujours en tête des revenus avec 237,5 millions d’euros. L’Europe compte pour 141,2 millions d’euros et le reste du monde pour 107,3 millions d’euros. Sur le Vieux-continent, « le Groupe a notamment intégré avec succès gridscale en Allemagne et a commencé à déployer sa technologie », avec des « Locales Zones » à Madrid et Bruxelles.

Des chiffres en hausse par rapport à 2023, mais les prévisions d’OVHcloud sont revues à la baisse pour l’année 2024 : « OVHcloud ajuste son objectif de croissance organique du chiffre d’affaires à une fourchette comprise entre 9 % et 10 % (entre 11 % et 13 % initialement) ».

Alors que l’action était à un peu plus de 9,3 euros dans la journée de lundi, elle est passée sous les 8 euros mardi matin pour arriver à moins de 7 euros jeudi à la fermeture de la bourse. En quelques jours, l’action a donc perdu plus de 28 %.

OVHcvloud avait pour rappel été introduit en bourse à 18,50 euros en octobre 2021 puis était rapidement passé au-dessus des 20 euros. Elle est repassée sous les 20 euros en mai 2022 et sous les 10 euros un an plus tard.

Qualcomm dévoile son Snapdragon X Plus et trois variantes du modèle Elite

25 avril 2024 à 10:29
Plus moins bien
Puce Snapdragon X Plus

Qualcomm a levé le voile sur son Snapdragon X Plus, une version moins puissante que l’Elite, mais également moins onéreuse. Alors que cette ligne de puces doit permettre enfin l’avènement des machines Windows sur puces Arm, faisons un rappel sur les enjeux.

C’est peu dire que des puces Arm performantes sont attendues dans le monde Windows. Difficile d’oublier les tentatives sur Windows RT et Windows 10. Depuis, des machines existent bien – notamment une déclinaison de la tablette Surface – mais le problème est à chaque fois le même : les performances.

On le sait, quand une application arrive sur Windows on Arm dans une version compilée spécifiquement pour cette architecture, les performances font un énorme bond. Google l’a rappelé récemment pour son navigateur Chrome, qu’il a pris le temps (c’est un euphémisme) de peaufiner. La firme de Mountain View s’est probablement dit qu’il n’était pas question de rater le coche sur la prochaine génération d’ordinateurs portables et tablettes devant embarquer les Snapdragon X.

Dans le cas d’une application non compilée pour Arm, c’est l’émulation x86 qui prend le relai. Et là, le résultat est très différent, particulièrement dans les applications lourdes. La couche d’émulation fournie par Microsoft n’est pas aussi efficace que Rosetta chez Apple. Bien que l’arrivée des puces de Qualcomm soit très attendue, elles ne règleront pas ce point d’un coup de baguette magique.

Et voilà le Snapdragon X Plus


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Corrigée depuis deux ans, une faille Windows activement exploitée par des pirates russes

25 avril 2024 à 07:00
Faille 1460-days
Un ordinateur avec un drapeau pirate sur fond rouge

Le groupe de pirates APT28, aussi connu sous les noms de Fancy Bear et Forest Blizzard, exploite une vulnérabilité connue dans le spouleur d’impression de Windows. Cette faille, exploitée depuis quatre ans environ, est corrigée depuis deux ans. Suite à l’apparition d’un nouveau malware, elle revient sur le devant de la scène.

Le spouleur d’impression de Windows aura été une source régulière de vulnérabilités, toutes versions du système confondues. En 2021, on se rappelle notamment PrintNightmare, de son vrai nom CVE-2021-34527. Exploitée, elle permettait l’exécution d’un code arbitraire avec des privilèges système, le tout à distance. On pouvait difficilement faire pire. La suite n’avait pas été glorieuse, puisque le correctif initial s’était révélé incomplet. Microsoft avait même publié un patch pour Windows 7, alors que le système n’avait déjà plus de support technique.

En 2022, une autre faille apparaît. Estampillée CVE-2022-38028, elle est corrigée en octobre de la même année, suite à un signalement de la NSA. Exploitée, elle pouvait permettre une élévation des privilèges et aboutir, sur un système ayant déjà été compromis, à l’exécution d’un code arbitraire avec des droits système.

La faille, moins sévère que celle de 2021, restait dangereuse. Et son histoire n’est pas terminée : elle est toujours exploitée, signe que des structures n’ont toujours pas appliqué le correctif correspondant. D’autant que derrière l’exploitation, on trouve APT28, un groupe rattaché au renseignement militaire russe et spécialisé dans la collecte de renseignements.

APT28, un vieux de la vieille


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Batterie de nouveautés pour Dropbox, dont le chiffrement de bout en bout pour les équipes

25 avril 2024 à 05:19
Logo de Dropbox

Dans un billet de blog, l’entreprise a présenté toute une série de nouveautés, dont plusieurs liées à la sécurité. On trouve ainsi un chiffrement de bout en bout intégré pour les dossiers d’équipe et la possibilité d’ajouter une clé unique provenant d’un service compatible FIPS 140-2 de niveau 3.

Dropbox renforce également certains outils d’administration. Le tableau de bord central permet ainsi de gérer les membres de l’équipe et les invitations. Le centre de confiance rassemble tout ce qui touche aux audits, à la sécurité, la fiabilité, la conformité et la confidentialité. Tous les ajouts mentionnés sont disponibles pour les clients Advanced, Business Plus et Enterprise.

Le service se dote surtout de plusieurs capacités très attendues, comme la coréalisation en temps réel sur les fichiers Office (Word, Excel et PowerPoint). La capacité fait son apparition en bêta, à laquelle tout le monde peut s’inscrire. Dropbox ajoute aussi la compatibilité OneDrive pour sa fonction Replay.

Enfin, la version web se dote de plusieurs nouvelles fonctions. On peut ainsi prévisualiser un fichier ou un dossier en le survolant à la souris, épingler des éléments en accès rapide dans la barre latérale, organiser le contenu via des filtres dynamiques, ou encore afficher des fichiers similaires grâce à des « suggestions intelligentes » tenant compte du contexte.

❌
❌