Vue lecture

Gros forfaits : non, l’Ademe ne prépare pas un projet de loi et « n’a pas ce pouvoir »


Gros forfaits : non, l’Ademe ne prépare pas un projet de loi et « n’a pas ce pouvoir »

Depuis quelques jours, l’Ademe est au centre d’une tempête. Elle travaillerait sur une tarification progressive des forfaits téléphonique en fonction de la quantité de data fournie. Elle aurait même envisagé de légiférer. C’est pourtant faux.

Même si la source n’est pas toujours indiquée, tout est parti d’un article du Parisien sur le « grand bluff des opérateurs sur les forfaits mobiles ». Le sujet portait sur la quantité toujours plus importante de data fournie dans les forfaits et la guerre des prix entre les opérateurs. L’article rappelait pourtant les derniers chiffres de l’Arcep : la consommation moyenne de data en France est de 17 Go par mois. À quoi pouvaient donc bien servir les forfaits de plusieurs centaines de gigaoctets ?

Les usages varient bien sûr, mais le problème était ailleurs. « L’Ademe va donc plancher sur la tarification progressive des forfaits pour, in fine, envisager un projet de loi », indiquait le Parisien. Une phrase légèrement modifiée par la suite, pour devenir : « L’Ademe va donc plancher sur la tarification progressive et, si les résultats sont pertinents, un projet de loi pourrait être envisagé ».

La polémique a enflé rapidement. Le 2 février, même Xavier Niel a réagi sur X. Citant un tweet de Frandroid qui assurait qu’un « projet de loi se prépare », il indiquait simplement « Non ».

« Nous rassemblons des données »

Nous avons contacté Roland Marion, directeur de l’économie circulaire à l’Ademe. Interrogé sur l’idée d’un projet de loi, il se montre très clair : « Non, c’est faux. L’Ademe n’a pas ce pouvoir. Nous rassemblons des données, nous éditons des rapports, parfois avec l’Arcep. Mais nous ne pouvons pas proposer de lois. Nous mettons simplement à disposition les données recueillies. Les politiques peuvent venir y piocher ».

L’Agence de l’environnement et de la maîtrise de l’énergie ne travaille-t-elle pas sur une tarification progressive des forfaits ? « Oui et non », nous répond Roland Marion. « Nous réfléchissons à ce sujet comme nous le faisons sur d’autres. À une époque par exemple, nous réfléchissions à une tarification progressive de l’électricité en fonction des usages. La discussion a permis de voir que ce n’était pas possible ».

Et dans le cas des forfaits mobiles ? « Nous y réfléchissons. C’est une discussion ouverte, un sujet d’étude. Mais nous savons déjà que les usages peuvent varier largement. Quelqu’un qui a un forfait 150 Go ne signifie pas qu’il va forcément les utiliser. Peut-être que cette personne a un gros forfait parce que c’est son seul moyen d’accéder à internet ».

Des propos en écho à ceux de Sylvain Waserman, PDG de l’Ademe et ancien vice-président de l’Assemblée nationale pendant presque cinq ans (il connait donc bien le parcours législatif). Il s’est exprimé sur LinkedIn, rappelant les trois missions de l’Agence : « L’Ademe mène des études et recherches, publie des avis techniques, propose des guides de sensibilisation à destination du grand public avec des trucs et astuces ». Plus loin, il conclut, agacé : « À bon entendeur ! Décidément, il ne nous sera rien épargné, mais on le savait déjà… ».

Des sujets plus pressants

Comme nous l’a indiqué Roland Marion, il existe des marges de manœuvre beaucoup plus importantes sur le numérique pour réduire l’empreinte carbone. « La data cellulaire, effectivement, moins on en consomme, mieux c’est. Notre recommandation, que nous répétons depuis des années, est de basculer sur une connexion Wi-Fi dès que possible. Son impact sur l’environnement est dix fois moins important qu’une connexion cellulaire », explique le responsable.

« Mais notre action sur le numérique se concentre surtout sur les recommandations liées à la fabrication des terminaux et les datacenters », ajoute-t-il. « On parle beaucoup d’IA aussi maintenant. On tente d’expliquer que son utilisation a un impact environnemental conséquent et qu’il vaut mieux, quand c’est possible, l’éviter ».

Gros forfaits : non, l’Ademe ne prépare pas un projet de loi et « n’a pas ce pouvoir »


Gros forfaits : non, l’Ademe ne prépare pas un projet de loi et « n’a pas ce pouvoir »

Depuis quelques jours, l’Ademe est au centre d’une tempête. Elle travaillerait sur une tarification progressive des forfaits téléphonique en fonction de la quantité de data fournie. Elle aurait même envisagé de légiférer. C’est pourtant faux.

Même si la source n’est pas toujours indiquée, tout est parti d’un article du Parisien sur le « grand bluff des opérateurs sur les forfaits mobiles ». Le sujet portait sur la quantité toujours plus importante de data fournie dans les forfaits et la guerre des prix entre les opérateurs. L’article rappelait pourtant les derniers chiffres de l’Arcep : la consommation moyenne de data en France est de 17 Go par mois. À quoi pouvaient donc bien servir les forfaits de plusieurs centaines de gigaoctets ?

Les usages varient bien sûr, mais le problème était ailleurs. « L’Ademe va donc plancher sur la tarification progressive des forfaits pour, in fine, envisager un projet de loi », indiquait le Parisien. Une phrase légèrement modifiée par la suite, pour devenir : « L’Ademe va donc plancher sur la tarification progressive et, si les résultats sont pertinents, un projet de loi pourrait être envisagé ».

La polémique a enflé rapidement. Le 2 février, même Xavier Niel a réagi sur X. Citant un tweet de Frandroid qui assurait qu’un « projet de loi se prépare », il indiquait simplement « Non ».

« Nous rassemblons des données »

Nous avons contacté Roland Marion, directeur de l’économie circulaire à l’Ademe. Interrogé sur l’idée d’un projet de loi, il se montre très clair : « Non, c’est faux. L’Ademe n’a pas ce pouvoir. Nous rassemblons des données, nous éditons des rapports, parfois avec l’Arcep. Mais nous ne pouvons pas proposer de lois. Nous mettons simplement à disposition les données recueillies. Les politiques peuvent venir y piocher ».

L’Agence de l’environnement et de la maîtrise de l’énergie ne travaille-t-elle pas sur une tarification progressive des forfaits ? « Oui et non », nous répond Roland Marion. « Nous réfléchissons à ce sujet comme nous le faisons sur d’autres. À une époque par exemple, nous réfléchissions à une tarification progressive de l’électricité en fonction des usages. La discussion a permis de voir que ce n’était pas possible ».

Et dans le cas des forfaits mobiles ? « Nous y réfléchissons. C’est une discussion ouverte, un sujet d’étude. Mais nous savons déjà que les usages peuvent varier largement. Quelqu’un qui a un forfait 150 Go ne signifie pas qu’il va forcément les utiliser. Peut-être que cette personne a un gros forfait parce que c’est son seul moyen d’accéder à internet ».

Des propos en écho à ceux de Sylvain Waserman, PDG de l’Ademe et ancien vice-président de l’Assemblée nationale pendant presque cinq ans (il connait donc bien le parcours législatif). Il s’est exprimé sur LinkedIn, rappelant les trois missions de l’Agence : « L’Ademe mène des études et recherches, publie des avis techniques, propose des guides de sensibilisation à destination du grand public avec des trucs et astuces ». Plus loin, il conclut, agacé : « À bon entendeur ! Décidément, il ne nous sera rien épargné, mais on le savait déjà… ».

Des sujets plus pressants

Comme nous l’a indiqué Roland Marion, il existe des marges de manœuvre beaucoup plus importantes sur le numérique pour réduire l’empreinte carbone. « La data cellulaire, effectivement, moins on en consomme, mieux c’est. Notre recommandation, que nous répétons depuis des années, est de basculer sur une connexion Wi-Fi dès que possible. Son impact sur l’environnement est dix fois moins important qu’une connexion cellulaire », explique le responsable.

« Mais notre action sur le numérique se concentre surtout sur les recommandations liées à la fabrication des terminaux et les datacenters », ajoute-t-il. « On parle beaucoup d’IA aussi maintenant. On tente d’expliquer que son utilisation a un impact environnemental conséquent et qu’il vaut mieux, quand c’est possible, l’éviter ».

AMD confirme une vulnérabilité dans ses processeurs EPYC

Hello World !
AMD confirme une vulnérabilité dans ses processeurs EPYC

Des chercheurs de Google ont découvert à l’automne dernier une faille dans les processeurs EPYC d’AMD, des générations Zen 1 à 4 (séries 7001 à 9004). Elle a été communiquée à AMD le 25 septembre, provoquant l’émission de correctifs le 17 décembre. Les détails de la faille, assez limités, n’ont été publiés qu’hier avec les chercheurs, suite à un accord avec AMD.

Pour exploiter la faille, il faut disposer des privilèges d’administrateur local sur un serveur, donc au ring 0 depuis l’extérieur d’une machine virtuelle. Il est alors possible de charger des correctifs malveillants du microcode dans le ou les processeurs concernés.

Droit de regard sur les machines virtuelles

« Cette vulnérabilité pourrait être utilisée par un adversaire pour compromettre des charges de travail informatiques confidentielles protégées par la dernière version d’AMD Secure Encrypted Virtualization, SEV-SNP ou pour compromettre la Dynamic Root of Trust Measurement », indiquent les chercheurs.

Bien que l’exploitation requière des privilèges locaux importants, la sévérité de la faille est considérée comme haute (score CVSS 3.1 de 7,2 sur 10). Son exploitation peut, en effet, conduire à l’installation de logiciels malveillants obtenant des capacités de visibilité dans les machines virtuelles, dont une partie de la sécurité repose sur le tandem matériel SEV-SNP au sein des processeurs.

Mauvaise vérification

SEV, pour Secure Encrypted Virtualization, est une technologie cruciale chez AMD. Elle génère une clé unique de chiffrement pour chaque machine virtuelle. Elle permet d’isoler les machines et l’hyperviseur les uns des autres.

SNP, pour Secure Nested Paging (pagination imbriquée sécurisée), ajoute des fonctions pour contrôler l’intégrité de la mémoire, renforçant encore l’isolation des machines virtuelles et devant les protéger d’attaques basées sur l’hyperviseur. Les deux technologies renforcent également les protections contre les attaques par canal latéral.

La vulnérabilité signalée par les chercheurs permet de jeter à bas ces défenses. Estampillée CVE-2024-56161, la faille réside dans l’utilisation d’une fonction de hachage non sécurisée pour valider les signatures dans les mises à jour du microcode. De là, un pirate peut faire passer des vessies pour des lanternes. Les machines virtuelles chiffrées perdent alors leur intégrité selon le code envoyé dans les processeurs.

La mise à jour déployée depuis décembre

Dans son bulletin, AMD indique qu’une mesure d’atténuation a été fournie pour la faille. Elle passe par une mise à jour du microcode et demande donc un arrêt du serveur, même si certains processeurs sont capables d’un chargement à chaud.

Il faut également déployer une nouvelle version du firmware SEV sur certaines plateformes, afin qu’elles puissent prendre en compte l’attestation SEV-SNP. Cette dernière permet à une instance de prouver son identité et son état. Une mise à jour du BIOS et un redémarrage du système sont nécessaires pour permettre l’attestation de l’atténuation. « Un invité confidentiel peut vérifier que l’atténuation a été activée sur la plate-forme cible grâce au rapport d’attestation SEV-SNP », précise AMD.

Les chercheurs (Josh Eads, Kristoffer Janke, Eduardo Nava, Tavis Ormandy et Matteo Rizzo) ont été remerciés par AMD. Ils notent cependant qu’ils ont fait une exception à la règle habituelle de révélation des failles de sécurité chez Google, notamment la période de 90 jours. Il s’est écoulé en effet 131 jours entre la publication des premières informations et la communication à AMD, et 45 jours depuis la diffusion des correctifs.

Pour les mêmes raisons, et compte tenu « de l’importance de la chaine d’approvisionnement et de la coordination nécessaire pour résoudre ce problème », aucun détail supplémentaire ne sera donné avant le 5 mars.

Précisons enfin que ce n’est pas la première fois qu’une faille de sécurité touche SEV ou SNP chez AMD. En 2023, une attaque baptisée CacheWarp avait nécessité également une mise à jour du microcode. Exploitée, elle pouvait permettre l’infiltration d’un code malveillant dans les machines virtuelles chiffrées.

Ni Google ni AMD ne parlent du cas des processeurs Epyc de 5ᵉ génération, avec l’architecture Zen 5.

AMD confirme une vulnérabilité dans ses processeurs EPYC

Hello World !
AMD confirme une vulnérabilité dans ses processeurs EPYC

Des chercheurs de Google ont découvert à l’automne dernier une faille dans les processeurs EPYC d’AMD, des générations Zen 1 à 4 (séries 7001 à 9004). Elle a été communiquée à AMD le 25 septembre, provoquant l’émission de correctifs le 17 décembre. Les détails de la faille, assez limités, n’ont été publiés qu’hier avec les chercheurs, suite à un accord avec AMD.

Pour exploiter la faille, il faut disposer des privilèges d’administrateur local sur un serveur, donc au ring 0 depuis l’extérieur d’une machine virtuelle. Il est alors possible de charger des correctifs malveillants du microcode dans le ou les processeurs concernés.

Droit de regard sur les machines virtuelles

« Cette vulnérabilité pourrait être utilisée par un adversaire pour compromettre des charges de travail informatiques confidentielles protégées par la dernière version d’AMD Secure Encrypted Virtualization, SEV-SNP ou pour compromettre la Dynamic Root of Trust Measurement », indiquent les chercheurs.

Bien que l’exploitation requière des privilèges locaux importants, la sévérité de la faille est considérée comme haute (score CVSS 3.1 de 7,2 sur 10). Son exploitation peut, en effet, conduire à l’installation de logiciels malveillants obtenant des capacités de visibilité dans les machines virtuelles, dont une partie de la sécurité repose sur le tandem matériel SEV-SNP au sein des processeurs.

Mauvaise vérification

SEV, pour Secure Encrypted Virtualization, est une technologie cruciale chez AMD. Elle génère une clé unique de chiffrement pour chaque machine virtuelle. Elle permet d’isoler les machines et l’hyperviseur les uns des autres.

SNP, pour Secure Nested Paging (pagination imbriquée sécurisée), ajoute des fonctions pour contrôler l’intégrité de la mémoire, renforçant encore l’isolation des machines virtuelles et devant les protéger d’attaques basées sur l’hyperviseur. Les deux technologies renforcent également les protections contre les attaques par canal latéral.

La vulnérabilité signalée par les chercheurs permet de jeter à bas ces défenses. Estampillée CVE-2024-56161, la faille réside dans l’utilisation d’une fonction de hachage non sécurisée pour valider les signatures dans les mises à jour du microcode. De là, un pirate peut faire passer des vessies pour des lanternes. Les machines virtuelles chiffrées perdent alors leur intégrité selon le code envoyé dans les processeurs.

La mise à jour déployée depuis décembre

Dans son bulletin, AMD indique qu’une mesure d’atténuation a été fournie pour la faille. Elle passe par une mise à jour du microcode et demande donc un arrêt du serveur, même si certains processeurs sont capables d’un chargement à chaud.

Il faut également déployer une nouvelle version du firmware SEV sur certaines plateformes, afin qu’elles puissent prendre en compte l’attestation SEV-SNP. Cette dernière permet à une instance de prouver son identité et son état. Une mise à jour du BIOS et un redémarrage du système sont nécessaires pour permettre l’attestation de l’atténuation. « Un invité confidentiel peut vérifier que l’atténuation a été activée sur la plate-forme cible grâce au rapport d’attestation SEV-SNP », précise AMD.

Les chercheurs (Josh Eads, Kristoffer Janke, Eduardo Nava, Tavis Ormandy et Matteo Rizzo) ont été remerciés par AMD. Ils notent cependant qu’ils ont fait une exception à la règle habituelle de révélation des failles de sécurité chez Google, notamment la période de 90 jours. Il s’est écoulé en effet 131 jours entre la publication des premières informations et la communication à AMD, et 45 jours depuis la diffusion des correctifs.

Pour les mêmes raisons, et compte tenu « de l’importance de la chaine d’approvisionnement et de la coordination nécessaire pour résoudre ce problème », aucun détail supplémentaire ne sera donné avant le 5 mars.

Précisons enfin que ce n’est pas la première fois qu’une faille de sécurité touche SEV ou SNP chez AMD. En 2023, une attaque baptisée CacheWarp avait nécessité également une mise à jour du microcode. Exploitée, elle pouvait permettre l’infiltration d’un code malveillant dans les machines virtuelles chiffrées.

Ni Google ni AMD ne parlent du cas des processeurs Epyc de 5ᵉ génération, avec l’architecture Zen 5.

On a testé Opera Air, le navigateur axé sur le bien-être, la concentration et les pauses

Parce que pourquoi pas
On a testé Opera Air, le navigateur axé sur le bien-être, la concentration et les pauses

Opera lance à nouveau un navigateur. Nommé Air, il vient occuper un créneau très particulier, que l’éditeur commençait à explorer avec son navigateur classique : le bien-être. Opera Air se targue d’être ainsi le premier butineur orienté pleine conscience et se dote d’outils dans cette optique.

Si les anciens d’Opera ont créé Vivaldi quand l’ancien navigateur a été totalement remanié pour passer sur une base Chromium, l’éditeur ne peut pas être accusé de se tourner les pouces. Le navigateur classique s’est à nouveau doté d’un nombre croissant d’outils, Opera ayant très vite investi dans le champ de l’IA avec sa propre Aria. Parallèlement, la société a lancé Opera GX, dédié aux joueurs, avec de nombreux réglages pour régler finement les ressources consommées.

Opera Air est le petit nouveau. Il s’agit, dans les grandes lignes, d’une version modifiée d’Opera (classique) pour lui faire adopter une interface présentée comme plus reposante et des outils orientés pleine conscience.

Des Boosts et des sons

Les deux fonctions phares d’Opera Air sont opposées. La première – et la plus visible – est le panneau des Boosts. « Élevez votre état mental avec des battements binauraux. Stimulez différentes ondes cérébrales grâce à la musique et au son », s’enthousiasme ainsi Opera. C’est quoi ce bazar ?

Un Boost est un ensemble de trois sons : une fréquence plus ou moins grave, un son et une musique. La fréquence sert de support et est à rapprocher des (très) nombreuses vidéos que l’on trouve sur YouTube pour « doper la concentration », faciliter l’endormissement, etc. La fréquence diffère selon l’effet souhaité. Le son change également selon le Boost choisi. Il peut s’agir de gouttes de pluie, de vent, de vagues, du crépitement du feu, dans la majorité des sons « naturels ». La musique, enfin, fournit un accompagnement sans accrocher l’attention. Sans parole, elle est à rapprocher du type de piste que nous évoquions dans notre article sur les faux artistes dans Spotify.

Opera Air propose une vingtaine de Boosts. Ils portent des noms évocateurs tels que « Stimulation de la Créativité », « Calme concentré », « Soulagement du stress », « Pensée analytique » ou encore « Concentration maximale ». Chacun joue sur les trois paramètres évoqués plus haut. Quand un Boost est lancé, il dure 30 minutes. On peut le contrôler depuis l’icône de fleur dans la barre latérale. Notez que l’on peut faire varier le volume de chaque élément selon les préférences. Même chose pour le temps, que l’on peut faire baisser à 15 min ou au contraire l’étendre en boucle infinie.

L’idée est intéressante et plaira sans doute à une partie des internautes. L’efficacité de ces ambiances – surtout des sons binauraux – dépendra de chaque personne, car elle n’a pas été vraiment prouvée scientifiquement, comme l’ont rappelé diverses sources ces dernières années.

L’ensemble reste assez sympathique pour être utilisé dans la navigation quotidienne, selon les goûts. À noter qu’Opera Air recommande fortement d’utiliser un casque pour l’écoute des Boosts. Ces derniers fonctionnent même quand le navigateur est en arrière-plan.

Invitations à la pause

L’autre grande fonction d’Opera Air, ce sont les invitations à faire une pause. Le navigateur recommande en effet de faire une halte toutes les 60 à 90 min. Par défaut, une notification va apparaître toutes les 60 min pour vous y encourager. Ce temps peut être modifié pour un intervalle compris entre 45 et 180 min.

Quand la notification apparait ou que l’on veut faire soi-même une pause en cliquant sur les trois petits traits parallèles dans la barre latérale (sous la fleur des Boosts), un panneau s’ouvre. On peut choisir entre quatre activités, chacune avec son descriptif. : respiration, exercice du cou, méditation et examen complet du corps.

Chaque activité dispose de quatre variantes selon l’effet que l’on veut obtenir ou le temps dont on dispose. Elle est également accompagnée d’une voix (choix entre Emma et Alex) pour guider l’internaute, mais disponible uniquement en anglais (des sous-titres sont automatiquement affichés). L’activité s’interrompt automatiquement dès que le navigateur n’est plus au premier plan, invitant alors à reprendre lorsque l’on est de retour. Le temps de l’activité va de 3 à 15 min selon ce que l’on a choisi.

Là encore, sans être révolutionnaire, l’idée est sympathique. Elle devrait plaire aux personnes ne sachant pas s’arrêter, le navigateur intervenant pour rappeler l’importance des pauses. Si la fonction invite volontiers à la pleine conscience, elle parlera moins aux internautes qui préfèrent se lever régulièrement pour faire quelques exercices et se dégourdir les jambes. Mais rien n’empêche d’alterner.

Contrairement aux Boosts, Opera Air ne fait pas de recommandation particulière sur le port d’un casque.

Et le reste ?

Il s’agit des deux plus grandes fonctions d’Opera Air. Si elles ne vous tentent pas, il vaut mieux passer votre chemin.

À moins que l’interface, rendue assez minimaliste, vous interpelle. Les thèmes fournis s’orientent vers le verre givré, teinté selon l’image de fond choisie. On reste cependant sur les grands classiques d’Opera en matière de disposition des éléments, avec l’éternelle barre latérale à gauche pour épingler des fonctions (messageries, réseaux sociaux, téléchargements, historique, favoris, extensions…).

Alors oui, Opera Air affiche également chaque jour une nouvelle citation orientée vers le bien-être et la relaxation (« On ne peut pas arrêter les vagues, mais on peut apprendre à surfer » aujourd’hui), mais ce n’est pas ça qui devrait convaincre si les Boosts et les pauses ne vous attirent pas. Autant utiliser la version classique d’Opera, qui possède déjà toutes les autres fonctions. À noter d’ailleurs que dans le canal Dev, Opera teste l’intégration de Discord, Slack et Bluesky dans la barre latérale, de même qu’un nouveau lecteur de musique et plusieurs nouveaux thèmes dynamiques.

Le navigateur vient tout juste d’être rendu disponible. Bien que la page mentionne « Accès anticipé », il s’agit d’une version stable, nous a assuré Opera. Sur Mac, nous avons tout de même rencontré des ralentissements importants au premier lancement, avec un taux d’occupation très important pendant la configuration initiale. Une fois le navigateur redémarré, tout allait bien. Sur Windows, pas de problème majeur rencontré.

Précisons enfin que si vous installez Opera Air, pensez à cliquer sur « Avancé ». Opera a la fâcheuse habitude d’activer par défaut différentes options de télémétrie et de traitements liés à personnalisation des publicités.

On a testé Opera Air, le navigateur axé sur le bien-être, la concentration et les pauses

Parce que pourquoi pas
On a testé Opera Air, le navigateur axé sur le bien-être, la concentration et les pauses

Opera lance à nouveau un navigateur. Nommé Air, il vient occuper un créneau très particulier, que l’éditeur commençait à explorer avec son navigateur classique : le bien-être. Opera Air se targue d’être ainsi le premier butineur orienté pleine conscience et se dote d’outils dans cette optique.

Si les anciens d’Opera ont créé Vivaldi quand l’ancien navigateur a été totalement remanié pour passer sur une base Chromium, l’éditeur ne peut pas être accusé de se tourner les pouces. Le navigateur classique s’est à nouveau doté d’un nombre croissant d’outils, Opera ayant très vite investi dans le champ de l’IA avec sa propre Aria. Parallèlement, la société a lancé Opera GX, dédié aux joueurs, avec de nombreux réglages pour régler finement les ressources consommées.

Opera Air est le petit nouveau. Il s’agit, dans les grandes lignes, d’une version modifiée d’Opera (classique) pour lui faire adopter une interface présentée comme plus reposante et des outils orientés pleine conscience.

Des Boosts et des sons

Les deux fonctions phares d’Opera Air sont opposées. La première – et la plus visible – est le panneau des Boosts. « Élevez votre état mental avec des battements binauraux. Stimulez différentes ondes cérébrales grâce à la musique et au son », s’enthousiasme ainsi Opera. C’est quoi ce bazar ?

Un Boost est un ensemble de trois sons : une fréquence plus ou moins grave, un son et une musique. La fréquence sert de support et est à rapprocher des (très) nombreuses vidéos que l’on trouve sur YouTube pour « doper la concentration », faciliter l’endormissement, etc. La fréquence diffère selon l’effet souhaité. Le son change également selon le Boost choisi. Il peut s’agir de gouttes de pluie, de vent, de vagues, du crépitement du feu, dans la majorité des sons « naturels ». La musique, enfin, fournit un accompagnement sans accrocher l’attention. Sans parole, elle est à rapprocher du type de piste que nous évoquions dans notre article sur les faux artistes dans Spotify.

Opera Air propose une vingtaine de Boosts. Ils portent des noms évocateurs tels que « Stimulation de la Créativité », « Calme concentré », « Soulagement du stress », « Pensée analytique » ou encore « Concentration maximale ». Chacun joue sur les trois paramètres évoqués plus haut. Quand un Boost est lancé, il dure 30 minutes. On peut le contrôler depuis l’icône de fleur dans la barre latérale. Notez que l’on peut faire varier le volume de chaque élément selon les préférences. Même chose pour le temps, que l’on peut faire baisser à 15 min ou au contraire l’étendre en boucle infinie.

L’idée est intéressante et plaira sans doute à une partie des internautes. L’efficacité de ces ambiances – surtout des sons binauraux – dépendra de chaque personne, car elle n’a pas été vraiment prouvée scientifiquement, comme l’ont rappelé diverses sources ces dernières années.

L’ensemble reste assez sympathique pour être utilisé dans la navigation quotidienne, selon les goûts. À noter qu’Opera Air recommande fortement d’utiliser un casque pour l’écoute des Boosts. Ces derniers fonctionnent même quand le navigateur est en arrière-plan.

Invitations à la pause

L’autre grande fonction d’Opera Air, ce sont les invitations à faire une pause. Le navigateur recommande en effet de faire une halte toutes les 60 à 90 min. Par défaut, une notification va apparaître toutes les 60 min pour vous y encourager. Ce temps peut être modifié pour un intervalle compris entre 45 et 180 min.

Quand la notification apparait ou que l’on veut faire soi-même une pause en cliquant sur les trois petits traits parallèles dans la barre latérale (sous la fleur des Boosts), un panneau s’ouvre. On peut choisir entre quatre activités, chacune avec son descriptif. : respiration, exercice du cou, méditation et examen complet du corps.

Chaque activité dispose de quatre variantes selon l’effet que l’on veut obtenir ou le temps dont on dispose. Elle est également accompagnée d’une voix (choix entre Emma et Alex) pour guider l’internaute, mais disponible uniquement en anglais (des sous-titres sont automatiquement affichés). L’activité s’interrompt automatiquement dès que le navigateur n’est plus au premier plan, invitant alors à reprendre lorsque l’on est de retour. Le temps de l’activité va de 3 à 15 min selon ce que l’on a choisi.

Là encore, sans être révolutionnaire, l’idée est sympathique. Elle devrait plaire aux personnes ne sachant pas s’arrêter, le navigateur intervenant pour rappeler l’importance des pauses. Si la fonction invite volontiers à la pleine conscience, elle parlera moins aux internautes qui préfèrent se lever régulièrement pour faire quelques exercices et se dégourdir les jambes. Mais rien n’empêche d’alterner.

Contrairement aux Boosts, Opera Air ne fait pas de recommandation particulière sur le port d’un casque.

Et le reste ?

Il s’agit des deux plus grandes fonctions d’Opera Air. Si elles ne vous tentent pas, il vaut mieux passer votre chemin.

À moins que l’interface, rendue assez minimaliste, vous interpelle. Les thèmes fournis s’orientent vers le verre givré, teinté selon l’image de fond choisie. On reste cependant sur les grands classiques d’Opera en matière de disposition des éléments, avec l’éternelle barre latérale à gauche pour épingler des fonctions (messageries, réseaux sociaux, téléchargements, historique, favoris, extensions…).

Alors oui, Opera Air affiche également chaque jour une nouvelle citation orientée vers le bien-être et la relaxation (« On ne peut pas arrêter les vagues, mais on peut apprendre à surfer » aujourd’hui), mais ce n’est pas ça qui devrait convaincre si les Boosts et les pauses ne vous attirent pas. Autant utiliser la version classique d’Opera, qui possède déjà toutes les autres fonctions. À noter d’ailleurs que dans le canal Dev, Opera teste l’intégration de Discord, Slack et Bluesky dans la barre latérale, de même qu’un nouveau lecteur de musique et plusieurs nouveaux thèmes dynamiques.

Le navigateur vient tout juste d’être rendu disponible. Bien que la page mentionne « Accès anticipé », il s’agit d’une version stable, nous a assuré Opera. Sur Mac, nous avons tout de même rencontré des ralentissements importants au premier lancement, avec un taux d’occupation très important pendant la configuration initiale. Une fois le navigateur redémarré, tout allait bien. Sur Windows, pas de problème majeur rencontré.

Précisons enfin que si vous installez Opera Air, pensez à cliquer sur « Avancé ». Opera a la fâcheuse habitude d’activer par défaut différentes options de télémétrie et de traitements liés à personnalisation des publicités.

☕️ Apple rend son moteur Swift Build open source



Swift est le langage star d’Apple. Il a pris le relai d’Objective-C en tant que voie royale pour créer des applications sur les plateformes iOS, macOS et les autres. Le langage est open source (licence Apache 2.0) depuis plusieurs années maintenant. Désormais, il est rejoint par son « moteur de construction » (build engine), Swift Build.

Cette ouverture du code (également sous licence Apache 2.0) a été annoncée par le développeur Owen Voorhees de chez Apple le 1ᵉʳ février. Il y indique que le langage « continue de gagner en popularité », s’étendant vers un nombre croissant de form factors et de systèmes d’exploitation (Swift peut notamment être utilisé sur Linux et Windows).

Swift Build est le moteur utilisé par l’environnement de développement Xcode et Swift Playgrounds pour la construction des projets. Plus précisément, il réalise l’étape préparatoire avant la compilation, avec notamment la construction des dépendances. Il s’agit donc d’une pièce importante de l’édifice.

Comme l’indique Apple dans son billet, Swift Build peut être utilisé aussi bien avec Xcode qu’avec Swift Package Manager, donnant alors le même résultat. Un changement significatif, car Swift Package Manager avait jusqu’ici son propre moteur. « Sur les plateformes Apple, le fait d’avoir deux façons différentes de construire des paquets a également conduit à la confusion des utilisateurs lorsque le comportement des deux implémentations ne correspondait pas », indique Owen Voorhees.

Swift Build est donc proposé comme solution alternative. Apple assure que ce « changement devrait être transparent pour les utilisateurs et maintenir une compatibilité totale avec tous les paquets existants tout en offrant une expérience multiplateforme cohérente ».

☕️ Apple rend son moteur Swift Build open source



Swift est le langage star d’Apple. Il a pris le relai d’Objective-C en tant que voie royale pour créer des applications sur les plateformes iOS, macOS et les autres. Le langage est open source (licence Apache 2.0) depuis plusieurs années maintenant. Désormais, il est rejoint par son « moteur de construction » (build engine), Swift Build.

Cette ouverture du code (également sous licence Apache 2.0) a été annoncée par le développeur Owen Voorhees de chez Apple le 1ᵉʳ février. Il y indique que le langage « continue de gagner en popularité », s’étendant vers un nombre croissant de form factors et de systèmes d’exploitation (Swift peut notamment être utilisé sur Linux et Windows).

Swift Build est le moteur utilisé par l’environnement de développement Xcode et Swift Playgrounds pour la construction des projets. Plus précisément, il réalise l’étape préparatoire avant la compilation, avec notamment la construction des dépendances. Il s’agit donc d’une pièce importante de l’édifice.

Comme l’indique Apple dans son billet, Swift Build peut être utilisé aussi bien avec Xcode qu’avec Swift Package Manager, donnant alors le même résultat. Un changement significatif, car Swift Package Manager avait jusqu’ici son propre moteur. « Sur les plateformes Apple, le fait d’avoir deux façons différentes de construire des paquets a également conduit à la confusion des utilisateurs lorsque le comportement des deux implémentations ne correspondait pas », indique Owen Voorhees.

Swift Build est donc proposé comme solution alternative. Apple assure que ce « changement devrait être transparent pour les utilisateurs et maintenir une compatibilité totale avec tous les paquets existants tout en offrant une expérience multiplateforme cohérente ».

Windows 11 : trois méthodes pour contourner TPM 2.0

Et toc
Windows 11 : trois méthodes pour contourner TPM 2.0

Microsoft ne veut rien savoir : la puce TPM 2.0 est obligatoire pour utiliser Windows 11. Pourtant, il existe des méthodes permettant de contourner cette barrière. L’une d’elles était même jusqu’à récemment donnée par l’éditeur. Nous vous en proposons trois, selon la situation de départ.

On le sait depuis environ trois ans : Windows réclame, entre autres, une puce TPM 2.0 pour fonctionner. Un impératif lié à la volonté de Microsoft de mettre en place un parc Windows plus sécurisé dès l’installation, grâce à l’utilisation d’un composant matériel pour gérer notamment une partie des opérations cryptographiques. La firme veut d’ailleurs aller plus loin en généralisant sa technologie Pluton.

Problème : le support technique de Windows 10 s’arrêtera le 14 octobre prochain. Après cette date, plus aucun correctif de sécurité ne sera diffusé à l’ancien système. En quelques mois, les dizaines de failles découvertes resteront donc sans solution, ce qui devrait rapidement dégrader la situation. Or, Windows 10 représente encore près des deux tiers du parc Windows aujourd’hui.

Pour l’instant, Microsoft ne veut rien savoir, ni en abaissant les prérequis techniques pour passer à Windows 11, ni – surtout – en laissant plus de temps pour préparer le terrain. Il existe pourtant des solutions pour installer quand même le système. Nous allons donc nous pencher sur trois manipulations, selon votre situation de départ.

Deux avertissements avant de commencer. D’abord, nous ne passons pas par une application tierce pour modifier le système, sauf dans un cas spécifique (le dernier). Ensuite, il faut garder en mémoire que ces solutions, si elles ont le grand mérite de se débarrasser d’un problème, pourraient ne pas perdurer dans le temps, à la (dé)faveur d’une mise à jour de Windows.

Depuis un PC Windows 10

Commençons directement par le cas le plus courant : vous avez déjà un Windows 10 fonctionnel et vous souhaitez simplement le mettre à jour.

Jusqu’à très récemment, Microsoft fournissait sa propre méthode (oui !). Sur cette page, on pouvait trouver un encadré gris décrivant une manipulation à faire dans la base de registre. On peut encore le voir dans cette archive.

La manipulation consiste à ouvrir le menu Démarrer, à taper « reg » pour faire apparaitre l’Éditeur de registre puis à appuyer sur Entrée. Là, il faut se rendre dans HKEY_LOCAL_MACHINE\SYSTEM\Setup, puis créer la clé MoSetup (sauf si elle existe déjà). Après quoi, on crée un DWORD32 nommé « AllowUpgradesWithUnsupportedTPMOrCPU » et on lui donne la valeur 1.

Normalement, après un redémarrage, le lancement de l’Assistant d’installation Windows 11 devrait vous « laisser passer », même si l’application Contrôle d’intégrité du PC dit que la machine n’est pas compatible. Et si nous écrivons « normalement », c’est que la méthode peut être capricieuse. Par exemple, après le redémarrage, l’assistant d’installation a bien voulu commencer. Souhaitant quand même contrôler, nous avons redémarré la machine à nouveau. Cette fois, l’assistant ne voulait plus rien savoir. Deux redémarrages plus tard, il a accepté de poursuivre.

Il y a également une limitation : la puce TPM 2.0 n’est plus obligatoire (la méthode coupe également la vérification du processeur), mais une puce TPM 1.2 est quand même réclamée. Même ainsi, à moins d’une très vieille machine, Windows 11 peut être installé sur un nombre beaucoup plus important de PC.

Installation neuve : le registre à nouveau

Dans le cas où vous préférez repartir d’une page blanche, des méthodes existent aussi pour contourner les prérequis de Windows 11. La première ne demande aucune modification du système ou du média d’installation.

La préparation d’une clé USB bootable est aisée. Microsoft fournit l’utilitaire qui automatise une grande partie de l’opération. On le récupère depuis le site officiel, on le lance et on insère une clé d’au moins 8 Go. On choisit quelques réglages, puis l’application récupère l’image ISO, formate la clé et lui transfère les données. La clé est alors prête à être utilisée.

Sur la machine un peu âgée (mais pas trop), on va donc lancer l’installation. Après le chargement initial, vous verrez apparaître le premier écran, où l’on choisit la langue d’affichage et du clavier. Là, n’allez pas plus loin. Appuyez sur Maj + F10, tapez « regedit » puis faites Entrée. Et revoilà l’Éditeur de registre.

Comme la première méthode, il faut se rendre dans la clé HKEY_LOCAL_MACHINE\SYSTEM\Setup. Là, créez-en une nouvelle, baptisée LabConfig. À l’intérieur, créez trois DWORD32 et donnez-leur tous la valeur 1 :

  • BypassTPMCheck
  • BypassSecureBootCheck
  • BypassRAMCheck

Le premier désactive la vérification de la présence de la puce TPM 2.0. Les deux autres valeurs désactivent respectivement la vérification pour Secure Boot et pour la quantité de mémoire. Si votre PC a au moins 4 Go de mémoire, cette dernière valeur n’est pas nécessaire. Et même avec 4 Go, nous ne vous recommandons pas d’installer Windows 11. Aucun Windows depuis Vista ne fonctionne d’ailleurs bien avec si peu de RAM.

Nous avons testé cette méthode dans plusieurs machines virtuelles et avons pu constater son fonctionnement. La version du système utilisée était la dernière disponible sur le site de Microsoft, intégrant la mise à jour 24H2.

Préparer une clé USB avec Rufus

Voici le cas où nous avons utilisé une application tierce. Nous avons déjà parlé de Rufus, car en plus de pouvoir préparer une clé USB bootable avec différents systèmes, il dispose d’options spécifiques à Windows 11. Il sait notamment désactiver toutes les vérifications matérielles, en modifiant l’image ISO du système lors de la préparation de la clé.

Ce petit utilitaire (sous licence GPLv3) est, dans les grandes lignes, une version plus complète de l’utilitaire fourni par Microsoft. La zone « Périphérique » permet de sélectionner la clé USB, tandis que « Type de démarrage » s’assure que l’on va se servir d’une image ISO. Le bouton « Sélection », à droite, ouvre une fenêtre pour récupérer cette dernière. L’image ISO utilisée est la même que précédemment, celle téléchargée sur le site de Microsoft.

À moins de besoins spécifiques, il n’est pas nécessaire de toucher à quoi que ce soit d’autre. Ce n’est d’ailleurs pas intuitif, car les options qui nous intéressent n’apparaissent que lorsque l’on clique sur « DÉMARRER ». Là, une petite fenêtre s’affiche, dans laquelle vous cocherez la première ligne : « Supprimer la nécessité d’avoir 4Go+ de RAM, Secure Boot et TPM 2.0 ». L’opération prend un certain temps, selon les performances de la machine utilisée pour créer la clé.

Après quoi, on lance une installation depuis la clé USB comme on le ferait habituellement. Contrairement à la méthode précédente, il n’y a pas de manipulation à faire durant le processus.

Rufus est surtout pratique quand vous n’avez pas déjà un média d’installation, ou si vous vous apprêtez à effectuer l’opération sur plusieurs PC.

Comment fonctionne la puce de sécurité Pluton de Microsoft dans les CPU AMD, Arm et Intel

L'ami de Mickey
Comment fonctionne la puce de sécurité Pluton de Microsoft dans les CPU AMD, Arm et Intel

La technologie de sécurité Pluton a été annoncée initialement en 2020 par Microsoft. Depuis, elle a été intégrée à un nombre croissant de processeurs, comme les Snapdragon X dans les PC Copilot+ et les processeurs AMD depuis la génération Zen 3. On apprend maintenant que la nouvelle série Core Ultra 2 d’Intel en dispose également. Mais de quoi parle-t-on ?

Comme l’indique Microsoft dans un billet publié le 30 janvier, la puce Pluton fait partie des engagements de la Secure Future Initiative, dont on en entend particulièrement depuis l’incident CrowdStrike. Il s’agit, dans les grandes lignes, d’un composant aussi bien matériel et logiciel, dont la mission est d’apporter une couche de sécurité supplémentaire. Elle peut épauler la puce TPM 2.0 ou même la remplacer, car elle en reprend la certification.

Bien que présente dans les processeurs, elle constitue un composant séparé, ne communiquant avec le CPU que par une seule voie dédiée, décrite comme sécurisée. La puce Pluton est prévue pour être résistante aux attaques par canal auxiliaire. Explications.

Comment fonctionne Pluton ?

Pluton fonctionne donc sur un matériel dédié. Lors de sa présentation initiale en 2020, Microsoft avait indiqué que les pirates s’en prenaient au canal de communication entre le processeur et la puce TPM 2.0, rendant l’ensemble vulnérable aux attaques par canal auxiliaire. Pluton a été conçue avec une autre approche.

Deux objectifs étaient présents : tenir compte de la prévalence des bugs liés à la mémoire, impliqués dans 70 % des failles de sécurité, et faire en sorte que la sécurité puisse évoluer pour tenir compte des nouvelles menaces tout au long du cycle de vie des ordinateurs.

Pluton désigne ainsi un ensemble comprenant le matériel, le firmware et le logiciel. Le firmware joue un rôle essentiel. Point intéressant d’ailleurs, Microsoft ne l’a pas écrit depuis une page blanche. L’éditeur a repris un projet open source, baptisé Tock OS et intégralement écrit en Rust. Le langage, largement mis en avant pour ses capacités « memory safe », intéresse nettement Microsoft depuis plusieurs années. Dans Windows 11, le noyau de la version 24H2 du système en contient également.

Dans ce modèle, les fonctions liées à la puce TPM sont considérées comme relevant du mode client et s’exécutent comme applications en mode utilisateur, donc en dehors du noyau Tock. La puce Pluton possède son propre microcontrôleur et le démarrage se fait à partir d’une ROM (Read-only memory) spécifique. Après quoi, le firmware est chargé en SRAM (Static random-access memory) pour que son intégrité y soit vérifiée. En cas de validation, le firmware est exécuté.

Tous ces composants sont physiquement isolés du reste du processeur. Dans cette configuration, les attaques par canal auxiliaire visant la DRAM (Dynamic random-access memory) du système central ne fonctionnent pas avec Pluton. L’isolation se fait à tous les niveaux : mémoire et interface matérielle sont dédiées.

Complément ou remplaçant de la puce TPM ?

La puce Pluton possède en outre un matériel spécifique aux fonctions de sécurité, dont un générateur de nombres pseudo-aléatoires et des accélérateurs pour des algorithmes cryptographiques (comme SHA-2, AES, RSA et ECC). Contrairement à la puce TPM, les opérations de sécurité prises en charge par Pluton sont circonscrites dans son matériel et ne peuvent pas être perturbées par le CPU.

L’architecture de Pluton en fait une sorte de forteresse isolée, qui exécute ses tâches dans son coin. L’inverse est également vrai : Pluton n’a pas la main sur le processeur et ne peut ni contrôler ni intercepter un code qui s’exécuterait sur un ou plusieurs cœurs du CPU. Il vient compléter les mécanismes de sécurité existants (comme DMA) et possède ses propres restrictions IOMMU. En contrepartie, Pluton « peut effectuer des opérations sur les informations stockées isolées de tout code fonctionnant sur les cœurs de l’unité centrale ».

Bien que certaines capacités soient reprises des puces TPM, Pluton doit en compléter les missions. Toutefois, puisque Pluton est certifiée TPM, elle peut remplacer cette dernière. De fait, « les équipementiers ont la possibilité d’utiliser Pluton comme TPM pour le système ou d’exposer l’interface utilisateur dans les paramètres BIOS de l’appareil pour permettre au client de choisir Pluton ou une autre option TPM si elle est présente pour son appareil », précise Microsoft.

Chacun son implémentation

Microsoft ne fournit pas la puce aux entreprises. À la place, elle donne un schéma directeur, auquel des sociétés comme AMD, Intel et Qualcomm se réfèrent pour construire leur propre implémentation, assurant la compatibilité de Windows 11 (le seul à exploiter pleinement Pluton) avec tous les processeurs concernés.

Chez Intel par exemple, on a d’abord vu le CSME (Converged Security & Manageability Engine, percé en 2020), complété par le Silicon Security Engine (SSE) et le Graphics Security Controller (GSC). La série Core Ultra 2, sortie en fin d’année dernière, contient le Partner Security Engine (PSE), qui contient l’implémentation de Pluton, comme l’a expliqué Intel dans un billet également publié le 30 janvier.

Chez AMD, Pluton est présente depuis la série Ryzen 6000, dont les processeurs ont reçu la certification FIPS 140 - 3. Tous les PC Copilot+ intégrant une puce de la série Ryzen AI 300 sont également compatibles avec Pluton. Nous avons d’ailleurs demandé à Microsoft s’il y a eu du changement depuis les premières implémentations de Pluton il y a trois ans et si les Ryzen 6000 auront droit aux mêmes traitements que les Ryzen AI 300. Nous mettrons à jour cette actualité lorsque nous aurons la réponse.

Chez Qualcomm, tous les Snapdragon X et le Snapdragon 8cx Gen 3 intègrent Pluton.

Des mises à jour régulières

Cette question des mises à jour est fondamentale dans l’approche de Microsoft. La capacité de faire évoluer le logiciel pour tenir compte des nouvelles menaces faisait partie des impératifs lors de la conception de Pluton. « Le renouvellement des microprogrammes garantit une protection et une fiabilité élevées », affirme ainsi l’éditeur.

La question se pose d’emblée d’une éventuelle vulnérabilité qui pourrait permettre une mise à jour malveillante du firmware. Microsoft assure que toutes les protections possibles sont en place, dont une vérification de l’intégrité du code et une barrière empêchant le retour à une ancienne version. Ce dernier point intervient souvent dans les contournements de TPM, comme nous l’avons encore vu récemment.

On comprend cependant, à la lecture du billet, que ces capacités de protection varient selon la machine. Microsoft évoque par exemple des fonctions matérielles avancées pouvant encore renforcer la résistance du système… lorsque qu’elles sont disponibles. De même, le firmware « utilise le stockage des clés matérielles (s’il est disponible) pour mieux protéger les clés, de sorte qu’un microprogramme compromis ne puisse pas extraire les informations des clés secrètes ».

La possibilité de déployer de nouveaux firmwares à un nombre croissant de machines peut également rappeler la grande panne CrowdStrike. Même si le contexte et les technologies en présence n’étaient pas les mêmes, des problèmes surgissent déjà régulièrement avec les mises à jour déployées mensuellement par Microsoft. Nous avons aussi soulevé ce point avec Microsoft et attendons une réponse.

Encore des évolutions à venir

Puisque l’on parle de mises à jour, Microsoft précise dans son billet déjà travailler à la suite. La prochaine nouveauté annoncée est la compatibilité de Pluton avec KSP, pour Key Storage Provider. Cette API permet aux éditeurs tiers de tirer parti des capacités cryptographiques de Windows pour leurs propres applications.

Cette compatibilité pourra être exploitée, que Pluton soit configurée comme soutien à la puce TPM ou comme seule solution de sécurité matérielle. Microsoft n’y voit bien sûr que des avantages, puisque l’API est déjà connue des développeurs et que son utilisation permet une interface commune pour les utilisateurs. L’éditeur ajoute que ses équipes Entra et Intune travaillent actuellement sur l’intégration au KSP de Pluton.

Pas sans polémique

Si les billets de Microsoft et Intel sont dithyrambiques sur les apports en sécurité, le sujet Pluton est souvent sensible, notamment chez les utilisateurs de distributions Linux, comme Phoronix le rappelle. Il est essentiellement reproché à Pluton de fonctionner comme une boite noire, sans vision claire de ce qui se passe à l’intérieur. Contrairement à TPM 2.0, qui dispose d’une documentation publique.

En outre, cette puce, présentée comme l’aboutissement d’une vision Zero Trust, est également pensée pour le cloud. Certains, pessimistes, y voient l’ébauche d’un avenir dans lequel Microsoft progresserait encore vers des PC ne pouvant plus fonctionner sans les serveurs de l’entreprise. On en est encore loin, car Pluton fonctionne exclusivement en local.

Une autre question émerge : la puce Pluton pourrait-elle un jour devenir obligatoire pour une future version de Windows, comme la puce TPM 2.0 l’est aujourd’hui pour Windows 11, avec tous les problèmes que cela engendre ? Microsoft ne change pas d’avis sur le sujet, pour des questions de sécurité. Mais cette même intransigeance pourrait valoir à l’entreprise un problème de sécurité encore plus grand, puisque les deux tiers du parc Windows sont encore sous Windows 10. Nous avons en tout cas posé la question à Microsoft et mettrons cette actualité à jour si l’éditeur nous répond.

Comment fonctionne la puce de sécurité Pluton de Microsoft dans les CPU AMD, Arm et Intel

L'ami de Mickey
Comment fonctionne la puce de sécurité Pluton de Microsoft dans les CPU AMD, Arm et Intel

La technologie de sécurité Pluton a été annoncée initialement en 2020 par Microsoft. Depuis, elle a été intégrée à un nombre croissant de processeurs, comme les Snapdragon X dans les PC Copilot+ et les processeurs AMD depuis la génération Zen 3. On apprend maintenant que la nouvelle série Core Ultra 2 d’Intel en dispose également. Mais de quoi parle-t-on ?

Comme l’indique Microsoft dans un billet publié le 30 janvier, la puce Pluton fait partie des engagements de la Secure Future Initiative, dont on en entend particulièrement depuis l’incident CrowdStrike. Il s’agit, dans les grandes lignes, d’un composant aussi bien matériel et logiciel, dont la mission est d’apporter une couche de sécurité supplémentaire. Elle peut épauler la puce TPM 2.0 ou même la remplacer, car elle en reprend la certification.

Bien que présente dans les processeurs, elle constitue un composant séparé, ne communiquant avec le CPU que par une seule voie dédiée, décrite comme sécurisée. La puce Pluton est prévue pour être résistante aux attaques par canal auxiliaire. Explications.

Comment fonctionne Pluton ?

Pluton fonctionne donc sur un matériel dédié. Lors de sa présentation initiale en 2020, Microsoft avait indiqué que les pirates s’en prenaient au canal de communication entre le processeur et la puce TPM 2.0, rendant l’ensemble vulnérable aux attaques par canal auxiliaire. Pluton a été conçue avec une autre approche.

Deux objectifs étaient présents : tenir compte de la prévalence des bugs liés à la mémoire, impliqués dans 70 % des failles de sécurité, et faire en sorte que la sécurité puisse évoluer pour tenir compte des nouvelles menaces tout au long du cycle de vie des ordinateurs.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Apple permet de désactiver le réveil automatique des MacBook



Tous les MacBook munis d’une puce Apple Silicon (M1, M2, M3…) ont un comportement commun : ils se réveillent automatiquement lorsqu’on les ouvre ou qu’on les connecte à une alimentation. Un fonctionnement sans doute choisi pour les quelques secondes gagnées dans la plupart des scénarios.

Pourtant, tout le monde n’apprécie pas ce comportement, en particulier le réveil automatique lors du raccordement à l’alimentation. Il semble qu’Apple s’en soit rendu compte et ait décidé de donner aux personnes concernées ce qu’elles veulent. Il ne s’agit pas cependant d’une case à cocher dans les réglages de macOS, mais d’une ou plusieurs lignes de commande.

Il faut que macOS Sequoia (la dernière version majeure disponible) soit installée. Ouvrez le Terminal puis entrez l’une des lignes suivantes, selon ce que vous souhaitez obtenir :

  • sudo nvram BootPreference=%00 : empêche le Mac de démarrer à l’ouverture de l’écran ou au raccordement de l’alimentation
  • sudo nvram BootPreference=%01 : empêche le Mac de démarrer uniquement à l’ouverture de l’écran
  • sudo nvram BootPreference=%02 : empêche le Mac de démarrer uniquement au raccordement de l’alimentation

Si vous voulez restaurer le comportement par défaut, il faudra exécuter la commande :

  • sudo nvram -d BootPreference

Dans tous les cas, le Terminal vous demandera de saisir le mot de passe de la session.

☕️ Apple permet de désactiver le réveil automatique des MacBook



Tous les MacBook munis d’une puce Apple Silicon (M1, M2, M3…) ont un comportement commun : ils se réveillent automatiquement lorsqu’on les ouvre ou qu’on les connecte à une alimentation. Un fonctionnement sans doute choisi pour les quelques secondes gagnées dans la plupart des scénarios.

Pourtant, tout le monde n’apprécie pas ce comportement, en particulier le réveil automatique lors du raccordement à l’alimentation. Il semble qu’Apple s’en soit rendu compte et ait décidé de donner aux personnes concernées ce qu’elles veulent. Il ne s’agit pas cependant d’une case à cocher dans les réglages de macOS, mais d’une ou plusieurs lignes de commande.

Il faut que macOS Sequoia (la dernière version majeure disponible) soit installée. Ouvrez le Terminal puis entrez l’une des lignes suivantes, selon ce que vous souhaitez obtenir :

  • sudo nvram BootPreference=%00 : empêche le Mac de démarrer à l’ouverture de l’écran ou au raccordement de l’alimentation
  • sudo nvram BootPreference=%01 : empêche le Mac de démarrer uniquement à l’ouverture de l’écran
  • sudo nvram BootPreference=%02 : empêche le Mac de démarrer uniquement au raccordement de l’alimentation

Si vous voulez restaurer le comportement par défaut, il faudra exécuter la commande :

  • sudo nvram -d BootPreference

Dans tous les cas, le Terminal vous demandera de saisir le mot de passe de la session.

☕️ Microsoft renouvelle ses gammes Surface for Business avec… des puces Intel



Microsoft a présenté hier soir les déclinaisons « for Business » de sa Surface Pro 11 et de son Surface Laptop 7. L’entreprise ayant toujours eu une politique de noms exotique, il y a en effet des Surface Pro pour le grand public et des Surface Pro pour les entreprises, mais toutes s’appellent « Pro ».

La Surface Pro 11 for Business reprend très largement les caractéristiques de la Surface Pro 11 présentée en mai dernier, lors du grand lancement des PC Copilot+. Il y a cependant une grosse différence : les puces Snapdragon X laissent leur place à des Core Ultra 200 d’Intel. La configuration de base est ainsi équipée d’un Core Ultra 5 236V (4 cœurs Performance de 2,1 à 4,7 GHz, 4 cœurs efficaces de 2,1 à 3,5 GHz), accompagné de 16 Go de mémoire et d’un SSD de 256 Go.

En option, on peut choisir un Core Ultra 5 238V, un Core Ultra 7 266V ou 268V. Notez que les deux Core Ultra 5 ont un NPU de 40 TFLOPS, contre 48 TFLOPS pour les Core Ultra 7. La puissance est donc suffisante pour toutes les fonctions IA intégrées dans Windows 11 (version pro fournie). La mémoire peut grimper jusqu’à 32 Go, étrange d’ailleurs qu’une version 64 Go n’ait pas été proposée au vu de la clientèle visée. Le stockage, lui, peut aller jusqu’à 1 To.

Pour le reste, tout est identique ou presque, dont une option OLED pour l’écran. On trouve également un lecteur NFC, absent de la version grand public. En revanche, Microsoft fait le choix de réserver l’option 5G à son Laptop 7 for Business. L’autonomie annoncée est de 14 heures en vidéo et 10 heures pour du web. Enfin, côté tarif, le ticket d’entrée est nettement plus élevé que pour la version Snapdragon X : 1 849 euros (TTC).

Le Surface Laptop 7 for Business subit le même traitement : il reprend la base équipée de Snapdragon X et la remplace par des puces Intel. Les configurations proposées sont exactement les mêmes que pour la Surface Pro 11 for Business. On s’étonne d’ailleurs : le Laptop 6 disposait d’une option 64 Go de RAM, qui disparait dans la nouvelle version. Le ticket d’entrée est le même : 1 849 euros (TTC).

Toutes ces configurations sont en précommande, pour une disponibilité à partir du 18 février.

☕️ Microsoft renouvelle ses gammes Surface for Business avec… des puces Intel



Microsoft a présenté hier soir les déclinaisons « for Business » de sa Surface Pro 11 et de son Surface Laptop 7. L’entreprise ayant toujours eu une politique de noms exotique, il y a en effet des Surface Pro pour le grand public et des Surface Pro pour les entreprises, mais toutes s’appellent « Pro ».

La Surface Pro 11 for Business reprend très largement les caractéristiques de la Surface Pro 11 présentée en mai dernier, lors du grand lancement des PC Copilot+. Il y a cependant une grosse différence : les puces Snapdragon X laissent leur place à des Core Ultra 200 d’Intel. La configuration de base est ainsi équipée d’un Core Ultra 5 236V (4 cœurs Performance de 2,1 à 4,7 GHz, 4 cœurs efficaces de 2,1 à 3,5 GHz), accompagné de 16 Go de mémoire et d’un SSD de 256 Go.

En option, on peut choisir un Core Ultra 5 238V, un Core Ultra 7 266V ou 268V. Notez que les deux Core Ultra 5 ont un NPU de 40 TFLOPS, contre 48 TFLOPS pour les Core Ultra 7. La puissance est donc suffisante pour toutes les fonctions IA intégrées dans Windows 11 (version pro fournie). La mémoire peut grimper jusqu’à 32 Go, étrange d’ailleurs qu’une version 64 Go n’ait pas été proposée au vu de la clientèle visée. Le stockage, lui, peut aller jusqu’à 1 To.

Pour le reste, tout est identique ou presque, dont une option OLED pour l’écran. On trouve également un lecteur NFC, absent de la version grand public. En revanche, Microsoft fait le choix de réserver l’option 5G à son Laptop 7 for Business. L’autonomie annoncée est de 14 heures en vidéo et 10 heures pour du web. Enfin, côté tarif, le ticket d’entrée est nettement plus élevé que pour la version Snapdragon X : 1 849 euros (TTC).

Le Surface Laptop 7 for Business subit le même traitement : il reprend la base équipée de Snapdragon X et la remplace par des puces Intel. Les configurations proposées sont exactement les mêmes que pour la Surface Pro 11 for Business. On s’étonne d’ailleurs : le Laptop 6 disposait d’une option 64 Go de RAM, qui disparait dans la nouvelle version. Le ticket d’entrée est le même : 1 849 euros (TTC).

Toutes ces configurations sont en précommande, pour une disponibilité à partir du 18 février.

Pérovskite-silicium : nouveau record de rendement pour une cellule photovoltaïque au CEA

Les 30 % franchis
Pérovskite-silicium : nouveau record de rendement pour une cellule photovoltaïque au CEA

Le CEA (Commissariat à l’énergie atomique et aux énergies alternatives), en partenariat avec la société italienne 3SUN (depuis dix ans), vient d’annoncer avoir franchi un nouveau record de rendement pour une cellule pérovskite-silicium : 30,8 %.

Ce type de cellule est aussi appelé « tandem » car elle contient une partie en pérovskite et une autre en silicium, chaque matériau étant capable d’absorber des longueurs d’onde différentes de la lumière solaire. Les pérovskites désignent des structures cristallines. Bien qu’elles se trouvent à l’état naturel, le CEA et 3SUN ont utilisé des matériaux synthétiques et relativement bon marché à produire.

Un succès, mais pas de commercialisation immédiate

« L’architecture tandem utilisée par le CEA et 3SUN pour ce record permet de dépasser la limite théorique de rendement, fixée autour de 29 %, pour les technologies conventionnelles au silicium actuellement en production dans les giga-usines photovoltaïques. De plus, alors que la plupart des records internationaux sont réalisés sur des surfaces de 1 cm², le CEA et 3SUN ont réussi cette performance sur une cellule de 9 cm², ce qui devrait faciliter le passage à l’échelle industrielle », indique le communiqué du CEA.

« Cette avancée technologique est cruciale pour le maintien de la compétitivité européenne et la promotion d’un avenir plus durable », a de son côté déclaré Stefano Lorenzi, CEO de 3SUN.

Cette technologie a le vent en poupe. Elle a progressé très rapidement, passant d’un petit rendement de 3,8 % en 2009 à un très solide 28,4 % en janvier 2024. L’annonce permet d’afficher une évolution de 2,4 points en un an.

Améliorer la longévité

Le record annoncé par le CEA est-il une étape dans la recherche pure ou va-t-elle déboucher sur une commercialisation ? « C’est une annonce très concrète », nous répond un porte-parole du CEA. « Il n’est pas prévu qu’il y ait de commercialisation immédiate, car il reste plusieurs problèmes à résoudre, notamment de longévité », ajoute-t-il.

Un souci d’ailleurs mentionné par le communiqué. Le CEA y évoque ainsi « les dernières barrières permettant d’aller vers la production de masse avec notamment le passage à des cellules de plus grande surface et l’amélioration de leur durée de vie ». Le CEA nous confirme que le travail continue pour atteindre une longévité digne des générations actuelles, de l’ordre de 20 à 25 ans.

Le Commissariat illustre le potentiel de la technologie en invitant à imaginer un remplacement des technologies actuelles, au rendement de 25/26 %, par les cellules tandem avec leur rendement de 30/31 %. Le gain permettrait à un même parc de générer 20 % d’énergie supplémentaire ou, à production égale, d’en réduire la taille de 20 %.

Nous ferons prochainement le point sur les technologies photovoltaïques et les défis qu’elles doivent encore affronter.

Pérovskite-silicium : nouveau record de rendement pour une cellule photovoltaïque au CEA

Les 30 % franchis
Pérovskite-silicium : nouveau record de rendement pour une cellule photovoltaïque au CEA

Le CEA (Commissariat à l’énergie atomique et aux énergies alternatives), en partenariat avec la société italienne 3SUN (depuis dix ans), vient d’annoncer avoir franchi un nouveau record de rendement pour une cellule pérovskite-silicium : 30,8 %.

Ce type de cellule est aussi appelé « tandem » car elle contient une partie en pérovskite et une autre en silicium, chaque matériau étant capable d’absorber des longueurs d’onde différentes de la lumière solaire. Les pérovskites désignent des structures cristallines. Bien qu’elles se trouvent à l’état naturel, le CEA et 3SUN ont utilisé des matériaux synthétiques et relativement bon marché à produire.

Un succès, mais pas de commercialisation immédiate

« L’architecture tandem utilisée par le CEA et 3SUN pour ce record permet de dépasser la limite théorique de rendement, fixée autour de 29 %, pour les technologies conventionnelles au silicium actuellement en production dans les giga-usines photovoltaïques. De plus, alors que la plupart des records internationaux sont réalisés sur des surfaces de 1 cm², le CEA et 3SUN ont réussi cette performance sur une cellule de 9 cm², ce qui devrait faciliter le passage à l’échelle industrielle », indique le communiqué du CEA.

« Cette avancée technologique est cruciale pour le maintien de la compétitivité européenne et la promotion d’un avenir plus durable », a de son côté déclaré Stefano Lorenzi, CEO de 3SUN.

Cette technologie a le vent en poupe. Elle a progressé très rapidement, passant d’un petit rendement de 3,8 % en 2009 à un très solide 28,4 % en janvier 2024. L’annonce permet d’afficher une évolution de 2,4 points en un an.

Améliorer la longévité

Le record annoncé par le CEA est-il une étape dans la recherche pure ou va-t-elle déboucher sur une commercialisation ? « C’est une annonce très concrète », nous répond un porte-parole du CEA. « Il n’est pas prévu qu’il y ait de commercialisation immédiate, car il reste plusieurs problèmes à résoudre, notamment de longévité », ajoute-t-il.

Un souci d’ailleurs mentionné par le communiqué. Le CEA y évoque ainsi « les dernières barrières permettant d’aller vers la production de masse avec notamment le passage à des cellules de plus grande surface et l’amélioration de leur durée de vie ». Le CEA nous confirme que le travail continue pour atteindre une longévité digne des générations actuelles, de l’ordre de 20 à 25 ans.

Le Commissariat illustre le potentiel de la technologie en invitant à imaginer un remplacement des technologies actuelles, au rendement de 25/26 %, par les cellules tandem avec leur rendement de 30/31 %. Le gain permettrait à un même parc de générer 20 % d’énergie supplémentaire ou, à production égale, d’en réduire la taille de 20 %.

Nous ferons prochainement le point sur les technologies photovoltaïques et les défis qu’elles doivent encore affronter.

☕️ Google lance un plan de départs volontaires dans sa division Platforms & Devices



En avril 2024, Google a rassemblé les deux divisions responsables du matériel Pixel et d’Android sous une même égide : Platforms & Devices. 9to5Mac a appris, via un mémo interne ayant fuité, que l’entreprise venait de proposer un plan de départ volontaire pour les personnes travaillant dans cette nouvelle division, uniquement aux États-Unis.

Google a confirmé à nos confrères que le programme avait bel et bien débuté. On ne connait pas le nombre exact de personnes travaillant dans la section Platforms & Devices, mais il s’agit de l’une des plus importantes chez Google. Elle rassemble en effet des produits aussi divers qu’Android (y compris ses variantes pour Auto, TV, Wear et XR), Chrome, ChromeOS, Google Photos, Google One, Pixel, Fitbit et Nest.

Håkan Dahlström (CC 2.0)

9to5Mac émet l’hypothèse qu’il s’agit d’une conséquence logique à la fusion de l’année dernière. L’énorme division se serait lentement réorganisée et des synergies seraient apparues. Ce plan de départs volontaires serait également une demande d’une partie des employés. Le mémo mentionne les personnes qui ne seraient pas alignées avec les missions ou qui ne s’y retrouveraient pas dans la nouvelle organisation hybride.

Les personnes qui choisiront de partir toucheront une indemnité de départ, dont le montant reste à préciser.

☕️ Google lance un plan de départs volontaires dans sa division Platforms & Devices



En avril 2024, Google a rassemblé les deux divisions responsables du matériel Pixel et d’Android sous une même égide : Platforms & Devices. 9to5Mac a appris, via un mémo interne ayant fuité, que l’entreprise venait de proposer un plan de départ volontaire pour les personnes travaillant dans cette nouvelle division, uniquement aux États-Unis.

Google a confirmé à nos confrères que le programme avait bel et bien débuté. On ne connait pas le nombre exact de personnes travaillant dans la section Platforms & Devices, mais il s’agit de l’une des plus importantes chez Google. Elle rassemble en effet des produits aussi divers qu’Android (y compris ses variantes pour Auto, TV, Wear et XR), Chrome, ChromeOS, Google Photos, Google One, Pixel, Fitbit et Nest.

Håkan Dahlström (CC 2.0)

9to5Mac émet l’hypothèse qu’il s’agit d’une conséquence logique à la fusion de l’année dernière. L’énorme division se serait lentement réorganisée et des synergies seraient apparues. Ce plan de départs volontaires serait également une demande d’une partie des employés. Le mémo mentionne les personnes qui ne seraient pas alignées avec les missions ou qui ne s’y retrouveraient pas dans la nouvelle organisation hybride.

Les personnes qui choisiront de partir toucheront une indemnité de départ, dont le montant reste à préciser.

[Tuto] Gérer ses applications Windows avec WinGet ou UniGetUI

Sacrilège !
[Tuto] Gérer ses applications Windows avec WinGet ou UniGetUI

WinGet est un outil en ligne de commande permettant d’installer et mettre à jour bon nombre d’applications tierces. Des développeurs tiers en ont fait UniGetUI (anciennement WinGetUI). Nous vous proposons un petit tutoriel pour vous apprendre les bases d’un outil qui pourrait bien vous faire gagner beaucoup de temps.

Pendant la majeure partie de sa vie, Windows n’a pas eu de dépôt centralisé pour gérer ses applications tierces. Sur le système de Microsoft, on procède autrement : on télécharge un exécutable depuis un site web et on suit la procédure d’installation après avoir double-cliqué sur le fichier. Depuis l’arrivée du Store, une autre voie s’est ouverte. Pourtant, depuis 2020, Microsoft propose encore un autre outil : WinGet.

Cet outil en ligne de commande permet de chercher une application, de l’installer et d’effectuer diverses autres opérations, dont ses mises à jour et ses désinstallations. Sa syntaxe est aisée à retenir et permet d’enchainer les installations sans avoir à ouvrir à chaque fois le site correspondant.

Si l’outil était très discret initialement, avec peu d’applications, la situation a beaucoup évolué en bientôt cinq ans. Un grand nombre de logiciels sont présents et il devient simple de trouver ce que l’on veut en quelques lignes. L’outil est compatible avec Windows 10, 11 et Server 2025. Il est intégré dans Windows 11 et peut donc être utilisé dans le terminal sans manipulations particulières.

Si vous appréciez l’idée d’un dépôt centralisé, mais préférez les interfaces graphiques, UniGetUI pourrait être fait pour vous, d’autant qu’il supporte plus d’applications que WinGet. Nous y reviendrons.

Dans ce tutoriel, nous allons voir comment apprendre facilement les bases de ces deux outils. Nous verrons également, dans une dernière partie, les limitations d’un outil qui, s’il reprend l’idée d’un dépôt centralisé « à la Linux », n’en a pas les caractéristiques techniques.

WinGet : installer rapidement des applications

Si vous avez besoin d’une application, à moins qu’il s’agisse de gros logiciels de type Office ou la suite Adobe, il y a de bonnes chances qu’elle soit disponible sur le dépôt. Pour commencer à vous en servir, appuyez simplement sur la touche Windows, tapez les premières lettres de Terminal pour le faire apparaitre et validez avec Entrée.


Il reste 91% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌