Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 28 mai 2024Next.ink

☕️ Spotify augmente ses tarifs en France pour répercuter la taxe streaming

28 mai 2024 à 12:40
Logo Spotify avec notes de musique

Spotify avait prévenu que la taxe streaming, votée plus tôt dans l’année, serait répercutée sur les abonnements. L’entreprise expliquait alors qu’elle n’avait pas le choix, car la rentabilité de son service était en danger.

La taxe entraine une ponction de 1,2 % sur le chiffre d’affaires pour alimenter les caisses du CNM, le Centre national de la musique. Celui-ci « commande des études sur l’industrie musicale française, et fournit des subventions financières aux maisons de disques et à l’industrie du spectacle vivant ».

« Bien que Spotify ait travaillé dur pour trouver des solutions alternatives, le gouvernement français a finalement décidé d’imposer cette taxe de 1,2 % à tous les services de streaming musical. Spotify s’engage à défendre les artistes et continuera à reverser près des deux tiers de ses revenus aux ayants droit (soit plusieurs centaines de millions d’euros en France en 2023). À l’avenir, les augmentations supplémentaires de la taxe CNM seront reflétées dans nos plans tarifaires en France et nous continuerons à exhorter le gouvernement à trouver des moyens alternatifs pour ce financement », explique Spotify dans l’email actuellement envoyé aux abonnés.

Alors qu’on pouvait s’attendre à au moins 1 euro de plus, il n’en est rien. L’abonnement Premium passe ainsi de 10,99 à 11,12 euros, soit 13 centimes de plus. De même, l’offre Duo évolue de 14,99 à 15,17 euros (18 centimes de plus), l’offre Famille de 17,99 à 18,21 euros (22 centimes de plus) et l’offre étudiante de 5,99 à 6,06 euros (7 centimes de plus).

L’évolution tarifaire se fait donc en douceur. Elle sera répercutée dès la fin du mois en cours pour les personnes abonnées.

☕️ xAI lève 6 milliards de dollars pour commercialiser ses premiers produits

28 mai 2024 à 10:32

xAI, startup fondée par Elon Musk pour participer activement à la course à l’intelligence artificielle, vient de clore avec succès une levée de fonds. 6 milliards de dollars ont été collectés. Valor Equity Partners, Vy Capital, Andreessen Horowitz, Sequoia Capital, Fidelity, Prince Alwaleed Bin Talal et Kingdom Holding sont cités comme participants.

La nouvelle levée de fonds porte la valeur de xAI à 24 milliards de dollars. Dans son billet d’annonce, xAI explique que cet argent servira à « commercialiser les premiers produits de xAI, à mettre en place une infrastructure avancée et à accélérer la recherche et le développement de technologies futures ». L’entreprise souhaite clairement se faire une place parmi les « grands » du secteur, dont OpenAI (donc Microsoft) et Google.

Toujours dans le communiqué, xAI dit se concentrer sur le développement de « systèmes d’IA avancés qui sont véridiques, compétents et maximalement bénéfiques pour l’ensemble de l’humanité ». Sa mission est de « comprendre la nature de l’univers », ajoute l’entreprise. Message renforcé par Elon Musk.

xAI dit en outre recruter pour de nombreux postes et « personnes talentueuses prêtes à rejoindre une petite équipe dont l’objectif est d’avoir un impact significatif sur l’avenir de l’humanité ».

Elon Musk, en réaction à l’annonce sur le compte X officiel, a indiqué que « d’autres annonces arriveront dans les semaines qui viennent ».

Sur iOS, les émulateurs de consoles sont là, et ils fonctionnent

28 mai 2024 à 08:01
Ô nostalgie !

Où en sont les émulateurs sur iOS, maintenant qu’Apple les autorise ? Nous vous proposons un petit tour de piste, car plusieurs sont déjà là, dont le célèbre RetroArch. Tout n’est pas encore parfait, mais les applications ont le mérite de fonctionner.

Tout est allé très vite. Fin janvier, Apple dévoilait les modifications qui seraient apportées à iOS 17.4 pour prendre en charge le DMA et le DSA. La société, malgré ces annonces, s’est largement plainte des deux nouveaux cadres juridiques européens qui lui imposent de nombreuses obligations. Début mars, la mise à jour 17.4 est officiellement diffusée, avec une longue liste de changements.

En Europe, cette version du système mobile intronise les boutiques d’applications tierces. Bardées de limitations et d’obligations, elles posent encore la question d’une éventuelle rentabilité. D’autant qu’Apple a assorti les créations européennes d’une Core Technology Fee pouvant s’avérer très onéreuse en cas de succès de l’application.

Les émulateurs : oui, mais avec quelle latitude ?


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Hier — 27 mai 2024Next.ink

☕️ Sur iOS, Apple réserve le développement des moteurs tiers aux sociétés européennes

27 mai 2024 à 07:00
logo apple

Depuis l’arrivée d’iOS 17.4, Apple permet l’utilisation d’un moteur de rendu autre que Safari pour les utilisateurs européens. Un changement majeur pour les navigateurs Chromium, tout comme pour Firefox. Tout ce petit monde s’entraine depuis longtemps avec des versions internes de leur moteur adaptées à iOS et iPadOS.

On savait déjà que cette capacité serait réservée aux utilisateurs européens, avec des appareils situés physiquement dans l’Union. On découvre maintenant que cette barrière va plus loin, puisqu’elle empêche les développeurs de travailler sur la question s’ils ne sont pas eux-mêmes au sein de l’Union.

C’est l’information révélée par The Register, expliquant le blocage géographique pour les équipes de développement. Il leur est par exemple impossible de tester une préversion interne du navigateur pensé pour l’Europe si l’appareil de test n’y est pas lui-même.

« En empêchant les ingénieurs du monde entier de travailler sur leurs vrais navigateurs, à moins qu’ils ne soient physiquement situés dans l’UE, Apple les empêche d’être compétitifs ou peut-être même d’être livrés sur iOS. C’est clairement absurde, cela n’a aucune justification raisonnable et ne peut être décrit que comme une conformité malveillante », a indiqué Alex Moore, directeur d’Open Web Advocacy, à The Register.

Seuls Opera et Vivaldi ne semblent pas concernés, les bureaux étant dans l’espace économique européen. Google, Microsoft et Mozilla sont en revanche impactés.

À partir d’avant-hierNext.ink

Firefox prépare une révision de ses onglets, avec regroupement et organisation verticale

24 mai 2024 à 15:23
Source : la commu
Logo de Firefox

Mozilla travaille sur plusieurs améliorations attendues de longue date pour Firefox, dont une nouvelle gestion des onglets, avec notamment une organisation verticale. Le navigateur n’échappera pas aux sirènes de l’intelligence artificielle, mais l’éditeur compte l’utiliser de manière locale et ciblée.

Firefox est en perte de vitesse. Sa part de marché baisse constamment depuis des années. Si l’on en croit les chiffres de StatCounter pour une utilisation sur des ordinateurs de bureau (desktop), le navigateur de Mozilla ne compte actuellement que pour 6,73 % des visites. Edge, de Microsoft, est pratiquement au double. Et tout ce petit monde reste très loin du roi de la catégorie : Chrome et ses 65,65 %. Toutes plateformes confondues, la part de Firefox s’effondre à 2,88 %.

On sait depuis un bon moment maintenant que Mozilla doit réagir. La fondation est très impliquée sur la scène de la vie privée et le navigateur fait déjà figure de membre à part dans le paysage. Mais l’éditeur sait aussi que les internautes attendent plus d’un navigateur : des fonctions et des performances toujours meilleures. Et ce, même si Firefox n’apparait pas plus lent que les autres à l’utilisation, différence qui ressort pourtant nettement dans les benchmarks.

Le 21 mai, Mozilla a ainsi publié une note pour prévenir de plusieurs fonctions en cours de développement et qui arriveront dans l’année qui vient. La plupart sont centrées sur la productivité et sont issues du vote de la communauté pour les fonctions les plus demandées.

Des onglets, de la personnalisation, des menus

La gestion des onglets est probablement l’un des chantiers prioritaires. Comparé à presque tous les autres navigateurs, Firefox dispose de peu d’outils. Il ne sait notamment pas les regrouper et leur affecter des thématiques.

Mozilla confirme que le regroupement d’onglets est bel et bien prévu. L’éditeur ne donne cependant aucune précision sur son fonctionnement. On sait aussi que l’organisation verticale des onglets est au programme, de même qu’une barre latérale. Ces deux dernières fonctions sont actuellement en test dans le canal Nightly. Le 15 avril, Mozilla indiquait qu’elles étaient encore à l’état de prototypes.

Avec les améliorations pour les onglets, Mozilla ajoutera – enfin ! – une vraie gestion des profils. Elle « vous aidera à séparer vos navigations scolaire, professionnelle et personnelle, tout en les rendant facilement accessibles », indique l’éditeur. Là encore, les profils existent chez la concurrence depuis longtemps. Mozilla aurait cependant une carte à jouer en intégrant la possibilité de protéger ces profils par des mots de passe ou des codes PIN.

Mozilla promet également une révision des menus, estimés trop encombrés aujourd’hui. Les nouveaux menus donneront la priorité aux actions principales, ce qui est toujours la promesse dans ce genre de cas. Même genre de révision pour les paramètres de confidentialité, que Mozilla veut rendre plus intuitifs.

Plus anecdotique, on pourra davantage personnaliser le fond d’écran des nouveaux onglets.

De l’IA, oui, mais façon Mozilla

L’éditeur évoque les performances, mais simplement pour parler de leur amélioration continue. La fondation rappelle au passage qu’elle a intégré le projet Interop, qui réunit tous les principaux éditeurs de navigateurs pour gommer les différences de rendu.

Elle a cependant plus à dire sur l’intelligence artificielle. Elle rappelle que des fonctions comme l’édition de PDF ou la traduction n’ont pas besoin, dans Firefox, de contacter des serveurs. Mozilla dit vouloir garder la même approche pour toutes les fonctions, y compris celles alimentées par l’IA. Elle indique d’ailleurs qu’il s’agit d’une demande forte des utilisateurs.

Quelles que soient les futures fonctions de Firefox dopées à l’IA, elles s’exécuteront sur la base de modèles locaux. La fondation donne un seul exemple : la génération d’un texte alternatif pour les images insérées dans les PDF. Ce texte rendra les documents « plus accessibles aux utilisateurs malvoyants et aux personnes souffrant de troubles de l’apprentissage. Le texte alt est ensuite traité sur votre appareil et enregistré localement au lieu d’être stocké dans des services en nuage, ce qui garantit que les améliorations de ce type sont effectuées dans le respect de votre vie privée ».

De quoi mieux se battre ?

Il est certain que des fonctions supplémentaires ne seront pas de trop. Mais il restera difficile de lutter contre les trois mastodontes du secteur que sont Chrome, Safari et Edge. Et pour cause : Chrome est proposé systématiquement par le moteur de recherche le plus utilisé au monde, les deux autres sont intégrées aux systèmes d’exploitation de leur éditeur.

Nous suivrons ces ajouts de près, une bonne partie de la rédaction se servant quotidiennement de Firefox.

Windows Recall : une surveillance locale et isolée, mais…

24 mai 2024 à 06:06
Local recall
Entrepôt avec des milliers de cartons

Mise à jour du 24 mai 2024 à 10h55 : Microsoft a mis à jour sa fiche technique sur Recall. La compatibilité avec les navigateurs ne s’étendait qu’à ceux basés sur Chromium. Dans la nouvelle version, Firefox est maintenant mentionné comme pris en charge.

Recall est une fonction de Windows 11 présentée avec les PC Copilot+. Chargée d’enregistrer tout ce qui se passe sur l’ordinateur pour le régurgiter en cas de recherche, la fonction pose de nombreuses questions, notamment sur la vie privée. Microsoft a apporté plusieurs éclairages.

Lundi, Microsoft a officialisé les PC Copilot+. Une nouvelle génération de machines, toutes équipées de Snapdragon X Plus ou Elite, avec 16 ou 32 Go de RAM et au moins 256 Go de stockage (SSD PCIe 4.0). Ces ordinateurs ont tous Windows 11 (pour Arm) et des fonctions dédiées, conçues pour exploiter le NPU des SoC de Qualcomm, dont la puissance indiquée est de 45 TOPS (on ne connait pas la précision).

Parmi les fonctions présentées, Recall est celle qui a clairement retenu le plus l’attention. Elle a pour mission de surveiller (difficile de le dire autrement) tout ce qui se passe sur l’ordinateur. Elle prend régulièrement des clichés de l’écran pour en analyser le contenu. Dès lors, en passant par la recherche, on peut lancer une requête en langage naturel pour retrouver une information, un document sur lequel on a travaillé, une vidéo ou à peu près n’importe quoi d’autre.

Certaines informations avaient été données (et indiquées dans notre article sur la conférence Build 2024), mais on en sait désormais plus sur le fonctionnement, ses limites et surtout ses contrôles de sécurité.

Un fonctionnement local

Lors de la Build, Microsoft a précisé quelques détails sur le fonctionnement. Ils sont désormais repris dans une fiche technique. On sait ainsi que Recall n’est censé fonctionner que localement. En d’autres termes, il n’y a pas communication avec les serveurs, les informations étant enregistrées sur le stockage local. Microsoft affirme qu’aucune information n’est jamais envoyée à ses serveurs. L’entreprise ajoute qu’elle n’a aucune visibilité sur les données et ne peut pas s’en servir. Quand Recall est occupé à faire des captures, une icône apparaît à droite de la barre des tâches, dans la zone de notification (systray). Il n’est pas précisé ce qui se passera en cas de remplacement de la machine ou de réinstallation complète de Windows. L’historique de Recall prend au moins 25 Go et jusqu’à 150 Go pour un disque de 1 To. Ce stockage doit permettre de garder en mémoire l’activité des trois derniers mois. On imagine mal une synchronisation avec OneDrive ou un autre service en ligne. Il est donc probable que les informations soient perdues en cas de gros problème. Précision importante : le stockage des informations se fait par compte utilisateur. Un compte ne peut pas accéder aux informations d’un autre, à moins d’avoir explicitement les droits pour le faire, comme avec le reste des informations. L’ensemble est basé sur plusieurs SLM (petits modèles de langage) exécutés localement. On ne connait pas (encore ?) le détail de ces modèles, si ce n’est qu’on y retrouve au moins un représentant de la famille Phi-3. Microsoft a présenté plusieurs nouveaux modèles pendant sa conférence Build, ainsi que l’API Phi Silica pour les exploiter sous Windows 11. La question de la consommation entrainée par Recall n’est pas abordée.

Ce que voit Recall

Il est plus simple de dire que Recall voit tout, en dehors de quelques exceptions. Toute information visible à l’écran peut faire l’objet d’une analyse, à moins qu’il ne s’agisse d’un flux vidéo protégé par un DRM. Auquel cas, Windows signalera à Recall qu’il s’agit d’un contenu protégé et la capture n’intègrera pas l’image du flux. Si l’on part du principe que Recall enregistre tout et peut retrouver n’importe quel type d’information, la question de la vie privée est prégnante. Microsoft précise que sa fonction ne modère pas les contenus. Si vous avez tapé un mot de passe dans un champ non masqué, celui-ci apparaîtra dans les captures. En mode navigation privée, Recall ne récolte pas d’informations et ne prend pas de capture des pages web. Dans la note technique, il est précisé qu'Edge, Firefox et l'ensemble des navigateurs basés sur Chromium sont compatibles.

Du contrôle et des filtres

Venons-en à la partie qui nous intéresse. Microsoft indique qu’au premier lancement d’un PC Copilot+, l’utilisateur est informé de l’existence de Recall et se voit proposer d’aller en voir les options. En cas d’acceptation, Paramètres s’ouvre sur une nouvelle section. Microsoft précise que l’on peut arrêter l’enregistrement des captures à tout moment. Il s’agit du premier réglage sur la capture. Auquel cas, Recall s’arrête et l’utilisateur – a priori – n’en entend plus parler. On parle donc bien d'un opt-out. Pour les personnes intéressées par la fonction, il est possible d’en moduler le fonctionnement grâce aux filtres. Ces derniers permettent d’interdire à Recall les captures dans un certain contexte, des applications spécifiques ou des sites web. Là encore, l'ensemble des navigateurs paraissent compatibles. Dans la version précédente de la note, Microsoft n'évoquait que ceux basés sur Chromium. Les filtres fonctionnent comme une liste noire. On aurait aimé la possibilité de créer une liste blanche, pour pointer au contraire les applications pour lesquelles on souhaite spécifiquement que Recall fonctionne, éliminant tout le reste. Microsoft ajoute que les entreprises pourront également gérer la fonction via une politique de groupe.

Le grand livre des secrets

Recall n’est plus si mystérieux, son fonctionnement étant globalement expliqué. Pour quiconque cherche un outil – apparemment puissant – de recherche d’informations pour s’y retrouver dans la masse de ses activités, la fonction pourrait être le Graal. Son avantage tient dans les captures. Comme le montrent les exemples fournis par Microsoft, elles ont deux gros avantages : elles donnent du contexte aux résultats de la recherche et sont indépendantes du type de stockage utilisé. Ouvrir des documents depuis le cloud n’empêchera donc pas d’en référencer les informations, par exemple quand on se sert de OneDrive en mode Fichiers à la demande (les données ne sont téléchargées que lorsqu’on en a besoin). Mais en dépit des garde-fous mis en place par Microsoft, la question de la vie privée reste au premier plan. Que les données ne quittent jamais l’ordinateur et soient indépendantes pour chaque compte constitue plus une approche élémentaire qu’une réelle réponse. Dans l’absolu, on reste face à une fonction capable de régurgiter toute activité d’une personne, surtout si les réglages n’ont pas été changés. On peut littéralement plonger dans la vie d’une personne. Et c’est d’autant plus simple que – magie de l’intelligence artificielle générative – l’on peut interroger cette base de données en langage naturel. Ce qui accroit la nécessité de verrouiller sa session dès que l’on quitte son ordinateur. Dans le cadre d’une machine partagée, par exemple dans une famille, on trouve souvent un unique compte pour toutes les opérations. Là aussi, ce fonctionnement peut poser problème. Finalement, la question de la sécurité ne pointe pas tant vers les mesures techniques mises en place. Microsoft semble avoir réfléchi au sujet. Elle pointe plutôt sur l’existence même de cette masse d’informations, qui transformera tout accès physique par un tiers en bombe potentielle pour la vie privée.

☕️ Bluesky s’ouvre aux messages directs

23 mai 2024 à 10:07
Logo de Bluesky

Le réseau social autorise désormais les messages directs (DM) entre utilisateurs. On peut y accéder depuis le nouveau bouton dédié au centre de la barre d’outils en bas (ou à gauche pour la version web), ou en appuyant sur le nouveau bouton affiché sur le profil d’une personne que l’on souhaite contacter.

La première fois que l’on se rend dans la nouvelle section, le service (ou l’application) nous demande comment on souhaite paramétrer cette fonction. Par défaut, le réglage est sur « Compte que je suis ». On peut le changer pour « Tout le monde » ou, au contraire, « Personne ». Depuis l’écran des DM, on peut appuyer sur le bouton en haut à droite pour retrouver ces réglages, ainsi que ceux des notifications liées.

La fonction n’est disponible que si vous avez la dernière version de l’application mobile (1.83) ou après un rafraîchissement de la version web.

Les messages directs ne prennent pour l’instant en charge que le texte. Les photos et vidéos seront ajoutées plus tard. Signalons que les échanges ne sont pas chiffrés de bout en bout. Là encore, l’ajout est prévu pour plus tard.

Build 2024 : Microsoft encourage la création de copilotes personnalisés

23 mai 2024 à 08:06
IA d'la joie

Depuis hier soir, Microsoft tient sa grand-messe annuelle pour les développeurs. Comme on pouvait s’en douter, il n’est pratiquement question que d’intelligence artificielle, avec de nombreuses annonces liées au nouveau Copilot Studio. L’éditeur compte ainsi garder son avance.

Par son investissement de plusieurs milliards de dollars dans OpenAI, Microsoft s’est assurée une place de choix dans la course à l’intelligence artificielle. La première place, en fait. L’entreprise multiplie les annonces et est maintenant prête à répandre de nouveaux usages chez le grand public. Pour preuve, l’annonce d’une nouvelle génération de PC, baptisées « Copilot+ » et renvoyant à son assistant, décliné à presque toutes les sauces.

Sans surprise, la conférence Build a été le théâtre de nombreuses annonces en rapport avec l’IA. Pas question pour Microsoft de se laisser rattraper alors que ses modèles sont déjà presque partout, tout du moins les modèles GPT d’OpenAI. Si l’on en croit les rumeurs, Apple devrait annoncer bon nombre de fonctions alimentées par l’IA, basées sur des modèles d’OpenAI, ce qui mettrait la société une nouvelle fois sur le devant la scène.

Microsoft, en attendant, continue son bonhomme de chemin et cherche à diversifier les usages. Rappelons que la société a déjà annoncé plusieurs fonctions pour Windows 11, présentes dans les PC Copilot+, notamment Recall, qui garde l’inventaire des activités et permet de retrouver ce que l’on a fait, et Super Resolution, spécialisé dans la restauration de vieilles photos. Leur efficacité et leur impact sur la vie privée restent cependant à évaluer.

Team Copilot veut simplifier la collaboration et la gestion de projet


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Sur iPhone, les Navigo s’intègrent dans Cartes, les abonnements annuels attendront

22 mai 2024 à 07:08
Les JO, quel moteur
Vue de Paris

L’application mobile Île-de-France Mobilités est désormais compatible avec Cartes sur iPhone. Il devient possible d’ajouter une carte Navigo dans le téléphone, d’acheter des tickets et de valider directement aux bornes.

C’était une promesse de longue date. De si longue date qu’elle remonte à plusieurs années. Mais c’est enfin chose faite, ou presque : on peut ajouter une carte Navigo à l’iPhone, via l’application Cartes, et valider un titre de transport directement aux bornes avec le téléphone.

L’application Île-de-France Mobilités a besoin pour cela d’une mise à jour, disponible depuis hier. Une fois installée, il devient possible d’ajouter le Navigo dans l’application Cartes. On peut même y acheter directement des titres de transports, qu’il s’agisse de tickets à l’unité, de lots de tickets, de forfaits Jour, ou encore de tickets OrlyBus ou RoissyBus.

Validation directe, y compris sur une Apple Watch

Si Cartes dispose d’au moins un titre de transport adapté, il sera validé automatiquement en approchant l’iPhone de la borne de contrôle, sans contrôle biométrique. Les iPhone étant munis d’une petite batterie dédiée aux communications NFC, la validation peut se faire durant un délai de 5 heures maximum après extinction de l’appareil. La validation peut également se faire par l’Apple Watch.

Il y a cependant deux limitations. D’abord, les cartes d’abonnement annuel Navigo ne sont pas prises en charge. Le changement n’intéressera donc, pour l’instant, que les personnes de passage sur Paris et, bien sûr, les touristes. L’activation de cette option juste avant les Jeux Olympiques n’est pas un hasard. Les cartes d’abonnement seront prises en charge plus tard, sans plus de précision. Les abonnements mensuels, eux, sont pris en compte.

Ensuite, on ne peut pas non plus importer de carte Navigo existante.

Ajout d’une carte Navigo dans l’iPhone

Après avoir installé la dernière version d’Île-de-France Mobilités, il faut se rendre dans l’application Cartes. De là, appuyez sur « + » en haut à droite et sélectionnez « Carte de transport ». L’option Navigo se trouver en tête de liste, tout simplement parce qu’il s’agit de la seule disponible en France.

Après un message d’informations, Cartes demande de choisir un titre de transport. Il en faut au moins un pour créer la carte. Le paiement se fait bien sûr via Apple Pay et est intégré. Après quoi, le titre acheté devient utilisable.

Notez qu’au moment où nous écrivons ces lignes, la fonction « Racheter » déclenche une erreur, renvoyant à une erreur du service parisien, qui semble rencontrer des couacs actuellement.

Voilà les Copilot+ : des PC avec Windows 11 Arm, IA et Snapdragon X

21 mai 2024 à 16:08
Total Recall

24 heures avant le coup d’envoi de la conférence Build, Microsoft a officialisé les PC Copilot+. Il s’agit d’une nouvelle génération de machines alimentées par les puces Snapdragon X Elite et Plus de Qualcomm et faisant la part belle à l’IA. De nombreux constructeurs ont présenté leurs produits, qui seront tous disponibles le mois prochain. Les fonctions IA intégrées dans Windows 11 Arm soulèvent des questions.

Des performances, de l’autonomie et de l’IA. Voilà, dans les grandes lignes, le résumé des annonces autour des PC Copilot+. Cette étiquette, narcissique pour Microsoft puisque reprenant son nom Copilot décliné à toutes les sauces, désigne des PC présentant un certain nombre de caractéristiques communes. Une vingtaine de ces nouveaux PC ont été présentés.

Ces machines sont toutes équipées de SoC Snapdragon X dans ses versions Elite ou Plus. La très grande majorité dispose de 16 ou 32 Go de mémoire, d’au moins 256 Go de SSD et affichent une autonomie moyenne de 15 heures en consultation web ou de 20 heures en lecture vidéo.

Précisons d’emblée que les puces Snapdragon ne sont pas obligatoires pour constituer un « PC Copilot+ » : tout processeur équipé d’un moteur neuronal (NPU) est éligible.

Le parc logiciel semble mieux préparé cette fois

Toutes les machines présentées hier – et que nous abordons plus loin dans l’article – présentent à peu près les mêmes caractéristiques, avec bien sûr des variations selon la gamme de prix, comme l’arrivée d’une dalle OLED sur la nouvelle Surface Pro.

Toutes ces configurations fonctionnent avec Windows 11, dans sa mouture compilée pour ARM. Le nombre d’applications natives disponibles a clairement été revu à la hausse. Chrome, Firefox, Spotify, Dropbox, WhatsApp, la suite Affinity, CapCut, DaVinci Resolve, LiquidText ou encore Zoom sont déjà prêts, tout comme la suite Office, Teams et d’autres produits de Microsoft. Chez Adobe, des versions natives pour Photoshop, Lightroom, Firefly et Express sont là, celles pour Illustrator et Premiere Pro arriveront un peu plus tard dans l’année. Tout comme d’autres applications qui s’y sont engagées, à l’instar de Slack.

Point intéressant, Microsoft évoque dans son annonce officielle son émulateur Prism, chargé du code x86 quand une application non native est lancée. Durant la présentation, l’éditeur a abordé les performances, apparemment revues à la hausse. Microsoft va jusqu’à parler de 200 % dans certains scénarios. S’agissant d’un point noir et de la plus grosse épine dans le pied de la firme depuis ses premiers essais de Windows on Arm, on attendra de juger sur pièce.

La question des performances manque encore de précision. Sur la base de tests sur Cinebench 2024, Microsoft a annoncé que les PC Copilot+ étaient jusqu’à 58 % plus rapide qu’un MacBook Air M3 sur des tâches complexes, sans plus de précisions.

De l’IA, de l’IA, encore de l’IA

Qualcomm aime à dire que cette nouvelle génération de PC est la seule « capable de donner vie aux expériences Copilot+ aujourd’hui ». Ces machines sont si orientées vers l’IA qu’une touche Copilot est même présente sur tous les claviers des modèles estampillées Copilot+.

« C’est une nouvelle ère pour le PC et notre collaboration avec Microsoft associe la puissance de la série Snapdragon X à la puissance de Copilot+ pour offrir des capacités d’IA révolutionnaires qui redéfinissent l’expérience informatique personnelle, le tout avec des performances de pointe et une autonomie de plusieurs jours », a ainsi déclaré Alex Katouzian, responsable de la division, Mobile, Compute & XR chez Qualcomm.

De quel type d’IA parle-t-on ? De fonctions intégrées dans Windows 11 et disponibles sur toutes les machines Copilot+.

C’est particulièrement le cas de Recall, la fonction la plus emblématique et que Microsoft décrit comme une « mémoire photographique ». Recall examine tout ce qui est fait par l’utilisateur et prend régulièrement des captures. Les informations sont stockées dans une base locale chiffrée. Le moteur assorti permet alors de retrouver une ancienne activité avec des requêtes en langage naturel. La question de la vie privée se pose naturellement, mais il n’y a pour l’instant que très peu d’informations sur le sujet.

La fonction nécessite un SSD d’au moins 256 Go pour fonctionner et réclamera 25 Go. Sur des espaces disque plus volumineux, elle pourra consommer jusqu’à 50 Go. L’historique se fera sur au moins trois mois. Lorsqu’il est plein, les plus anciens éléments sont effacés au profit des nouveaux.

On trouve aussi Cocreator, qui permet de générer des images, à la manière de Bing Images, toujours avec des requêtes en langage naturel. On peut affiner le résultat en demandant de préciser certains aspects, modifier le rendu, faire évoluer le concept, etc. Un réglage permet de basculer entre les styles proposés. L’application Photos se dote également d’une fonction Restyle, qui permet de modifier le style de l’image, mélangeant retouche et génération.

Live Captions, comme son nom l’indique, permet d’afficher des sous-titres depuis – a priori – n’importe quelle vidéo, y compris en direct, ou même à partir d’un flux audio, tel qu’un podcast. Quick Settings, de son côté, est dédié aux petites retouches pour les vidéos.

Nouveau Surface Laptop: c’est beau, c’est cher

La valse des nouveaux appareils a ouvert avec le nouveau Surface Laptop, que l’on trouve en deux variantes principales, de 13,8 et 15 pouces. La première peut être configurée avec un Snapdragon X Plus ou Elite, tandis que le modèle 15 pouces n’est disponible qu’avec un Snapdragon X Elite.

Rappelons que si le Plus n’est disponible qu’en un seul modèle, le X Elite a trois variantes :

La version du Snapdragon X Elite présente dans les nouvelles machines de Microsoft n’est jamais précisée. Il existe un écart de prix significatif : 1 199 euros pour la version X Plus et 1 649 euros pour la version X Elite. Dans les deux cas, le reste des caractéristiques ne change pas : 16 Go de RAM (LPDDR5X), 512 Go de SSD, écran tactile HDR 13,8 pouces 120 Hz (2 304 x 1 536 pixels), Wi-Fi 7, Bluetooth 5.4 et webcam 1080p.

La connectique comprend deux ports USB-C/USB4 et un port USB-A 3.1. Une prise casque 3,5mm et un port Surface Connect sont également présents. Le poids annoncé est de 1,34 kg.

La version 15 pouces est davantage tournée vers le haut de gamme. La dalle est également HDR, 120 Hz et affiche une définition de 2 496 x 1 664 pixels. Comme dit, seul le Snapdragon X Elite est disponible. Le tarif démarre à 1 549 euros avec 16 Go de mémoire et 256 Go de SSD. Le plus gros modèle, commercialisé 2 499 euros, propose 32 Go de RAM et un SSD de 1 To. Le reste des caractéristiques est identique au modèle 13,8 pouces, y compris la connectique (dommage). Seul un port microSDXC est ajouté. Le poids annoncé est de 1,66 kg.

Les précommandes sont déjà ouvertes. La disponibilité et la livraison des machines est prévue pour le 18 juin. Un évènement de lancement devrait avoir lieu à Paris autour de cette date.

Nouvelle Surface Pro, avec l’OLED en option

La nouvelle tablette de Microsoft peut elle aussi être précommandée en deux variantes, l’une avec le Snapdragon X Plus, l’autre avec le X Elite. La configuration rappelle le Surface Laptop, avec au minimum 16 Go de mémoire et 256 Go de SSD. Les prix démarrent à 1 199 euros.

Le choix de la puce entraine celui de la dalle. Avec une configuration X Plus, la nouvelle Surface Pro est proposée avec une dalle LCD de 13 pouces en 2 880 x 1 920, HDR et en 120 Hz (a priori la même que sur la génération précédente). En Snapdragon X Elite, la dalle passe à l’OLED, avec la même définition et les 120 Hz. Les prix démarrent à 1 799 euros et peuvent grimper jusqu’à 2 449 euros pour 32 Go de RAM et 1 To de SSD.

Notez qu’à l’instar du Surface Laptop, Microsoft ne donne aucune précision sur le modèle de puce embarqué en cas de Snapdragon X Elite. Nous avons contacté l’entreprise pour demander des précisions et mettrons à jour cette actualité si besoin.

On retrouve le Wi-Fi 7 et le Bluetooth 5.4. Une version 5G de la tablette sera proposée plus tard dans l’année. Son poids annoncé est de 895 g, son autonomie de 14 heures en lecture vidéo (10 heures en navigation web). Une webcam 1440p est présente, de même deux que deux ports USB-C/USB4.

Un nouveau clavier Surface Pro Flex a également été présenté. Grosse différence avec les générations précédentes, il est maintenant sans fil, intègre des couches de fibres de carbone pour augmenter sa durabilité et dispose d’un pavé tactile avec retour haptique personnalisable. Le tarif européen n’est pas connu, mais on sait qu’il sera vendu 450 dollars outre-Atlantique. « Microsoft a perdu l’esprit », pointent nos confrères de TechPowerUp.

Comme le Surface Laptop, les précommandes sont ouvertes. La livraison et la disponibilité sont ici aussi prévues pour le 18 juin.

Une déferlante de modèles chez les partenaires

L’évènement était clairement attendu par les OEM qui ont tous préparé des configurations adaptées. Nous ne plongerons pas dans le détail de chaque machine. Comme vous allez le voir, les PC proposés présentent une grande homogénéité matérielles : Snapdragon X Plus ou Elite, 16 ou 32 Go de mémoire, 256 Go à 1 To de SSD, Wi-Fi 7, une autonomie entre 15 et 20 heures, etc.

Le Swift 14 AI d’Acer est un bon exemple. La dalle IPS de 14,5 pouces affiche une définition de 2 560 x 1 600, avec HDR et 100 % de l’espace colorimétrique sRGB. L’écran pourra être tactile en option. Le portable intégrera une charnière permettant de retourner complètement l’écran, permettant de le poser à plat. On y trouvera également une webcam 1440p infrarouge, bien sûr compatible avec Windows Hello. La batterie sera de 75 Wh, soit environ 12 heures de travail selon Acer (on repassera pour la précision). La machine sera disponible le mois prochain à un tarif de départ de 1 499 euros. On ne sait pas vraiment ce qui est intégré pour cette somme.

On pourrait reprendre ces constats pour les annonces d’ASUS, de Dell (cinq machines d’un coup), HP, Lenovo et Samsung. Les modèles sont plus ou moins pensés pour le grand public ou les professionnels, plus ou moins premium. Ce sont toujours les deux mêmes puces, toujours le Wi-Fi, toujours le Bluetooth 5.4, toujours à peu près la même connectique.

Certaines machines ressortent un peu plus du lot. Par exemple, le ThinkPad T14s Gen 6 de Lenovo pourra intégrer jusqu’à 64 Go de mémoire. Le XPS 13 de Dell est présenté comme pouvant grimper jusqu’à 27 heures d’autonomie (toujours en lecture vidéo). Dell est d’ailleurs l’un des rares à clairement indiquer la référence de la puce utilisée sur ses précommandes (selon les modèles, les fréquences de bases et turbo ne sont pas les mêmes). Son XPS 13 est ainsi fourni avec un X1E-80-100. Pas le plus rapide donc, mais avec le Turbo (4 GHz, pour une fréquence de base de 3,4 GHz).

Une claque à Intel au passage

Il semble clair que Microsoft et ses partenaires vont largement mettre l’accent sur ces configurations au cours des prochaines années. Si l’on compare aux tentatives précédentes, il semble que les conditions soient davantage réunies. Apple et ses puces maison sont passées par là, le marché est prêt pour des SoC ARM au quotidien… selon les usages.

Il reste de nombreuses inconnues sur cette nouvelle génération de machines. D’une part, il s’agit d’un pari : avec un tel accent mis sur l’IA, mieux vaut pour Microsoft que défiance généralisée ne vienne pas contrecarrer ses plans, tant les investissements ont été lourds (surtout dans OpenAI). D’autre part, les annonces ont beau être enthousiastes, elles ne disent rien des performances réelles, même si le discours commercial insiste sur la rapidité de ces machines.

Soulignons également certaines limitations inhérentes à cette nouvelle génération. Les composants sont ainsi tous soudés à la carte mère et ne peuvent donc plus évoluer après l’achat. Le problème est le même que chez Apple. D’autre part, les constructeurs ont peu de marge pour se différencier sur les composants et les performances.

Le succès des PC Copilot+ sera d’autant plus intéressant à observer qu’il pourrait finir par scinder le marché en deux. On pourrait avoir d’un côté des PC « généralistes », fins, légers et consommant peu, et de l’autre des machines taillées pour des performances plus élevées, à destination notamment du jeu. Car on ne sait pas encore quel sera le comportement des Snapdragon X Plus et Elite dans ce domaine.

De fait, les yeux se tournent vers Intel et AMD, qui se penchent, eux aussi, sur le traitement de calculs liés à l’intelligence artificielle. Les performances, l’efficacité énergétique et les possibilités d’évolution (changer de CPU, GPU dédié…) seront à scruter de près.

Notez que Microsoft a quand même taclé Intel au passage. « C’est quelque chose que nous n’avons pas eu depuis plus de deux décennies, nous n’avions pas ce qu’il fallait pour proposer l’appareil le plus performant. Nous allons l’avoir », a ainsi déclaré le responsable Yusuf Mehdi durant la présentation. Un propos qui n’est pas sans rappeler celui de Steve Jobs lors de l’abandon des PowerPC pour des puces Intel. Ou, plus récemment, lors de l’abandon des processeurs Intel.

☕️ Apple fait appel de son amende de 1,8 milliard d’euros

21 mai 2024 à 14:18
Apple vs EU : le bras de fer

Début mars, la Commission européenne infligeait une amende de 1,8 milliard d’euros à Apple pour ses pratiques « anti-steering » dans le domaine du streaming musical.

Apple a ainsi été condamnée pour son attitude face aux applications comme Spotify. Ces dernières ne pouvaient pas informer les utilisateurs de tarifs plus avantageux en dehors de l’application. Bien qu’Apple ait annoncé depuis des améliorations, Spotify n’est pas convaincue.

Sans surprise cependant, la société de Cupertino a décidé de faire appel devant le Tribunal de l’Union. Selon Bloomberg, les arguments avancés par Apple n’ont rien de nouveau : Spotify n’a aucune raison de se plaindre. La société suédoise est leader en Europe sur le streaming et profite de l’infrastructure d’Apple sans rien lui reverser, puisque l’abonnement passe uniquement par son site web.

Pour la Commission, le problème n’est pas là : Apple empêche des entreprises de communiquer librement avec leurs clients, ce qui engendre des frais supplémentaires pour ces derniers. Il y a distorsion de la concurrence.

☕️ HandBrake 1.8.0 disponible, la version Linux portée vers GTK4

21 mai 2024 à 07:14
HandBrake

Le célèbre outil, spécialisé dans la conversion des vidéos, revient dans une nouvelle version. Elle apporte plusieurs améliorations importantes, dont la prise en charge de FFmpeg 7.0, du muxing VP9 et FLAC dans les conteneurs MP4, ou encore l’arrivée d’un codeur TrueHD, avec support des fréquences d’échantillonnage de 88,2, 96, 176,4 et 192 kHz.

On trouve également des nouveautés plus générales, notamment le passage à GTK4 pour la version Linux, avec à la clé une interface mieux intégrée et modernisée. Même chose sur macOS, avec des lignes plus en phase avec les canons esthétiques d’Apple. On note aussi de nouvelles icônes, le support de l’analyse récursive de fichiers et de l’analyse multi-fichiers pour le glisser-déposer, ainsi que deux nouveaux flags, –clear-queue et –auto-start-queue.

La nouvelle mouture corrige une série de bugs, dont le souci d’instabilité lié à l’horodatage dans le conteneur MP4 à cause d’une fréquence d’images NTSC constante, l’écrasement des paramètres des sous-titres ou encore la disposition incorrecte des canaux durant le codage d’une piste 6.1 dans Opus.

Ubuntu 24.10 : destination Wayland et chiffrement intégral du disque

20 mai 2024 à 09:17
Une histoire de piaf et de prophétie
Fond d'écran par défaut d'Ubuntu 24.04

Dans sa dernière communication, l’équipe de développement d’Ubuntu a donné plusieurs informations importantes sur la prochaine version de la distribution Linux. La mouture 24.10 devrait être nettement plus riche en nouveautés que la 24.04 LTS du mois dernier.

Ubuntu 24.04, alias Noble Numbat, n’était pas dénuée d’apports. Mais on ne peut pas dire qu’elle ait révolutionné l’informatique, ce qui convient d’ailleurs à une bonne part des utilisateurs. Il s’agissait en fait d’un contexte particulier : l’activation par défaut des framepointers et d’autres éléments, ainsi que le gros problème de sécurité engendré par l’affaire XZ Utils ont entrainé une révision des plans et une compilation de toute la distribution.

Le temps « perdu » a limité le nombre de nouveautés à inclure dans la bêta publique, qui ne dure que deux ou trois semaines. Les plans pour Ubuntu 24.10 – qui s’appellera Oracular Oriole – sont de rattraper le retard et de lisser les nouveautés introduites dans Noble Nombat. Des apports significatifs sont prévus.

Chiffrement intégral du disque et Wayland

Canonical compte réactiver la télémétrie sur les problèmes de configuration rencontrés sur les périphériques. La société ambitionne en effet d’utiliser par défaut le chiffrement intégral du disque basé sur la puce TPM. L’annonce fait étrangement suite à celle de Microsoft, qui s’avance dans la même direction.

Ce retour d’informations interviendra dès l’installation du système. L’installeur, intégralement revu pour Ubuntu 23.10 et amélioré dans la version 24.04 LTS, sera donc à nouveau renforcé. Les informations captées devraient aider Canonical à mieux cerner certains soucis techniques, notamment ceux liés aux pilotes NVIDIA.

L’éditeur compte ainsi préparer le terrain au chiffrement intégral du disque (qui n’interviendra peut-être pas dans la prochaine version) et activer par défaut Wayland pour les possesseurs de GPU NVIDIA.

« Il y a encore quelques problèmes connus avec cette combinaison et en raison de la forte utilisation d’Ubuntu Desktop dans l’IA/ML, VFX et d’autres industries, nous avons conclu qu’il était trop tôt pour faire ce changement dans Ubuntu 24.04 LTS », ajoute Canonical.

L’activation par défaut va, là aussi, permettre la remontée d’informations. L’éditeur évoque une liste de problèmes réduite, qui devrait permettre la même activation par défaut dans Ubuntu 26.04, la prochaine édition LTS du système. Avec Ubuntu 24.10, Wayland devrait donc être actif sur la totalité des configurations, l’ancien serveur graphique X restant disponible en solution de secours.

De multiples autres nouveautés

GNOME 47 sera de la partie. Sa version finale devrait être prête quelques semaines avant la publication de la bêta d’Ubuntu 24.10. Canonical va d’ailleurs profiter de l’intégration renforcée de Wayland dans GNOME à cette occasion.

L’assistant de bienvenue va également être révisé. Canonical poursuit son travail de réécriture pour ses applications intégrées en les passant à la moulinette Flutter. L’assistant va donc être remanié en tenant compte des changements intervenus dans l’installeur, pour donner une continuité dans l’expérience utilisateur. De nouvelles fonctions doivent y être ajoutées, dont la création de comptes utilisateurs.

Puisque l’on parle de Flutter, Canonical ajoute que le travail de migration de GTK3 vers GTK4 continue. Les bénéfices attendus sont de meilleures performances ainsi qu’une prise en charge améliorée de l’accessibilité. Sur ce dernier point, rappelons que l’un des apports d’Ubuntu 24.04 est la possibilité d’activer les options d’accessibilité dès le début du processus d’installation.

Le Centre d’applications sera enrichi lui aussi. La découverte sera facilitée sur un plus grand nombre de catégories. On y trouvera aussi le support des installations tierces de paquets DEB. Enfin, une amélioration est prévue pour les messages de mises à jour pour les snap en cours d’exécution.

Version immuable et embauches massives

Enfin, deux nouvelles d’importance. D’abord, le travail continue sur Ubuntu Core Desktop, la première version immuable du système pour les machines de bureau.

Ensuite, Canonical va embaucher. Dans l’année qui vient, l’entreprise compte faire grandir l’équipe Ubuntu Desktop « d’au moins 50 % ». « Si vous avez la passion et les compétences nécessaires pour être à la pointe de la performance, de la sécurité, de l’immuabilité et de l’accessibilité, alors nous voulons vous connaître », indique l’entreprise.

☕️ IA générative : le ton monte entre l’Europe et Microsoft

20 mai 2024 à 08:03
Drapeau de l'Europe

La Commission européenne n’est pas satisfaite. Bing, en tant que contrôleur d’accès désigné par le DSA, est soumis à un certain nombre d’obligations. Le 14 mars, l’Europe avait ainsi demandé à Microsoft des informations portant sur les risques liés à l’IA, « notamment Copilot in Bing et Image Creator by Designer ».

Selon la Commission, dans une note du 17 mai, les réponses étaient incomplètes. Une nouvelle demande a été envoyée, cette fois juridiquement contraignante.

« La demande d’informations repose sur le soupçon que Bing pourrait avoir enfreint le DSA en ce qui concerne les risques liés à l’IA générative, tels que les “hallucinations”, la diffusion virale de “deepfakes”, ainsi que la manipulation automatisée de services susceptibles d’induire les électeurs en erreur. »

La Commission précise que l’amende pourrait aller jusqu’à 1 % du revenu annuel ou du chiffre d’affaires mondial, assortie d’une sanction périodique pouvant grimper jusqu’à 5 % du revenu journalier moyen ou du chiffre d’affaires annuel mondial du prestataire, si Microsoft ne répond pas dans les temps. Si les informations fournies se révèlent « incorrectes, incomplètes ou trompeuses », la même amende pourra être appliquée.

L’Europe rappelle toutefois qu’une telle demande d’information est un acte d’enquête « qui ne préjuge pas des éventuelles autres mesures que la Commission pourrait ou non décider de prendre ». Selon les éléments fournis, une procédure formelle pourrait être ensuite ouverte.

☕️ Winamp va devenir open source

20 mai 2024 à 06:00
Winamp

Winamp, c’est le symbole d’une époque pratiquement révolue, où l’on organisait des centaines, voire des milliers de MP3 (ou autres codecs sonores) pour se constituer une vaste médiathèque musicale. Avec l’arrivée de YouTube et des plateformes de streaming, l’usage a changé et Winamp a été relégué à l’arrière-plan.

L’application est devenue une plateforme centrée sur les radios et la distribution intégrée. Il n’y a plus grand-chose à voir avec le petit lecteur des débuts, léger et si riche en fonctions, même si un lecteur est toujours présent dans l’ensemble. La plateforme est surtout conçue pour faciliter la publication de titres par les artistes sur les plateformes de streaming.

L’ancien lecteur avait été abandonné en 2013 (une décision d’AOL à l’époque), avant d’être repris en main en 2018. Mais Llama Group, qui en possède les droits, désire se concentrer sur ses services web et ses applications mobiles. L’application Windows classique va donc passer en open source le 24 septembre. La licence n’est cependant pas encore connue.

Il est probablement déjà trop tard pour Winamp. Seule la version Windows est concernée (la version Mac a été abandonnée il y a des années) et des initiatives ont depuis longtemps pris le relai sur Linux. Sans parler de VLC.

Linux 6.9 améliore encore le support matériel, surtout les processeurs AMD récents

17 mai 2024 à 15:04
Droit au cœur
Photographie retouchée de Long Ma pour Unsplash

Nouvelle mouture pour le noyau Linux, qui passe en version 6.9. Les améliorations sont nombreuses, particulièrement pour le support matériel. On note aussi un meilleur support des écrans 4K et un démarrage plus rapide dans certains cas.

Les noyaux Linux fournissent l’essentiel du support matériel dans les distributions. On peut bien sûr installer des pilotes dédiés (c’est même souvent le cas avec les GPU NVIDIA), mais c’est bien au « kernel » d’assurer l’exploitation du matériel dans l’immense majorité des cas. Aussi, l’arrivée d’un nouveau noyau permet souvent le support de matériels récents.

Le noyau 6.9 ne fait pas exception et ajoute de nouveaux éléments, notamment pour Intel et AMD.

Du côté des processeurs

L’une des principales améliorations concerne les processeurs Zen et la fonction Preferred Core. Celle-ci permet d’orienter certaines tâches vers les cœurs les plus puissants du processeur, le système communiquant avec l’ordonnanceur pour répartir la charge.

Ce support était attendu pour le noyau 6.8 mais n’avait pas eu le temps d’être finalisé. Pour en profiter, il faut que le pilote P-State d’AMD soit installé. Cet ajout est d’autant plus important qu’AMD fournit un nombre croissant de processeurs comprenant des cœurs performants (Zen4) et des cœurs efficaces (Zen4c).

Restons chez AMD avec deux autres nouveautés. D’abord, une meilleure prise en compte de SEV-SNP, l’une des fonctions dévolues à la sécurité cryptographique dans le pack SEV, qui comprend également SEV-ES. Ces fonctions sont présentes dans les puces EPYC et devraient être toutes gérées dans le noyau 6.10. Ensuite, le support du FRU Memory Poison Manager, qui permet aux informations sur les erreurs en mémoire vive de persister entre les redémarrages.

Côté Intel, on note une série de correctifs pour les processeurs Meteor Lake destinés aux ordinateurs portables. Les paramètres Energy Performance Preference ont été ajustés, avec à la clé de meilleures performances. Signalons aussi l’intégration d’Intel FRED (Flexible Return and Event Delivery), dont la mission est de permettre des transitions entre les niveaux de privilèges avec une latence faible.

Enfin, un support plus étendu des instructions x86S, lancées pour rappel il y a un an pour simplifier l’architecture x86 et supprimer le support des systèmes 16 et 32 bits.

Améliorations graphiques

L’un des plus gros apports du noyau Linux 6.9 est la prise en charge de polices plus grandes dans FBDEV (frame-buffer device). La largeur maximale passe à 64 et la hauteur à 128. Cela ne vous évoque peut-être rien, mais ce changement permet un bien meilleur support des écrans haute définition, notamment 4K, en cas d’utilisation de la console.

Plusieurs autres améliorations sont présentes, notamment pour le pilote i915 d’Intel, le support du tunneling DisplayPort, ou encore celui de fastboot pour les anciennes plateformes.

Processeurs ARM, stockage et autres

Comme toujours, le nouveau noyau propose des ajouts significatifs dans le support de certaines architectures ARM et autres. C’est le cas de RISC-V qui y gagne entre autres la prise en charge des routines cryptographiques à accélération vectorielle.

L’architecture LoongAarch reçoit certaines attentions, elle aussi, dont le support d’objtool, du live-patching (pour appliquer les correctifs du noyau sans redémarrer la machine) ainsi que des fonctions supplémentaires pour la configuration du noyau. Plusieurs nouveautés aussi pour ARM64, dont le support de la compilation Rust dans le noyau.

Côté stockage, signalons l’arrivée d’une grosse nouveauté : la gestion du mode FUSE passthrough. En clair, les opérations de lecture et écriture sont transmises directement par le noyau au système de fichiers de l’espace utilisateur, avec à la clé une amélioration des performances du FS, en évitant de surcharger le daemon. On note aussi des améliorations significatives dans le support de l’exFAT, dont une nette augmentation des performances quand l’option dirsync est activée.

Disponibilité du noyau 6.9

La récupération du nouveau noyau diffère selon la distribution utilisée. Dans la plupart des cas, les distributions classiques (Ubuntu, Fedora…) attendant la version majeure suivante pour livrer une évolution importante du noyau. Dans ce genre de cas, il est conseillé d’attendre, même si des outils permettent le téléchargement et l’installation du nouveau noyau dans sa version générique.

Les autres distributions, en rolling release, proposent déjà ce noyau ou vont le faire très prochainement.

☕️ Firefox 126 est là, le RTX Video Super Resolution de NVIDIA pris en charge

17 mai 2024 à 13:39
Logo de Firefox

La nouvelle mouture du navigateur est en ligne depuis hier. On y trouve plusieurs nouveautés intéressantes, comme une amélioration de la fonction « Copier sans le pistage du site », rajoutée en novembre et qui prend maintenant en compte les URL imbriquées.

Firefox 126 supporte également le standard de compression zstd et le décodage matériel de l’AV1 pour les Mac équipés de puces M3.

Mais le plus gros ajout est sans conteste la prise en charge de deux fonctions de NVIDIA : RTX Video Super Resolution et RTX Video HDR. La première fonctionne comme un DLSS pour les vidéos, pour en améliorer la qualité. L’autre retravaille les vidéos pour les convertir en HDR10.

Dans les deux cas, ce support n’est présent que sous Windows (10 ou 11). Il faut une GeForce RTX de la série 2000 ou plus récente, ainsi qu’un pilote en version 550 au moins. Les options liées à la vidéo doivent être activées dans le panneau de contrôle NVIDIA et le HDR doit être coché dans les paramètres de Windows. Il faut donc un écran compatible.

Côté sécurité, Firefox 126 colmate 17 failles, dont deux critiques.

Écoconception des services numériques : le référentiel est là, avec ses ambitions et limites

17 mai 2024 à 07:00
Et maintenant ?
Une bouteille à la mer numérique par Flock

Le référentiel général de l’écoconception des produits est désormais en ligne. Ce document, très attendu, constitue un premier jet et a la mission délicate de faire bouger les lignes. Il n’est cependant pas contraignant et ambitionne surtout, pour l’instant, la collecte des connaissances et des retours d’expérience.

Ces dernières années, en France, plusieurs agences mettent l’accent sur la sobriété énergétique. Par extension, la sobriété numérique devient un sujet prégnant, nos usages augmentant continuellement.

L’Arcep et l’Arcom, en lien avec l’ADEME, publient donc ce référentiel, après la consultation publique d’octobre dernier. L’objectif est clair : intégrer dès la conception des pratiques vertueuses en matière de minimisation de l’empreinte environnementale. La rédaction du document a également bénéficié du concours de la CNIL, de la DINUM et d’Inria.

Écoconception : de quoi parle-t-on ?

Avant de plonger dans le référentiel, son périmètre et ses objectifs, il faut s’arrêter un instant sur l’écoconception proprement dite. La définition courante – et reprise par le document – est « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».

Une définition qui résume à elle seule l’objectif général du référentiel : minimiser autant que possible la consommation d’énergie et de ressources. Le Graal devient alors un service ayant nécessité le strict minimum à son fonctionnement et n’envoyant que la juste quantité d’informations.

Tout le monde est concerné (ou presque)

Le périmètre du référentiel est vaste. Les serveurs, terminaux, box internet, réseaux d’opérateurs, centres de données, les infrastructures logicielles et plus généralement les services numériques sont concernés. On trouve donc aussi bien des sites web que des API (Application Programming Interface), des systèmes d’exploitation, des systèmes d’intelligence artificielle (SIA), tout le SaaS (Software as a Service), les registres de blockchains, plateformes vidéo et autres services en ligne.

En d’autres termes, tout ce qui touche de près ou de loin au numérique. Mais le référentiel ne se veut pas une bible parée à toutes les utilisations. Comme indiqué, il ne fait « pas obstacle à l’existence de documents d’écoconception complémentaires, plus exhaustifs ou spécifiques à certaines catégories de produits ou services numériques ». Par exemple, un référentiel dédié aux objets connectés (IoT).

Le document se voulant généraliste et un « socle commun de bonnes pratiques », tous les métiers liés au numérique sont concernés. Tout ce qui touche à la gestion des projets, à la maîtrise d’ouvrage, à l’UX (user experience), aux éléments graphiques, au marketing, à l’ingénierie logicielle ou système, ou encore à la publication de contenus est visé.

Quatre axes majeurs

Pour parvenir à maitriser la consommation des services numériques, les trois agences proposent quatre axes principaux d’action.

D’abord, en soulageant les terminaux. Si la fabrication de ces derniers n’entre pas dans le périmètre du texte, il est possible d’influer sur ce qu’ils utilisent. Par exemple, en veillant à ce que les services aient une consommation mesurée de ressources, pour s’assurer que des appareils anciens puissent continuer à les utiliser.

Les autres idées comprennent l’adaptation du service au contexte (par exemple, optimiser la vidéo pour la taille de l’écran, pour éviter la 4K sur un smartphone), la possibilité d’utiliser le service sur le plus grand nombre possible d’appareils (interfaces tactiles et claviers physiques), l’usage de l’open source « comme levier de prolongation de la durée des services » (et donc des terminaux et des objets connectés), ainsi que la disponibilité des mises à jour essentielles pendant toute la durée de vie des terminaux. Le référentiel souhaite également que les services puissent être utilisés sur des versions antérieures des systèmes d’exploitation et navigateurs.

Deuxième axe, la promotion de la sobriété face à la captation de l’attention. Et c’est là un vaste chantier qui s’ouvre pour les agences, car elles souhaitent la restriction des murs de contenus infinis, du déclenchement automatique des vidéos, des notifications intempestives et autres. Le référentiel milite pour des informations claires, la fin des dark patterns (appelés « procédés manipulatoires »), des fonctions telles qu’un bouton ou un mode économie d’énergie. Il est également question de limiter la captation des données et métadonnées à des fins publicitaires.

Troisième axe, la diminution des ressources mobilisées pendant tout le cycle de vie du service. Les pistes avancées sont nombreuses : interroger les appareils pour adapter les ressources consommées aux besoins réels, réduire le poids des contenus multimédias, limiter les requêtes aux serveurs, minimiser les ressources nécessaires aux calculs asynchrones, favoriser les hébergeurs efficients et limiter l’utilisation de technologies énergivores. La blockchain et l’apprentissage automatique (donc les IA) sont citées.

Enfin, pour son dernier axe, le référentiel veut promouvoir la transparence, essentiellement avec une approche « par la donnée ». Par exemple, « a minima » par la publication de chiffres sur les émissions de gaz à effet de serre, la consommation énergétique, ainsi que la consommation en eau et en ressources abiotiques minéraux/métaux. Il n’est cependant pas toujours facile d’avoir des chiffres fiables sur lesquels se baser. De même, par la sélection d’un hébergeur transparent sur ses performances environnementales. Enfin, par la publication des objectifs environnementaux.

Comment s’articule le RGSEN pour les structures intéressées ?

Puisque l’on parle d’un référentiel non contraignant, les structures intéressées par son contenu doivent le prendre en main, via un kit d’autoévaluation, en vue d’une déclaration d’écoconception. Celle-ci, si validée, permet alors à l’entreprise (ou autre) d’en faire la communication, notamment à des fins d’image publique, voire dans sa publicité.

Le référentiel propose ainsi 78 critères (91 dans le document soumis à consultation en octobre), présentés sous forme de questions. Chacun est accompagné d’une fiche pratique pour en expliquer les tenants et aboutissants. Un indice de priorisation est également présent pour chaque critère. Il tient compte de l’impact estimé sur l’empreinte environnementale, de sa portée systémique, de ses éventuels effets indirects sur d’autres secteurs et du niveau d’ambition de sa mise en œuvre. Le référentiel, dans sa première édition finalisée, comprend trois niveaux : Prioritaire, Recommandé et Modéré.

L’ensemble permet de calculer un score. Le calcul tient compte des niveaux, puisque chacun possède un facteur de pondération : 1,5 pour Prioritaire, 1,25 pour Recommandé et 1 pour Modéré. L’obtention du score se calcule en divisant les points obtenus par le nombre maximal de points, puis en multipliant le résultat par 100.

Comme le reste, ces niveaux se présentent comme très généralistes. Le document précise même qu’il s’agit d’informations données « à titre indicatif », puisque la difficulté d’implémentation peut fortement varier d’un service à l’autre et selon le contexte.

Il fallait cependant que le référentiel tienne compte de cette mise en œuvre et donne des pistes.

Des critères nombreux et variés

Le référentiel propose une liste de 78 critères répartis entre les trois niveaux de priorité. Chaque élément est accompagné d’un degré de difficulté : Faible, Modéré ou Fort.

Les 30 premiers éléments sont prioritaires et sont mis en avant car les plus à même d’avoir un impact significatif sur la sobriété numérique. Certains sont directement liés à la stratégie et posent la question de l’intérêt même du service, surtout après pondération de ses impacts environnementaux. Certaines modifications sur un service peuvent en effet amener à revoir intégralement son fonctionnement, voire sa conception. Des objectifs ont-ils été fixés pour réduire ces impacts ? A-t-il été conçu avec des technologies ouvertes et interopérables ?

Une partie des éléments a trait à la conception-même du produit et semblent « évidents », dans la mesure où ces questions interviennent presque à chaque fois : lister les profils matériels pouvant servir à accéder au service, la possible utilisation sur d’anciens modèles de terminaux ou versions d’un système d’exploitation, le type de maintenance prévue, etc. Ou, pour deux éléments classés « Fort », une garantie de démarche de réduction des impacts environnementaux imposée aux fournisseurs et la prise en compte des impacts dans la sélection des services tiers.

Après la stratégie et les spécifications, on trouve six autres rubriques : architecture, expérience et interface utilisateur (UX et UI), contenus, frontend, backend, hébergement et algorithmie. Selon le niveau de priorité, certaines rubriques sont d’ailleurs vides. Par exemple, il n’y a rien pour le frontend en « Prioritaire », aucun critère « Modéré » pour l’algorithmie, etc.

Certaines rubriques attirent également l’attention au regard de l’actualité. L’algorithmie, justement, parce qu’elle renvoie directement à l’IA. Les questions posées par le référentiel ne sont donc pas étonnantes : une phase d’entrainement est-elle réellement nécessaire ? Le niveau de complexité est-il minimisé et proportionnel à l’usage effectif ? La quantité de données a-t-elle été limitée au strict nécessaire ? La stratégie d’inférence est-elle optimisée ?

L’hébergement est également un point important. Les questions posées sont classiques et portent sur la mise en place d’une démarche de réduction de l’empreinte, la gestion durable des équipements ou encore d’un PUE minimisé.

Autre exemple, la vidéo. Le référentiel revient sur l’idée courante d’une adaptation de la qualité selon l’usage, avec mise en avant d’un mode sobriété qui enverrait par exemple du 480p sur smartphone. Les questions posées concernent aussi bien la qualité que la technologie de compression utilisée, la capacité à moduler le flux selon l’appareil visé, etc.

Autant de fiches pratiques que de critères

Dans le document, on remarque vite que la partie la plus intéressante se trouve dans les annexes. Ce sont elles qui contiennent les questions et surtout les fiches pratiques qui les accompagnent.

Ces fiches sont essentielles, car elles détaillent ce qui se cache derrière chaque question : les enjeux, la mise en œuvre, les moyens de tests et de contrôle et une rubrique pour « aller plus loin ».

Pour reprendre le cas de la vidéo, la fiche technique commence par rappeler qu’elle représentait 66 % du trafic internet en 2023 et rappelle les principaux objectifs. Les codecs AV1, VP9 et HEVC sont mis en avant pour leur efficacité, mais peuvent entrainer une consommation supplémentaire d’énergie si leur décodage n’est pas pris matériellement en charge par la puce, le CPU devant alors s’en occuper.

Côté mise en œuvre, le codage à débit variable doit être préféré, selon la fiche, éventuellement avec un plafond maximal pour que « les contenus plus complexes restent lisibles avec une connexion internet à bas débit ». On retrouve bien sûr l’idée d’adaptation de la qualité visuelle en fonction du support, quitte à tenir compte de la présence de texte pour augmenter le début, afin d’en préserver la netteté.

Viennent ensuite plusieurs points à valider afin de remplir le critère : le débit variable, la présence des vidéos dans une définition inférieure à 720p, l’utilisation de codecs accélérés matériellement par la majorité du parc existant et le résumé de tous les choix techniques dans la déclaration d’écoconception.

Il s’agit bien sûr d’un exemple, mais toutes les fiches sont bâties sur le même modèle. Elles sont plus techniques et concrètes que le reste du document et en constituent d’ailleurs la vraie matière.

Derrière l’évidente volonté, les vœux pieux ?

Le document donne de très nombreuses pistes et propulse sous les feux de la rampe une thématique destinée à prendre de l’ampleur. Ne serait-ce que parce que le coût de l’énergie, même si actuellement en baisse, ne reviendra sans doute plus aux anciens niveaux. L’écologie fonctionne mieux quand elle signifie une baisse de la facture. Mais l’énergie n’est qu’une partie du problème, puisque la consommation des matériaux tient également une bonne place dans le référentiel.

On en revient ainsi à l’idée première : n’utiliser que ce qui est réellement nécessaire. Et là, certaines idées peuvent devenir des vœux pieux, à moins de déclencher un sursaut mondial et d’accorder l’ensemble des violons. Reprenons l’exemple des services qui devraient être disponibles sur les anciens systèmes d’exploitation et appareils. Ce seul point ouvre une cascade d’autres.

Il faudrait en effet décider les constructeurs de terminaux à entretenir leurs produits sur une durée bien plus longue qu’actuellement. Si Apple fournit en général au moins cinq ans de mises à jour à ses iPhone, le monde des smartphones Android ressemble plus à une jungle. On espère d’ailleurs que la décision de Google de fournir sept ans de mises à jour majeures (et donc au moins autant de mineures) à toute sa gamme Pixel 8 fera tache d’huile dans l’industrie. Moins de modèles, plus de support ?

Une équation loin d’être évidente, car la plupart des fournisseurs de terminaux et de services sont étrangers. On voit mal comment la France pourrait par exemple convaincre un Samsung de multiplier par deux ou trois la durée de support de ses appareils mobiles. Un règlement européen entrera en vigueur en juin 2025, justement sur les « exigences en matière d’écoconception — smartphones, téléphones portables autres que smartphones, téléphones sans fil et tablettes ». Il est notamment question de proposer « des mises à jour du système d’exploitation pendant au moins cinq ans après la mise sur le marché du produit ».

Autre problème potentiel, certains services ne peuvent plus fonctionner avec d’anciennes versions de systèmes d’exploitation ou de navigateurs pour des raisons de sécurité. C’est le cas des applications bancaires, qui tolèrent mal par exemple les appareils Android rootés.

Même constat pour les mesures liées à la captation d’attention. Comment motiver Meta à revoir le fonctionnement de ses murs de contenus infinis, alors qu’ils sont l’essence de services tels que Facebook et Instagram ?

Un premier pas

Le référentiel a le mérite de défricher le terrain de l’écoconception. Il n’est pas contraignant et n’aurait pas pu l’être, car valable uniquement pour la France.

Le maître-mot du RGSEN est « sobriété » et, à lui seul, permet d’ancrer un peu la réflexion de l’écoconception dans les consciences. Il entraine des questions comme « A-t-on besoin de ce service ? » ou « Cet usage est-il raisonné ? Approprié ? ».

Le chemin à parcourir est cependant encore bien long. On le sait depuis longtemps, la consommation du numérique est surtout drainée par la fabrication des appareils. Une part importante de l’économie est fondée sur le renouvellement régulier des produits, longtemps considérés comme (presque) jetables.

Le document rappelle cependant que si le numérique ne représente actuellement que 2,5 % de l’empreinte carbone en France, ses usages sont amenés à exploser d’ici 2030. L’ADEME estime ainsi que le trafic sera multiplié par 6 et que le nombre d’appareils bondira de 65 %, porté par l’explosion des objets connectés. L’empreinte carbone du numérique augmenterait alors de 45 % et la consommation de ressources abiotiques (métaux et minéraux) de 14 %.

Comme le dit le référentiel lui-même, il ne s’agit pas de révolutionner l’industrie du numérique, mais d’établir « une base de connaissances et recommandations commune permettant d’accompagner les démarches volontaires d’écoconception ». Dans cette optique, il se veut un « outil d’action et de sensibilisation ».

De la même manière que les rapports de l’Arcep sur la consommation du numérique s’enrichissent à chaque édition, il sera intéressant de suivre l’évolution du référentiel.

Nous reviendrons dans un deuxième temps sur certains aspects du RGSEN, notamment ses limites et défis.

☕️ VMware Workstation Pro et Fusion Pro deviennent gratuits en usage personnel

15 mai 2024 à 15:30
Personne offrant un cadeau

Comme nous l’indiquions dernièrement, VMware s’est lancé dans un grand ménage de ses licences depuis le rachat par Broadcom. Les licences perpétuelles disparaissent et l’éditeur se focalise sur les produits serveurs et cloud, au détriment des produits « front ».

Dans la foulée, il n’y a pas que des mauvaises nouvelles. Les clients de virtualisation Workstation Pro (Windows, Linux) et Fusion Pro (Mac) peuvent maintenant être utilisés gratuitement pour un usage personnel.

La seule condition pour utiliser les logiciels est de s’inscrire sur le site de VMware pour avoir un compte. L’usage commercial, lui, reste payant.

❌
❌