Vue normale

À partir d’avant-hierNext - Articles gratuits

☕️ La nouvelle Kindle Colorsoft a un problème de bande jaune

7 novembre 2024 à 07:01

Amazon a lancé il y a quelques semaines de nouvelles liseuses Kindle dont, pour la première fois, un modèle avec un écran couleur, nommé Colorsoft. Des utilisateurs ont cependant constaté qu’une bande jaune pouvait apparaître sur le bas de l’écran.

Sur Reddit, on trouve ainsi des témoignages ainsi qu’une photo illustrant le problème. Certaines personnes indiquent que cette apparence jaunie s’étend aussi sur les cotés de l’écran. D’autres encore signalent que le texte est moins net sur cette Kindle, notamment face à la Paperwhite.

Source : TheVloginator, Reddit

Plusieurs utilisateurs indiquent avoir contacté Amazon pour signaler le problème. L’entreprise aurait à chaque fois laissé le choix entre l’envoi d’une liseuse neuve ou le remboursement. À un utilisateur, l’entreprise déclare qu’une mise à jour corrigera le problème.

L’entreprise a d’ailleurs confirmé le problème il y a quelques heures à Neowin : « Un petit nombre de clients ont signalé la présence d’une bande jaune au bas de l’écran. Nous prenons la qualité de nos produits au sérieux – les clients qui remarquent ce problème peuvent s’adresser à notre service clientèle pour obtenir un remplacement ou un remboursement, et nous procédons aux ajustements nécessaires pour garantir que les nouveaux appareils ne connaîtront pas ce problème à l’avenir ».

Un porte-parole a ajouté que la société s’attendait à « des décalages dans les dates de disponibilité » et travaillait à résoudre rapidement le problème. Il n’a pas été fait mention d’une mise à jour logicielle.

☕️ Proton Drive veut séduire les entreprises avec plusieurs nouveautés

6 novembre 2024 à 15:29

Proton vient d’annoncer plusieurs nouveautés importantes pour son service Drive de stockage à distance, y compris pour Docs.

Ce dernier reçoit ainsi un « mode suggestion chiffré de bout en bout », qui permet notamment aux utilisateurs d’un même document partagé de proposer des modifications. Le suivi de celles-ci est également assuré, de même que le contrôle des versions. Dans son communiqué, Proton met largement en avant sa sécurité face à des solutions plus connues comme Google Docs et Notion.

Les améliorations portées à Proton Drive sont clairement orientées vers les entreprises. Drive reçoit ainsi enfin une fonction de lien public, avec possibilité d’ajouter une date d’expiration. Drive reçoit également une section « Partagé avec moi » pour centraliser l’accès aux fichiers partagés par d’autres personnes.

S’il s’agit d’améliorations importantes pour Proton Drive, on remarque qu’il s’agit de fonctions proposées depuis longtemps par l’ensemble des solutions de stockage distant. Proton veut manifestement séduire les entreprises et a davantage de chances d’y arriver avec les capacités annoncées aujourd’hui.

« Avec les derniers ajouts à Proton Drive, nous établissons une nouvelle norme en matière de collaboration sécurisée », assure ainsi Anant Vijay Singh, chef produit Proton Drive :

« Le mode Suggestion de Proton Docs, la première fonctionnalité d’édition collaborative chiffrée de bout en bout au monde, est spécialement conçu pour les utilisateurs professionnels afin de protéger les informations et documents sensibles. Cet engagement en faveur d’une collaboration sécurisée est au cœur de notre mission : garantir une confidentialité totale lors de l’édition de documents, si sécurisée que même Proton ne peut pas accéder à ces données. Ce niveau de confidentialité et de sécurité est inégalé par les grandes entreprises technologiques ».

Face au DMA, Apple veut montrer un visage raisonnable

6 novembre 2024 à 14:46
Je t'aime moi non plus
Face au DMA, Apple veut montrer un visage raisonnable

Dans un rapport publié le 1er novembre, Apple fait le point sur sa conformité avec le DMA. La société n’a jamais caché son agacement face au cadre européen et le redit dans le document. Elle revient sur l’ensemble des travaux effectués pour le marché européen dans un format qui se veut rassurant. Mais la situation n’est pas si simple.

Aucune autre grande entreprise américaine n’a autant fustigé le DMA qu’Apple. La société n’a eu de cesse de rappeler ce qu’elle pensait du nouveau cadre européen, qui force les grandes entreprises du numérique à de multiples obligations pour préserver la concurrence en Europe.

Apple commence par râler

Le rapport publié le 1er novembre [PDF] ne fait pas exception. Même si le ton général se veut de bonne volonté, la firme à la pomme lance plusieurs piques déjà observées dans un précédent document, dans lequel elle se lamentait des changements à opérer dans ses produits.

« Le DMA exige des modifications de ce système qui entraînent des risques accrus pour les utilisateurs et les développeurs. Il s’agit notamment de nouvelles voies pour les logiciels malveillants, les fraudes et les escroqueries, les contenus illicites et préjudiciables, ainsi que d’autres menaces pour la vie privée et la sécurité. Ces changements compromettent également la capacité d’Apple à détecter, prévenir et prendre des mesures contre les applications malveillantes sur iOS et iPadOS, et à aider les utilisateurs touchés par des problèmes liés à des applications téléchargées en dehors de l’App Store », affirme ainsi Apple.

On se rappelle que l’entreprise avait assuré plus tôt dans l’année que les iPhone européens seraient moins sécurisés à cause de ces changements, mais qu’ils resteraient les smartphones les plus sécurisés au monde.

Pour compenser cette « baisse » de la sécurité, Apple dit avoir mis en place des mesures de protection spécifiques, dont la notarisation des applications iOS/iPadOS, une autorisation à demander pour les éditeurs de places de marché, ou encore des informations sur les paiements alternatifs. Apple déclare cependant que des risques subsistent et qu’elle continuera à ajouter des protections et à réclamer à la Commission le droit d’en implanter d’autres. La société ne donne pas de précisions sur les mesures envisagées.

Apple ajoute que les nouvelles options pour l’Europe sont présentes depuis Xcode 15.3, iOS 17.4 et iPadOS 18. La société dit être engagée « dans des conversations constructives » avec la Commission européenne, celle-ci ayant déclenché deux enquêtes de conformité pour iOS. Des changements sont également prévus pour adapter le plan de conformité, y compris sur iPadOS en fonction du résultat des enquêtes.

Sur la distribution alternative des applications

L’essentiel du rapport est tourné vers la liste des modifications apportées par Apple à ses produits. Premier exemple, la distribution alternative des applications sur les boutiques tierces et par le web. On peut donc installer des applications depuis d’autres sources que l’App Store, en bénéficiant des mises à jour automatiques et de leurs notifications, de l’intégration au système ou encore de la sauvegarde/restauration. Pour le web, Apple indique simplement que la capacité existe.

La firme ne détaille en revanche pas les capacités exactes de ces processus, ni les problèmes que peuvent rencontrer les développeurs et éditeurs dans cette distribution alternative. Sur le web, il faut ainsi remplir des conditions très précises, notamment être déjà un éditeur reconnu avec au moins une application ayant rencontré un joli succès. Pour les boutiques tierces, c’est également complexe et des sociétés comme Microsoft se sont interrogées sur la pérennité financière au vu des conditions actuelles, notamment la redevance que réclame Apple sur toutes les applications utilisant les règles européennes.

En outre, Apple rappelle une fois encore que cette distribution alternative n’est pas sans poser de problèmes. Elle présenterait ainsi « des risques accrus pour la vie privée, la sécurité et la sûreté des utilisateurs et des développeurs ». La société donne des exemples : « Il s’agit notamment des risques liés à l’installation de logiciels qui compromettent l’intégrité du système avec des logiciels malveillants ou d’autres codes malveillants, à la distribution de logiciels piratés, à l’exposition à des contenus illicites, répréhensibles et nuisibles en raison de normes de contenu et de modération moins strictes, et à des risques accrus d’escroqueries, de fraudes et d’abus ».

Apple veut également faire comprendre à la Commission que toutes les fonctions d’iOS/iPadOS ne sont pas disponibles dans ce mode, dont tout ce qui touche à l’aspect financier des applications. Par exemple les remboursements, la surveillance des achats in-app dans le contrôle familial ou encore le partage des achats en famille. Chaque boutique a ses propres règles et mécanismes.

La société précise pour le reste que les applications et places de marché se gèrent comme les autres, et qu’il est possible de déclarer une place de marché par défaut dans iOS.

Les autres mesures de conformité

Dans la suite du document, Apple liste les autres mesures mises en place pour l’Europe. Elle revient ainsi sur l’écran de choix du navigateur, dont nous avions expliqué le fonctionnement. Il s’agit, pour l’essentiel, d’une liste des douze navigateurs les plus utilisés (dont Safari), dans un ordre aléatoire. Avant la fin de l’année, iPadOS aura également son écran de sélection.

On reste dans les navigateurs avec la possibilité de proposer un autre moteur de rendu que WebKit. Apple évoque des « critères spécifiques » à remplir pour les éditeurs, ainsi qu’un engagement « à respecter des exigences permanentes en matière de fonctionnement, de confidentialité et de sécurité, y compris des mises à jour de sécurité opportunes pour faire face aux menaces et vulnérabilités émergentes ». Mozilla avait cependant tiré à boulet rouge sur cette capacité, car elle n’est valable que pour l’Europe. Il faudrait donc que les éditeurs maintiennent deux versions en parallèle.

Viennent ensuite les applications par défaut. Outre le navigateur, iOS 17.4 a introduit des réglages pour la boutique d’applications et de paiement sans contact. Apple évoque également l’arrivée prochaine d’un nouvel écran dans Paramètres pour rassembler tous les choix par défaut : client e-mail, messagerie, appels, filtrage des appels, navigateur, mots de passe et, curieusement, claviers. Cette nouvelle section est disponible dans l’actuelle bêta d’iOS 18.2. Au printemps 2025 (en même temps qu’Apple Intelligence en Europe ?), la société assure qu’elle ajoutera dans cette rubrique le choix des applications de navigation et de traduction.

La même mise à jour introduira aussi la possibilité de désinstaller les applications App Store, Messages, Appareil photo, Photos et Safari. Là encore, cette capacité peut être testée dans la bêta 2 d’iOS 18.2.

Apple met également en avant ses efforts en faveur de l’interopérabilité, rappelant ses 250 000 API pour les développeurs (dont plusieurs milliers ajoutées pour la conformité au DMA). Elle assure écouter les demandes des développeurs avec attention et ajouter des solutions si elles sont validées. Le processus d’examen comprend une phase initiale pour déterminer si la demande entre dans le champ du DMA (plus spécifiquement son article 6, paragraphe 7), un plan de projet provisoire, puis le développement et la publication de la solution.

Et de rappeler enfin tous les engagements pris pour les développeurs, les nombreux rapports que l’entreprise émet pour le suivi de leurs projets, les retours et analyses sur les pannes, les informations commerciales sur les achats et abonnements, etc. L’entreprise braque aussi les projecteurs sur son respect des données personnelles. « Apple met en place des règles et des mécanismes d’approbation pour s’assurer que toute utilisation de données personnelles dans le champ d’application est conforme au RGPD », affirme-t-elle.

Une première sanction liée au DMA ?

Bien que le rapport se veuille rassurant, les piques d’Apple contre le DMA sont connues et répétées. Et l’entreprise a beau mettre en avant sa conformité à une loi qu’elle estime déraisonnable, la Commission européenne pourrait ne pas être d’accord.

On savait que l’instance enquêtait sur les annonces de conformité présentées par Apple en mars dernier. Thierry Breton, alors encore en poste, l’avait clairement indiqué. Or, selon Reuters et Bloomberg, l’Europe se préparerait à infliger à la pomme ce qui serait la première sanction liée au DMA.

La Commission aurait dans le collimateur les barrières de l’entreprise à la souscription des abonnements en dehors de l’App Store. Des pratiques nommées anti-steering, sur lesquelles l’Europe avait officiellement annoncé l’ouverture d’une enquête cet été. Selon Reuters et Bloomberg, la sanction pourrait être prononcée dès ce mois de novembre. Rappelons qu’Apple a déjà été condamnée à 1,8 milliard d’euros d’amende au printemps dernier pour ces pratiques.

L’enquête aurait donc été rapide. On se souvient qu’Apple a fini par lâcher un peu de lest, notamment face à un Spotify ne décolérant pas. Le leader du streaming musical pestait depuis longtemps contre l’impossibilité d’afficher les tarifs des formules proposées ailleurs que dans l’App Store. Spotify a également tiré à boulets rouges sur la commission perçue par Apple. Pour rappel, en cas d’abonnement, elle est de 30 % la première année, puis 15 % à partir de la deuxième. Spotify, tout comme un nombre croissant d’entreprises (dont Disney très récemment), ont supprimé la possibilité de s’abonner via l’App Store pour se concentrer sur leur propre site web.

☕️ Sur les PC Arm, Windows 11 24H2 a des problèmes avec les imprimantes

6 novembre 2024 à 08:29

Dans notre compte-rendu d’un mois passé sur un PC Copilot+, nous avions noté que la gestion des périphériques demandait une attention particulière. En dépit d’une très bonne expérience utilisateur générale, il fallait s’assurer notamment de la compatibilité des imprimantes. Dans notre cas, une imprimante Samsung M2020 voulait bien fonctionner en filaire, mais pas en Wi-Fi. L’installeur fourni par le constructeur était incompatible.

Comme noté par XDA, Microsoft signale qu’il existe bien des problèmes sur les PC Arm avec la version 24H2 de Windows 11. Dans une fiche, on peut ainsi lire que « certains PC ARM (par exemple, les PC Copilot+) peuvent ne pas être en mesure d’ajouter ou d’installer une imprimante à l’aide du programme d’installation fourni ou du programme d’installation du site Web du fabricant ».

Pour contourner le problème, Microsoft recommande de se rendre dans Paramètres > Bluetooth et appareils > Imprimantes et scanners et de cliquer sur le bouton « Ajouter un appareil ». En d’autres termes, se référer à la base interne de pilotes fournis avec le système. Dans une fiche plus détaillée, Microsoft redit la même chose. Dans les deux cas, l’éditeur recommande de connecter son imprimante en USB.

Il n’y a cependant pas de surprise. Il y a plusieurs mois déjà, de nombreux utilisateurs faisaient part sur Reddit de problèmes rencontrés avec les imprimantes. L’utilisateur ValdikSS y rappelait que les pilotes conçus pour les PC x86 ne pouvaient pas être réutilisés, par manque d’émulation. Comme nous l’indiquions dans notre retour d’expérience, les PC Windows on Arm sont surtout faits pour fonctionner des imprimantes compatibles Mopria (Mobile Printing Alliance).

☕️ Les PowerToys 0.86 réorganisent leurs paramètres

6 novembre 2024 à 07:24

La collection d’outils open source de Microsoft, qui contient désormais un grand nombre d’applications, vient de sortir en version 0.86. L’une des principales nouveautés est une nécessaire réorganisation des paramètres.

Comme on peut le voir sur la capture, en plus du Tableau de bord permettant d’activer ou désactiver facilement les modules, la colonne de gauche a été remaniée. Les applications sont réparties en cinq grandes rubriques : Outils système, Fenêtrage et dispositions, Entrée / Sortie, Gestion des fichiers et Advanced.

La nouvelle mouture ajoute également deux capacités à Advanced Paste : image vers texte et coller vers fichier (txt, png ou html). Les Espaces de travail, que nous avions pris en main, ont reçu un grand nombre de corrections, notamment pour un lancement correct de multiples instances d’une même application au sein d’un même espace de travail. Microsoft ajoute que le travail continue sur une détection efficace des PWA (applications web fenêtrées).

Outre des corrections, cette version 0.86 introduit un nouveau réglage en opt-in pour la télémétrie. Il apparaît au premier lancement en haut de la fenêtre.

La mise à jour peut être installée depuis les réglages des PowerToys, téléchargée sur le Microsoft Store ou depuis le dépôt GitHub.

Android : il y aura deux SDK par an, Android 16 au deuxième trimestre 2025

5 novembre 2024 à 09:06
Accord mineur
Android : il y aura deux SDK par an, Android 16 au deuxième trimestre 2025

Google a annoncé le 31 octobre qu’elle allait augmenter le rythme de parution des kits de développement pour Android. Chaque nouvelle version apporte des possibilités supplémentaires pour les développeurs.

Premier changement important, la parution du premier nouveau SDK aura lieu au deuxième trimestre de chaque année, plutôt qu’au troisième. Cette modification doit permettre de « mieux s’aligner sur le calendrier des lancements d’appareils dans notre écosystème, de sorte que davantage d’appareils pourront recevoir la version majeure d’Android plus tôt », explique Google.

Ce premier SDK annuel concernera la nouvelle version majeure d’Android. Traduction, Android 16 arrivera au deuxième trimestre 2025. « La version majeure étant prévue pour le deuxième trimestre, vous devrez effectuer vos tests de compatibilité annuels quelques mois plus tôt que les années précédentes pour vous assurer que vos applications sont prêtes », précise Google.

Ensuite, à chaque quatrième trimestre, une mouture mineure du SDK sera proposée. Elle proposera « des mises à jour de fonctionnalités, des optimisations et des corrections de bogues depuis la version majeure ». Point important : à la différence du SDK printanier, le kit hivernal n’incrémentera pas le niveau d’API. Il n’entrainera donc pas d’éventuels soucis de compatibilité.

Il y aura quand même un niveau d’API mineur, qui pourra être ciblé par les développeurs. Google ajoute qu’un nouveau manifeste permettra de spécifier ce niveau mineur pour le rendre obligatoire, par exemple quand un éditeur souhaite se servir d’une certaine fonction faisant partie intégrante de l’expérience utilisateur.

Quant aux premiers et troisièmes trimestres de chaque année, ils resteront dévolus à la publication de mises à jour intermédiaires pour Android (les QPR), comprenant des améliorations tournées vers les utilisateurs.

☕️ BitWarden passe son SDK sous GPLv3 pour en finir avec les interrogations sur sa licence

5 novembre 2024 à 08:06

Le gestionnaire de mots de passe, connu pour son code open source, a été entouré d’une petite polémique ces derniers temps. En cause, une modification dans le SDK, qui ne permettait plus de reconstruire le client BitWarden en restant sur du code libre, du moins pas sans erreur.

La société s’était déjà exprimée sur le sujet, indiquant qu’il s’agissait d’un bug. Elle avait ajouté que son engagement pour le code open source et le logiciel libre restait intact. La situation n’étant toujours pas claire pour une partie des utilisateurs, BitWarden a décidé de franchir une nouvelle étape.

L’entreprise a ainsi présenté un commit sur GitHub proposant un passage d’une licence maison pour le SDK à la GPLv3. Kyle Spearin, directeur technique, très présent dans la conversation depuis le début des craintes exprimées, a indiqué le 26 octobre : « Nous avons fait quelques ajustements sur la façon dont le code du SDK est organisé et emballé pour vous permettre de construire et d’exécuter l’application avec seulement la GPL/OSI ».

« Le dépôt original sdk repository sera renommé en sdk-secrets, et conservera sa structure de licence SDK Bitwarden existante pour nos produits commerciaux Secrets Manager. Le dépôt et les paquets sdk-secrets ne seront plus référencés dans les applications clientes, puisque ce code n’y est pas utilisé », a-t-il ajouté, faisant référence à un autre produit commercial de l’entreprise.

Et effectivement, quand on se rend maintenant sur le fichier LICENCE du SDK interne sur GitHub, on peut voir que les développeurs peuvent choisir entre la GPLv3 et la BitWarden Software Development Kit License v1.0. L’entreprise espère donc en avoir fini avec les questions sur son code open source, mais The Register tempère dans un article publié hier : dans le message accompagnant le commit sur GitHub, il était question d’améliorer le langage de la licence « pour la plupart des crates ». Nos confrères tiquant sur cette « plupart », ils ont contacté BitWarden pour obtenir un éclaircissement, mais l’entreprise n’a pas encore répondu.

Microsoft proposera une année supplémentaire et payante de support pour Windows

4 novembre 2024 à 15:54
Grincements dans les chaumières
Microsoft proposera une année supplémentaire et payante de support pour Windows

Microsoft arrêtera le support de Windows 10 le 24 octobre 2025. Après cette date, plus aucune mise à jour de sécurité ne sera fournie au système. Continuer à l’utiliser sera donc dangereux, puisque les failles détectées resteront ouvertes aux quatre vents. Microsoft propose cependant de payer pour maintenir ce support pour une année supplémentaire de support.

L’arrêt du support technique sur un Windows est toujours une étape importante. À chaque fois, une partie des utilisateurs retardataires se retrouve avec un système sans mise à jour. Dans le cas de Windows 10, la situation est pire.

L’arrivée de Windows 11 ne s’est pas passée comme les versions précédentes. La puissance demandée par le système est pratiquement identique aux versions précédentes et les prérequis n’ont guère changé depuis Vista. En revanche, Microsoft exige du matériel récent pour son dernier système d’exploitation, dont une puce TPM 2.0. Entre cette obligation et celle d’un processeur ne pouvant pas dépasser cinq ou six ans, de nombreuses configurations ne peuvent pas migrer vers Windows 11, quand bien même celle-ci était proposée gratuitement.

Depuis que Microsoft a annoncé le 24 octobre 2025 comme date limite du support pour Windows 10, beaucoup se posaient la question : la société allait-elle persister et signer, ou s’adapter à la situation et retarder la fin du support ?

Une année supplémentaire, pas plus

Pour l’instant, elle persiste. On savait cependant qu’elle proposerait une extension payante. Celle-ci existe depuis longtemps et permet aux entreprises de payer pour pousser jusqu’à trois ans de mises à jour supplémentaires, via un mécanisme nommé ESU (Extended Security Updates). Cependant, la tarification se fait par le nombre de postes à couvrir et en fonction du nombre d’années : chaque année supplémentaire de support est plus chère que la précédente. La situation étant exceptionnelle, Microsoft a donc fini par proposer son ESU aux particuliers.

Dans une annonce le 31 octobre, l’éditeur explique ainsi : « Nous comprenons que certains d’entre vous peuvent avoir besoin d’un délai supplémentaire pour passer à un nouveau PC Windows 11 ou Copilot+. Pendant cette période, vous pouvez souhaiter prendre des mesures pour aider à sécuriser votre PC existant. Comme annoncé précédemment, nous offrirons notre programme Mises à jour de sécurité étendues (ESU). Les PC inscrits continueront à recevoir les mises à jour de sécurité critiques et importantes pour Windows 10 ».

Le tarif proposé n’a rien à voir avec celui des entreprises : 30 dollars. Plusieurs informations à connaitre cependant. D’une part, on ne peut acheter qu’une seule année. Pas question ici de pousser à trois ans, comme pour les entreprises. En outre, l’option n’est pas disponible pour l’instant. Elle ne sera proposée que vers la fin du support technique l’année prochaine. Enfin, ces mises à jour ne concerneront que la sécurité. Il ne sera pas question de corrections de bugs généraux et encore moins de fonctions. Autre précision importante, les personnes qui auront payé ne pourront plus contacter le support.

Des problèmes de moyens et de communication

Le billet de Microsoft est presque entièrement tourné vers les avantages à passer à Windows 11. L’entreprise s’engage ainsi « à vous protéger, vous et votre PC, avec la sécurité la plus avancée possible ». « Nous comprenons que le changement n’est jamais facile, mais nous nous engageons à rendre cette transition aussi fluide que possible. Merci pour votre passion et votre fidélité à Windows », ajoute Microsoft.

Ces 30 dollars ne sont donc envisagés que comme un délai permettant d’investir dans du matériel. Investissement que tout le monde ne pourra pas forcément faire. Quitte à abandonner Windows 10, certains pourraient être tentés de changer de crèmerie. Il y a bien sûr un éventuel passage au Mac, mais l’option d’un Linux est largement envisageable également. Tout dépend des besoins, des moyens financiers et des connaissances. Ces dernières seront malheureusement déterminantes.

Le fait de proposer une extension de support ne sera ainsi peut-être pas suffisant. Microsoft ne dit pas un mot sur la manière dont elle communiquera cette possibilité aux personnes concernées. Une fenêtre sera-t-elle affichée pour informer clairement les utilisateurs ? Ne sera-t-elle pas prise pour une arnaque ? Y aura-t-il un entourage capable d’expliquer, rassurer ou conseiller une autre solution ?

Microsoft est dans tous les cas face à un problème de taille, puisque Windows 10 représente à l’heure actuelle plus de 60 % du marché des machines Windows. Un chiffre colossal qu’il sera impossible de gommer en une seule année. Même si la moitié des personnes concernées migraient vers Windows 11, il resterait presque un tiers du parc sous l’ancienne version. Microsoft, qui n’a de cesse de rappeler sa Secure Future Initiative, se retrouverait alors avec un sérieux souci, avec possiblement une récupération du sujet par les pouvoirs publics, par exemple pour défaut de sécurisation.

Apple : récap des nombreuses annonces et rumeurs du week-end d’Halloween

4 novembre 2024 à 10:07
Bouh !
Apple : récap des nombreuses annonces et rumeurs du week-end d’Halloween

Les derniers jours ont été riches en informations et rumeurs autour d’Apple. L’un des faits les plus marquants est le rachat de Pixelmator. Apple a également pris une participation dans son partenaire satellitaire GlobalStar et ouvert des laboratoires de recherche sur les écrans en Chine.

Apple rachète l’application Photomator

Le rachat, d’un montant non précisé, a été confirmé par la société lituanienne le 1er novembre. L’équipe en place intègrera Apple. Elle précise que rien ne changera pour les applications actuelles (Pixelmator Pro, Pixelmator for iOS et Photomator). L’application s’est fait connaître à plusieurs reprises à travers des mises en avant par Apple dans des conférences et captures d’écran.

Comme le rappellent nos confrères de MacG (qui fêtent leurs 25 ans et se lancent pour l’occasion dans la création d’un magazine collector), Apple a racheté plusieurs fois des applications, comme Dark Sky, qui a constitué la base de la nouvelle application Météo. On se rappelle de Shazam en 2017, mais l’exemple le plus marquant est sans conteste iTunes.

Parallèlement, Apple lance un rappel pour une partie des iPhone 14 Plus, précisément ceux produits entre les 10 avril 2023 et 28 avril 2024. Ils présentent un problème de caméra arrière. La firme a mis en place une page dédiée dans laquelle les personnes concernées sont invitées à entrer leur numéro de série pour savoir si leur appareil est concerné. Rappelons que dans ce type de cas, les réparations sont prises en charge par le constructeur.

Apple investit dans GlobalStar

Dans un tout autre domaine, Apple a pris une participation de 20 % dans GlobalStar, l’entreprise partenaire pour la connexion satellitaire des iPhone. Cette fonction avait été lancée avec l’iPhone 14 et permettant d’établir une connexion avec un satellite pour des appels d’urgence, quand aucun réseau cellulaire n’était trouvé. Avec iOS 18, la fonction s’est étendue aux SMS.

La prise de participation est notée dans un document remis par GlobalStar à la SEC (Securities and Exchange Commission, l’autorité américaine des marchés financiers), relevé par The Verge. On y apprend que le montant s’élève à 400 millions de dollars. Viendra s’y ajouter un prépaiement de 1,1 milliard de dollars destiné à l’amélioration de l’infrastructure satellitaire : « une nouvelle constellation de satellites, une infrastructure terrestre élargie et une augmentation des licences de [services mobiles par satellite] à l’échelle mondiale ».

De la recherche sur les écrans en Chine

On apprend également par BusinessKorea, via PatentlyApple, qu’Apple a ouvert des laboratoires de recherche sur les écrans dans quatre villes chinoises : Pékin, Shenzhen, Suzhou et Shanghai. Selon le média coréen, l’initiative servira à la fois à développer de nouvelles technologies qu’à élargir ses sources d’approvisionnement, essentiellement situées en Corée aujourd’hui.

« Ces laboratoires de recherche développent et testent des panneaux pour les iPhone, les iPad, le Vision Pro et les futurs iPhone pliables. Ils effectuent également des évaluations de qualité en les comparant aux panneaux coréens », a indiqué une source.

Des rumeurs et des performances

Cette information alimente d’ailleurs des rumeurs très insistantes actuellement sur un changement important qui se dessinerait pour les iPhone 17. Sur ses prochaines smartphones, Apple aurait l’intention d’utiliser la technologie LTPO (oxyde polycristallin à basse température) sur l’ensemble de sa gamme. Pour la première fois, les modèles d’entrée de gamme auraient – enfin ! – des écrans dont la fréquence varierait entre 1 et 120 Hz, comme sur les actuels modèles Pro.

On reste dans les rumeurs avec plusieurs informations circulant actuellement. Le souvent très informé Mark Gurman, de Bloomberg, indique ainsi qu’Apple aurait dans ses cartons un important renouvellement des MacBook Pro pour 2026, avec un nouveau design. Une de plus ? L’entreprise aurait repoussé son modèle Vision Pro plus accessible à 2027 au profit d’une version plus puissante de l’actuel pour l’année prochaine.

Les performances des puces M4, M4 Pro et M4 Max commencent également à se dévoiler sur GeekBench. En monothread, le M4 Pro (14 cœurs) du Mac mini obtiendrait ainsi un score de 3 663, tandis que le M4 Max (16 cœurs) du MacBook Pro 16 pouces grimperait à 4 013. Des valeurs à comparer aux 2 777 points de la puce M2 Ultra (24 cœurs) du Mac Studio.

En multithread, sur les mêmes puces, les scores s’envoleraient à 22 094 et 26 445, contre 21 351 pour le M2 Ultra. Contrairement au découpage de la gamme M3, la puce M4 Pro serait donc particulièrement puissante.

Côté GPU, on passerait de 111 000 sur un M4 Pro à 190 329 sur le M4 Max. Ce qui n’aurait rien d’étonnant, puisque le SoC Max embarque 40 cœurs GPU, contre 20 sur le M4 Pro.

Des milliards de dollars comme s’il en pleuvait

Enfin, Apple a aussi mis en ligne ses résultats financiers pour son quatrième trimestre fiscal de l’année (terminé le 28 septembre 2024). La société revendique un chiffre d’affaires de 94,930 milliards de dollars sur trois mois, et de 391,035 milliards de dollars sur un an.

Les iPhone continuent d’assurer le gros des revenus avec 46,222 milliards de dollars sur trois mois, et 201,183 milliards sur un an. Les services sont seconds avec respectivement 24,972 et 96,169 milliards de dollars.

Le bénéfice net est moins important que l’année dernière, avec 14,736 milliards de dollars sur trois mois et 93,736 milliards sur un an, contre respectivement 22,956 et 96,995 milliards.

☕️ Microsoft repousse de nouveau sa fonction Recall

4 novembre 2024 à 09:03

Lorsque Microsoft a présenté Recall, il s’agissait de rendre la vie plus simple : pouvoir retrouver n’importe quelle information est effectivement une force. Mais pour y parvenir, la fonction prend régulièrement des captures d’écran et catalogue les informations, après une analyse par plusieurs petits modèles d’IA.

Rapidement, de nombreux problèmes sont apparus, notamment sur la sécurité. Il était par exemple trop simple pour une autre personne d’aller récupérer ces données pour peu qu’elle ait un accès physique au PC Copilot+ (les seuls compatibles). L’ordinateur pouvait se retourner contre son utilisateur ou son utilisatrice, Recall gardant une trace de tout ce qui avait été fait. En outre, Recall ne floutait pas les informations sensibles.

Microsoft a commencé par apporter certaines améliorations, mais il est vite apparu qu’il fallait tout reprendre. La fonction a été retirée et son retour était programmé en octobre, d’abord pour les membres du programme de préversions Windows Insiders. De gros changements avaient également été annoncés, dont le chiffrement de la base de données, de nombreuses barrières pour en protéger l’accès physique, le passage à l’opt-in et la possibilité de désinstaller la fonction.

Il semble cependant que le travail soit plus long que prévu. La polémique autour de Recall cadrait mal en effet avec les prétentions de Microsoft sur la sécurité, puisque la firme a indiqué en début d’année en avoir fait sa priorité, des vœux renouvelés après le fiasco CrowdStrike.

Interrogée à ce sujet par The Verge, Microsoft a confirmé le retard, par la voix de Brandon LeBlanc, responsable du programme Windows Insiders : « Nous nous engageons à offrir une expérience sûre et fiable avec Recall. Pour nous assurer que nous livrons ces mises à jour importantes, nous prenons plus de temps pour affiner l’expérience […]. Initialement prévu pour octobre, Recall sera désormais disponible en avant-première auprès des Windows Insiders sur les PC Copilot Plus d’ici décembre ».

Steam oblige les éditeurs à mentionner la présence de solutions anti-triche

4 novembre 2024 à 08:38
Pour votre bien
Steam oblige les éditeurs à mentionner la présence de solutions anti-triche

Les logiciels anti-triche font souvent polémique. Pour que l’information soit un peu plus transparente, Valve va forcer les éditeurs à communiquer sur la présence de ces mécanismes sur les fiches des jeux dans Steam. Ce dernier comporte également une mention obligatoire sur l’impossibilité de revendre les jeux en occasions.

Les solutions anti-triche, tout comme les DRM, où qu’ils passent, acquièrent rapidement une mauvaise réputation. Une partie des joueurs affirme que ces composants font baisser les performances, d’autres qu’ils entrainent des plantages de leur PC. D’autres encore pestent que leur jeu ne fonctionne plus.

Dans le cas des jeux vidéo, et à l’instar des DRM, il s’agit le plus souvent d’un code en espace noyau. L’objectif, pour le développeur, est d’empêcher les tricheurs de modifier en temps réel les valeurs résidant en mémoire et d’autres aspects d’un jeu, afin d’en tirer un bénéfice lors de matchs, voire de compétitions. Des noms comme Easy Cheat, Denuvo ou encore Enigma sont courants. Souvent, les mécanismes s’occupent à la fois de la protection contre la copie (DRM) et de celle contre la triche, comme Enigma de Capcom.

Les exemples sont nombreux. Sur la seule année 2024, on pourrait citer le choix de Capcom de répercuter Enigma sur l’intégralité de son catalogue présent sur Steam. Début septembre, la sortie du très attendu Warhammer 40K Space Marine 2 s’est faite avec une annonce importante de son éditeur, Saber Interactive : non seulement le jeu n’intègre pas Denuvo, mais l’éditeur a bien pris soin de l’indiquer dans sa FAQ. Plus récemment encore, on apprenait qu’EA avait répercuté son DRM sur Battlefield 1, rendant le jeu inexploitable sur Linux, comme les autres titres du catalogue.

La présence de solutions anti-triche doit être affichée sur Steam

Dans un billet publié la semaine dernière, Valve veut éclaircir la situation : « Ces derniers temps, de plus en plus de développeurs nous ont dit qu’ils cherchaient la bonne façon de partager avec les joueurs les informations relatives à l’anti-triche de leur jeu. Dans le même temps, les joueurs ont demandé plus de transparence sur les services anti-triche utilisés dans les jeux, ainsi que sur l’existence de tout logiciel supplémentaire qui sera installé dans le jeu ».

En conséquence, toutes les fiches vont être équipées d’un nouvel encart devant indiquer, sur un fond en dégradé de beige, si le titre contient un tel mécanisme.

Dans un premier temps, la mesure va concerner les nouveaux jeux. Valve indique dans son billet ce que les éditeurs trouveront désormais dans le paramétrage de la fiche de leur titre. Mais la société précise aussi qu’elle communique actuellement avec les sociétés et développeurs indépendants derrière les titres actuellement présents pour qu’ils remplissent aussi la fiche.

Notez que si Valve fait explicitement comprendre le caractère obligatoire de la démarche, elle ne donne aucune date limite.

Des informations à préciser

Tout aussi intéressant, Valve rend également obligatoire certaines informations. Les éditeurs devront ainsi indiquer si le mécanisme s’installe en espace noyau sur le système d’exploitation. Dans le sillage de l’énorme panne CrowdStrike, une partie du public est devenue plus sensible sur ces questions. Steam proposant une liste des solutions anti-triche les plus courantes, la case sera automatiquement cochée le cas échéant.

En outre, des informations devront être données sur la manière de désinstaller le logiciel anti-triche: « Votre script de désinstallation devrait déjà nettoyer tous les fichiers créés ou modifiés par votre processus d’installation. Cependant, nous savons que certains jeux plus anciens ne suppriment pas complètement les fichiers lors de la désinstallation et qu’il n’est plus possible de mettre à jour le jeu. Les joueurs doivent savoir si les utilitaires anti-triche ont laissé des fichiers derrière eux, en particulier ceux qui modifient les fichiers du noyau du système d’exploitation », explique Valve.

Valve ajoute que les jeux en cours d’examen pour publication sur Steam doivent posséder ces informations. Si elles n’y sont pas, l’examen n’aboutira pas et il sera demandé des renseignements supplémentaires. Et ce, même si ces derniers étaient intégrés dans le descriptif général. Valve tient à ce que l’information soit présente dans l’encart prévu.

On « n’achète pas » un jeu

Puisque l’on évoque la question des informations affichées par Steam, la boutique a été contrainte il y a quelques semaines d’en ajouter une autre : que l’on n’achète pas vraiment un jeu et que le paiement ne donne droit qu’à une licence d’utilisation. Plus précisément : « L’achat d’un produit numérique accorde une licence pour le produit sur Steam ».

Bien que Steam affiche désormais cette mention partout dans le monde, c’est la conséquence d’une loi californienne à venir. Signée le 26 septembre par le gouverneur, elle est estampillée AB 2426 et s’attaque notamment à la publicité mensongère sur les biens numériques.

☕️ Chrome se dote de plusieurs outils dédiés aux performances

31 octobre 2024 à 13:34

La dernière version de Chrome s’est équipée de plusieurs ajouts liés aux performances et à leur surveillance. La principale nouveauté peut se trouver dans la section Performances des paramètres du navigateur.

La ligne « Alertes concernant les problèmes de performances » est active par défaut et va prévenir l’utilisateur quand le comportement de certains onglets devient erratique. La grande consommation de ressources est alors signalée quand elle peut avoir un impact sur l’utilisation de l’onglet en cours.

La fonction pointe alors les onglets fautifs et propose de les désactiver. Pour rappel, cette fonction – désormais commune à tous les principaux navigateurs – décharge les ressources consommées par les onglets. Elles ne sont rechargées que si l’on revient dessus. Ce mécanisme est utilisé pour l’endormissement des onglets après un certain temps d’inactivité. Les onglets désactivés sont affichés avec un cercle en pointillés autour de leur icône.

Parallèlement, l’économiseur de mémoire peut désormais être paramétré selon trois crans :

  • Modéré :  désactive les onglets en fonction des besoins du système
  • Équilibré : tient compte des habitudes de navigation et des besoins du système
  • Maximal : désactive les onglets lorsque vous cessez de les utiliser, plus rapidement que les deux autres modes

La fonction est désactivée par défaut. Lorsqu’elle est activée, elle est réglée sur Équilibré, qui s’affiche avec une mention « Recommandé ».

Enfin, il est possible d’établir des paramètres plus personnalisés. Par exemple, on peut indiquer les sites devant toujours rester actifs. Les cercles en pointillés peuvent être désactivés, de même que la quantité de mémoire consommée dans le panneau qui s’affiche au survol d’un onglet par la souris.

Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

31 octobre 2024 à 10:56
Clique, on va te dépanner
Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Dans une communication du 29 octobre, Microsoft a averti d’une importante campagne de spear phishing – une forme de phishing très ciblé – contre des milliers de personnes aux États-Unis. Le groupe malveillant russe Midnight Blizzard serait derrière l’attaque. Signe particulier : des fichiers RDP ont été utilisés pour la première fois.

Microsoft est en guerre contre le groupe Midnight Blizzard (aussi appelé Nobelium, APT29 ou Cozy Bear) depuis plusieurs années maintenant. En aout 2023, par exemple, la société prévenait que le groupe, décrit par plusieurs sociétés de sécurité comme proche du gouvernement russe, s’était lancé dans une vaste campagne de phishing sur Teams.

Mais c’est surtout Midnight Blizzard que l’on a retrouvé derrière l’opération qui a mené au piratage de plusieurs boites mails de dirigeants de l’entreprise. Les pirates ont ensuite tenté de récupérer des informations internes et du code source. Google les a même épinglés pour leurs techniques très proches de sociétés comme Intellexa et NSO (auteur du fameux Pegasus).

Dans un billet de sécurité publié le 29 octobre, Microsoft prévient cette fois que Midnight Blizzard est à l’origine d’une nouvelle campagne. Cette fois cependant, il s’agit de spear phishing (ou harponnage), une forme très personnalisée de phishing, dans le but de récupérer des informations sensibles. L’entreprise dit communiquer sur le sujet « pour informer le public et perturber l’activité de cet acteur malveillant ».

Une campagne très ciblée

L’opération aurait débuté le 22 octobre. Des emails ont été envoyés à plusieurs milliers de personnes réparties dans une centaine d’organisations diverses. Des membres du gouvernement américain, du personnel d’universités, de la défense, d’ONG et d’autres secteurs ont ainsi été visés. « Nous estimons que l’objectif de cette opération est probablement la collecte de renseignements », indique Microsoft.

Selon l’entreprise, l’opération – toujours en cours – est dans la lignée des précédentes de Midnight Blizzard, que ce soit au travers des cibles ou de la finalité. « Ses opérations impliquent souvent la compromission de comptes valides et, dans certains cas très ciblés, des techniques avancées pour compromettre les mécanismes d’authentification au sein d’une organisation afin d’élargir l’accès et d’échapper à la détection », explique ainsi l’éditeur.

Les emails envoyés utilisent des techniques d’ingénierie sociale en lien avec Microsoft, Amazon Web Services et même le concept de confiance zéro. On apprécie bien sûr l’ironie de la situation, devant un texte fait pour inspirer la confiance. Le contenu de ces courriels semblerait à s’y méprendre comme envoyé par des employés de Microsoft.

Comment les pirates ont-ils pu cibler ces personnes spécifiques ? Grâce à de précédentes compromissions, qui ont permis aux pirates de collecter les adresses emails.

La technique employée, en revanche, est nouvelle

Microsoft a observé dans la campagne une technique qu’elle n’avait encore jamais vue. La société explique ainsi que les emails contiennent un fichier .rdp. RDP, pour Remote Desktop Protocol, pointe vers l’outil d’accès à distance, qui peut également servir à faire de la prise de contrôle. Ce type d’outil est très courant et simplifie beaucoup la gestion d’un parc ou même le dépannage à distance d’un proche.

Dans le cas présent, le fichier est signé avec un certificat obtenu auprès de Let’s Encrypt. Il contient plusieurs paramètres décrits comme « sensibles », pouvant entrainer une exposition des informations chez le client. S’il est ouvert, le fichier connecte ce dernier à un serveur contrôlé par Midnight Blizzard. Un mapping bidirectionnel entre le client et le serveur est également mis en place. Tout le contenu des disques et du presse-papiers, l’ensemble des périphériques connectés, l’audio, les équipements comme les lecteurs de cartes ainsi que les fonctions d’authentification deviennent alors accessibles par les pirates.

La session n’a pas d’autre but que de dérober des informations et/ou d’installer des malwares. Ces derniers se chargeront alors d’entretenir le lien entre la machine contaminée et le serveur. En dépit des soins pris par les pirates pour personnaliser l’attaque, on peut voir dans les images fournies par Microsoft que l’ouverture du fichier .rdp provoque l’apparition d’une fenêtre indiquant qu’un test va avoir lieu. Celui-ci est censé mesurer la stabilité d’une connexion à AWS Secure Storage. Ce pourrait être effectivement le cas, mais le fait de mettre en avant Amazon Web Services dans un email prétendument envoyé par un employé de Microsoft peut interroger des personnes prudentes.

De nombreuses mesures pour atténuer les risques

Microsoft dresse une longue liste de mesures que les structures peuvent mettre en place pour ne pas tomber dans ce genre de piège. Bien que l’ingénierie sociale ne puisse jamais complètement être éliminée, des règles peuvent être mises en place pour casser certains scénarios ou en atténuer les effets.

L’utilisation d’un pare-feu pour empêcher ou limiter les connexions RDP sortantes vers des réseaux externes ou publics est ainsi en première place des suggestions. Suit rapidement l’authentification multifactorielle (MFA), quand un autre appareil est utilisé pour confirmer une demande d’authentification. Même si Microsoft décrit la mesure comme un « pilier essentiel de la sécurité », la même entreprise avait montré en aout 2022 qu’elle n’était pas non plus l’alpha et l’oméga de la protection. Mais les moyens à mettre en œuvre pour la contourner sont aussi plus importants. Microsoft recommande à ce titre d’éviter si possible les téléphones pour éviter les risques liés à la carte SIM.

Si l’entreprise en profite pour mettre en avant certains de ses produits et services, tel que Defender SmartScreen dans Edge, les conseils donnés restent assez généraux. Elle recommande par exemple la mise en œuvre de l’accès conditionnel avec authentification forte. L’accès conditionnel permet de n’autoriser un appareil à se connecter au réseau que s’il répond à des critères spécifiques, comme sa géolocalisation, l’installation d’une certaine mise à jour ou encore l’application de règles précises. L’authentification forte permettra de confirmer une identité avant l’accès à une application critique.

Suivent une série de conseils pour configurer certains produits courants, comme Office 365. Pour ce dernier, Microsoft conseille ainsi d’activer les liens et pièces jointes sécurisés, ainsi que la Zero-hour auto purge (ZAP). Cette dernière permet la récupération d’informations sur les nouvelles campagnes malveillantes. Elle peut alors proactivement mettre en quarantaine les emails considérés comme suspicieux et rétroactivement isoler ceux déjà présents dans les boites de réception.

☕️ Un paquet malveillant Python ciblait les portefeuilles de cryptomonnaies

31 octobre 2024 à 09:30

Dans un billet publié mardi par GitHub, on a appris que l’usage du Python avait désormais dépassé celui de JavaScript. « Python est fortement utilisé dans les domaines de l’apprentissage automatique, de la science des données, de l’informatique scientifique, des loisirs et de la domotique, entre autres », explique l’entreprise. Dès lors, il n’est pas étonnant de voir le Python grimper en flèche, au vu de l’explosion des développements autour de l’IA.

La société note quand même que les « langages de programmation de systèmes, comme Rust, sont également en hausse, même si Python, JavaScript, TypeScript et Java restent les langages les plus utilisés sur GitHub ».

C’est probablement cette popularité que des pirates ont voulu exploiter. Dans un billet publié hier, la société de sécurité Checkmark explique qu’un paquet nommé CryptoAITools a été publié sur le Python Package Index (PyPI) et de faux dépôts GitHub. Il a été téléchargé 1 300 fois avant d’être supprimé de l’Index. Il a donc pu accomplir un certain nombre de méfaits avant d’être détecté.

Il est conçu pour Windows et macOS et s’active dès l’installation ; grâce à un code présent dans son fichier __init__.py. Il présente une interface trompeuse, conçue pour duper les utilisateurs pendant qu’il active ses fonctions malveillantes.

Le code peut être utilisé pour récupérer d’autres charges utiles depuis le site coinsw[.]app, qui avait toutes les apparences d’un vrai site, pour tromper la vigilance des personnes qui seraient allées voir. Le site faisait la promotion d’un bot d’échange de cryptomonnaies.

Le malware est conçu pour voler des données personnelles et puiser dans les actifs des portefeuilles de cryptomonnaies. Les informations ainsi récupérées sont nombreuses : portefeuilles de crypto-monnaies (Bitcoin, Ethereum, Exodus, Atomic, Electrum, etc.), mots de passe enregistrés, cookies, historique de navigation, extensions de cryptomonnaies, clés SSH, fichiers stockés dans les répertoires Téléchargements, Documents, Bureau qui référencent des cryptomonnaies, informations financières…

« La campagne de logiciels malveillants CryptoAITools a de graves conséquences pour les victimes et la communauté des crypto-monnaies au sens large. Les utilisateurs qui ont mis en vedette ou forké le dépôt malveillant ‘Meme-Token-Hunter-Bot’ sont des victimes potentielles, ce qui élargit considérablement la portée de l’attaque », indique Checkmark.

La société a également découvert un dépôt GitHub, nommé Meme Token Hunter Bot, qui distribue le même malware. Le dépôt est toujours en ligne, et on peut voir qu’il a été forké une fois et mis en favori dix fois.

☕️ Apple présente ses nouveaux MacBook Pro et sa puce M4 Max

30 octobre 2024 à 16:35

Après les iMac et le Mac mini, c’est au tour des MacBook Pro de passer à la moulinette de la puce M4. Cette fois, les portables ont accès aux trois variantes de la puce : M4, M4 Pro et M4 Max. Comme pour les générations précédentes, c’est bien sûr la version Max qui offre les meilleures performances.

La puce M4 Max comporte jusqu’à 16 cœurs : 12 performants (2 de plus que sur la version Pro) et 4 efficaces. Si le M4 Pro voyait ses cœurs GPU doubler pour passer de 10 à 20, c’est encore le cas sur la version Max, avec jusqu’à 40 cœurs GPU, soit le même nombre que dans les versions précédentes. En revanche, GPU doublé oblige, la puce intègre deux codeurs/décodeurs vidéo.

La bande passante de la mémoire reste sur 512 bits, mais passe de 410 Go/s à un maximum 546 Go/s. La puce M4 Max peut supporter jusqu’à 128 Go de RAM. On retrouve la compatibilité Thunderbolt 5. Le Neural Engine garde ses 16 cœurs. Nous reviendrons prochainement plus en détail sur les caractéristiques de cette puce.

Quant aux MacBook Pro, la présentation de la gamme n’a pas changé. On retrouve toujours six configurations de base proposées : trois en M4, deux en M4 Pro et une M4 Max. La version 14 pouces du portable peut être configurée en M4 classique ou Pro. En revanche, la version 16 pouces ne peut avoir que du Pro au minimum.

La mémoire et la taille du SSD dépendent de la machine visée. On trouve au minimum 16 Go de RAM et 512 Go de SSD sur le MacBook Pro M4 en 14 pouces. En M4 Pro, la quantité minimale de RAM passe à 24 Go, toujours en 512 Go. Quant aux versions M4 Max, il y en a deux. La première intègre une puce à 14 cœurs CPU et 32 cœurs GPU, 36 Go de RAM et 1 To de SSD, et existe en modèles 14 et 16 pouces. La seconde possède le M4 Max « complet » avec ses 16 cœurs CPU et 40 cœurs GPU, épaulés par 48 Go de RAM et 1 To de SSD, et n’existe qu’en 16 pouces.

Tous les MacBook Pro présentent de nombreuses caractéristiques communes : trois ports Thunderbolt 4 (sur les modèles M4) ou 5 (sur les modèles Pro et Max), un port HDMI, un lecteur de carte SDXC, une prise casque, un port MagSafe 3, TouchID intégré au clavier, une luminosité de 1 000 nits, une autonomie pouvant grimper jusqu’à 24 heures (contre 22 sur la génération précédente) en lecture vidéo, du Wi-Fi 6E (dommage) et du Bluetooth 5.3. Tout ce petit monde est bien sûr taillé pour Apple Intelligence.

En ce qui concerne les prix, nous ne sommes plus sur le tarif d’appel du Mac mini et ses 700 euros (qui certes n’avait ni écran ni périphériques). Le plus petit modèle de MacBook Pro M4 est vendu au prix de 1 899 euros. Quand on passe au M4 Pro, le tarif minimal devient 2 399 euros pour du 14 pouces et 2 899 euros pour du 16 pouces (mais dans une version avec plus de cœurs). Quant au M4 Max, il vous en coutera au moins 3 799 euros en 14 pouces 4 099 euros en 16 pouces.

Les précommandes sont ouvertes, pour des livraisons débutant le 8 novembre.

À noter que même si Apple ne le proclame pas, tous les MacBook Air (actuellement équipés d’une puce M3) viennent de voir leur mémoire doubler et passer à 16 Go, sans modification du tarif.

Dénonçant un manque d’investissement de Google, un développeur forke Flutter

30 octobre 2024 à 15:59
Sans dessin acide
Dénonçant un manque d’investissement de Google, un développeur forke Flutter

La gestion de Flutter, un framework multiplateforme chez Google, semble poser problème à un nombre croissant de développeurs. Au point que Matt Carroll, anciennement employé chez Google et ayant travaillé sur le cadriciel, en a annoncé un fork.

Flutter est un kit de développement multiplateforme open source (sous licence BSD). Créé par Google, il a d’abord été conçu pour les applications mobiles, mais a pris du galon avec les années. On se souvient notamment que c’est Canonical qui s’était chargé de son portage sur Linux. La société l’a ensuite utilisé pour réécrire complètement l’installeur de la distribution Ubuntu.

Mais l’un des anciens développeurs du SDK, Matt Carroll, resté sous forme de contributeur externe, a annoncé récemment la création d’un fork. Pour rappel, le terme peut être traduit par « bifurcation » ou « embranchement ». Il est utilisé dans le cas où le code source d’un projet est copié pour servir de base à un nouveau projet. L’opération est extrêmement courante dans le monde du libre et alimente l’émulation autour du développement logiciel. Firefox a par exemple plusieurs forks : LibreWolf, Waterfox, Iceweasel…

Dans le cas présent, Matt Carroll a annoncé un fork de Flutter le 27 octobre, citant de vastes problèmes chez Google et une réduction continuelle de l’équipe. Le nom du nouveau projet ? Flock (sans rapport avec notre dessinateur).

Un trop grand nombre de problèmes

Matt Carroll fait une longue liste des problèmes observés sur ces dernières années. Son principal grief est une équipe de développement manquant singulièrement de personnel. Il l’estime à une cinquantaine de personnes (chiffre gelé en 2023), alors que le nombre de développeurs utilisant Flutter serait d’un million, une estimation basse et conservatrice selon lui. Le ratio serait alors d’un membre de l’équipe pour 20 000 développeurs, ce qui ne peut pas fonctionner, d’après Matt Carroll.

Il cite plusieurs exemples, dont le temps de traitement des tickets de support. Il affirme qu’il peut s’écouler parfois plusieurs années entre la création d’un ticket et le moment où l’équipe s’en empare pour l’examiner. Or, avec le temps, les informations qui avaient servi à le créer ont peut-être été perdues. Le développeur a pu passer à autre chose et oublier le contexte du problème signalé.

« D’après mon expérience, lorsque cela m’arrive, j’ai cessé depuis longtemps de travailler avec le client à l’origine du problème initial. J’ai écrit des centaines de milliers de lignes de code depuis lors et, souvent, je ne me souviens même pas d’avoir déposé le problème, sans parler des détails obscurs liés au problème initial. L’équipe ne peut pas corriger le bug sans mes informations, et cela fait trop longtemps que je ne lui en ai pas fournies. Le bug est donc enterré et sera redécouvert par un futur développeur », explique Matt Carroll.

L’ancien employé de Google cite également les changements de priorités dans l’entreprise, avec des yeux largement tournés vers l’intelligence artificielle. Google vient d’ailleurs de mettre en avant que plus d’un quart du nouveau code écrit par ses développeurs l’a été par une IA générative. Les plateformes desktop ne sont ainsi plus considérées comme des priorités et trois des six plateformes sont en mode maintenance. Le desktop est selon Carroll le plus grand gâchis de Flutter. Certains des bugs non corrigés étaient suffisamment importants pour que les clients changent de crèmerie.

Il est vrai que les questions autour de Flutter commençaient à s’accumuler. La dernière Google I/O en mai a renforcé les inquiétudes. De nouvelles versions avaient bien été proposées pour Flutter (3.22) et Dart (3.4), mais l’arrivée de Kotlin Multiplatform les a éclipsés. Plusieurs médias avaient noté ce changement, dont DevClass. En outre, l’ancien directeur de l’équipe Flutter, Tim Sneath (ancien transfuge de Microsoft), est parti chez Apple en juin 2023.

Le choix du fork

Matt Carroll indique que la question d’une coopération massive avec des développeurs externes aurait pu être envisagée. Le problème est cependant le même, car l’afflux des participations aurait été géré par la même équipe qui manque actuellement de main d’œuvre pour s’occuper des tickets du support. Or, la révision du code prend du temps. En outre, de nombreux développeurs auraient trouvé la communication avec l’équipe Flutter « frustrante, voire impossible ».

Que propose-t-il ? Flock, un fork de Flutter imaginé comme un catalyseur. Il décrit en effet le projet comme un « Flutter+ », non comme un remplaçant. Il espère attirer les contributions pour faire de Flock un outil dont les bugs seront corrigés rapidement, tout comme l’ajout de nouvelles fonctions.

« En d’autres termes, nous ne voulons pas, ou avons l’intention, de forker la communauté Flutter. Flock restera constamment à jour avec Flutter. Flock ajoutera d’importantes corrections de bugs et des fonctionnalités populaires de la communauté, que l’équipe de Flutter ne peut pas ou ne veut pas implémenter », indique Matt Carroll.

Dans les grandes lignes, chaque nouvelle version de Flutter verra ses nouveautés portées vers Flock. Ce dernier ira dans le sens que sa communauté de développeurs estimera la plus logique, s’occupant d’abord de tous les bugs en attente, tout en partageant le code correcteur avec l’équipe de Flutter, qui sera alors libre de l’intégrer ou non.

Sa priorité pour l’instant est de créer un miroir de Flutter pour refléter automatiquement les branches master, beta et stable. Il faudra ensuite que Flock puisse construire le moteur d’exécution. Matt Carroll invite les développeurs à participer et à tester leurs applications sur Flock. Pour l’instant, puisqu’il s’agira d’une copie miroir, elles devraient fonctionner sans modification.

Des réactions mitigées

Que ce soit sur Hacker News ou Reddit, les réactions sont en majorité négatives. Beaucoup estiment que les problèmes avancés par Matt Carroll sont réels et sérieux. Cependant, la plupart pensent que dans ce cas précis, la création d’un fork va diviser les ressources et ne servira pas.

« Mais je suis sceptique quant à sa suggestion d’accueillir de nouveaux changements dans un fork de Flutter et ainsi gagner en vitesse de développement. Cela nécessiterait des personnes qui souhaitent réellement travailler sur de nouvelles fonctionnalités. Je doute que ces personnes existent. Du moins, qu’elles existent en nombre suffisant pour qu’un fork soit plus rapide – en termes de fonctionnalités – que Google lui-même », estime par exemple l’un d’entre eux sur Reddit.

En revanche, sur X, l’annonce a créé plus d’engouement, Matt Carroll ayant répondu à de nombreuses questions, certaines très concrètes. Par exemple, Remi Rousselet se demandait hier comment gérer les paquets si Flock devient aussi populaire que Flutter : faudra-t-il que leurs auteurs supportent systématiquement les deux ? Matt Carroll lui a répondu que la conduite serait de recommander Flock pour les applications et Flutter pour les paquets. À un autre, il a répondu qu’en cas de conflit d’approche sur une fonction, la version Flock serait supprimée.

GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

30 octobre 2024 à 11:18
Tranquille, pépère
GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

À travers sa conférence Universe, GitHub a annoncé plusieurs de nouveautés importantes à destination des développeurs. Le projet Spark, par exemple, ambitionne l’écriture des applications réalisée entièrement par l’IA. Le fameux Copilot s’ouvre également à d’autres modèles et outils de la concurrence, ainsi que de plusieurs améliorations significatives.

GitHub a fait son show hier lors de sa conférence Universe. Comme de nombreuses autres entreprises, elle tient une grand-messe annuelle pour y présenter ses nouveautés. Une manière bien sûr d’attirer l’attention avec un tir groupé. Et on peut dire que GitHub a tiré tous azimuts.

Lorsque GitHub a lancé son Copilot – initiant une vague d’autres Copilot chez Microsoft, qui possède GitHub – les développeurs ont pu commencer à compléter leurs lignes de code par des suggestions. Lors d’une évolution suivante, ce sont des pans de code entiers qui ont pu être ajoutés, toujours sous la supervision des développeurs. C’est à ce moment-là que deux questions sont apparues : le code suggéré n’enfreint-il pas le droit d’auteur (via son entrainement sur les dépôts publics) ? À quand l’intégralité du code d’un projet suggérée par Copilot ?

Si la première question a trouvé réponse dans plusieurs plaintes, la seconde était dans l’attente. Avec Spark, GitHub a fini par y répondre.

Une petite application en langage naturel

Selon GitHub, Spark est né comme un projet de recherche dans son laboratoire GitHub Next. La question était posée : peut-on obtenir une application complète en décrivant simplement ce que l’on souhaite en langage naturel ? La réponse est : oui.

On commence par un premier prompt définissant dans les grandes lignes ce que l’on veut obtenir, sachant que Spark se destine plutôt aux petits projets pour l’instant. Les projets eux-mêmes peuvent viser des applications web, natives ou mobiles. Après cette première demande, Spark affiche un aperçu général de l’application. Le développeur peut alors compléter au fur et à mesure ses requêtes pour préciser un nombre plus ou moins importants de détails du fonctionnement.

Le code reste toujours accessible et peut donc être modifié. Selon GitHub, Spark permet surtout d’explorer des idées au travers de micro-applications. Il peut s’agir de petits outils pour s’aider au quotidien dans des tâches spécifiques, de petits robots ou agents pour traiter certaines informations. À TechCrunch cependant, GitHub a confirmé qu’il n’y avait a priori pas de limites à ce que l’on pouvait demander à Spark. L’outil, fourni pour l’instant en avant-première, accepte a priori toutes les entrées, mais ses capacités seront peut-être resserrées une fois le produit disponible en version finale.

Le potentiel de Spark semble conséquent, puisque l’outil peut utiliser n’importe quelle API web. En outre, il va profiter de l’ouverture de GitHub à d’autres modèles et outils.

GitHub s’ouvre à d’autres modèles

L’interface de « discussion » avec GitHub Copilot est basée depuis le début sur GPT, la version actuelle utilisant GPT4. Ce n’est pas étonnant, puisque l’on se situe toujours dans la galaxie Microsoft. Cependant, cette exclusivité va prendre fin.

GitHub a en effet annoncé hier que Copilot allait pouvoir être utilisé avec d’autres modèles d’IA générative. Claude 3.5 Sonnet aura les honneurs de commencer très prochainement. Gemini 1.5 Pro devrait suivre dans quelque semaines. GPT-4o, o1-preview et o1-mini et d’OpenAI suivront également.

L’entreprise dit croire au choix pour les développeurs, un seul modèle n’étant pas idéal dans tous les cas de figure. Selon les besoins, la politique d’entreprise, les langages de programmation ou encore les préférences personnelles, le choix d’un modèle ou d’un autre peut faire une grande différence. Dans notre cas, nous avons par exemple utilisé Claude pour créer un grand tableau permettant de calculer les abonnements à l’électricité les plus intéressants, en fonction de votre consommation horaire sur un an (chiffres obtenus par le Linky via le site d’Enedis).

Mais attention : ce choix ne va être offert dans un premier temps que sur Copilot Chat et Spark. GitHub compte bien le répercuter sur l’ensemble de ses outils, mais n’a fourni aucune information sur le délai.

GitHub s’ouvre à Xcode, un timing intéressant

Au sein de GitHub, Copilot représente toujours un produit central. À l’occasion de la conférence Universe, il reçoit plusieurs nouveautés, dont une ouverture à Xcode, l’environnement de développement intégré d’Apple.

Même s’il s’agit d’une préversion publique et qu’il reste donc du travail, le mouvement est intéressant à plus d’un titre. D’abord, parce que les développeurs sur Mac seront probablement intéressés par l’arrivée d’un composant entré dans les habitudes de bon nombre d’entre eux sur d’autres plateformes. Même si cette préversion se focalise d’abord et avant tout sur la complétion du code, d’autres fonctions arriveront par la suite.

Ensuite, parce qu’Apple vient de donner le coup d’envoi de son bouquet de services Apple Intelligence. Or, sur macOS Sequoia 15.1, Xcode peut profiter de l’assistant maison pour produire le même type de résultat. Mais là où l’assistant d’Apple est neuf et a encore tout à prouver, Copilot arrive avec une expérience de plusieurs années dans le domaine.

« Il s’agit d’une étape majeure dans notre mission permanente visant à faire de Copilot un outil essentiel pour les développeurs sur une grande variété de plateformes. Désormais, les développeurs Apple peuvent bénéficier de la même assistance intelligente au codage, intégrée de manière transparente dans leur IDE préféré », indique ainsi GitHub dans son communiqué.

Prenant en charge les langages Objective-C et surtout Swift, le Copilot de GitHub pourrait donc couper l’herbe sous le pied d’Apple. À ceci près qu’Apple n’a pour l’instant affiché aucun tarif pour ses fonctions alimentées par l’IA générative. Beaucoup se demandent d’ailleurs si la firme pourra longtemps proposer gratuitement ses services, au vu des investissements colossaux nécessaires, que ce soit pour l’entrainement des modèles, la puissance nécessaire ou l’infrastructure mise en place. Apple en a d’ailleurs récemment détaillé la sécurité, proposant jusqu’à un million de dollars aux chercheurs qui parviendraient à exécuter un code arbitraire dans son Private Cloud Compute.

L’arrivée officielle de Copilot sur Xcode devrait mettre un sérieux frein à certains projets tiers, comme l’extension Copilot for Xcode, disponible sous licence MIT.

D’autres apports pour Copilot

À côté des annonces importantes, on trouve également d’autres nouveautés pour Copilot. Dans VS Code, Copilot Chat permet par exemple désormais de modifier plusieurs fichiers à la fois, dans le cadre de projets plus complexes. Il propose aussi une fonction permettant d’examiner le code pour obtenir des informations complémentaires. À noter la possibilité de personnaliser les instructions à Copilot Chat pour lui pointer les outils préférés par une personne ou une structure (comme une entreprise), ainsi que les connaissances organisationnelles.

GitHub a en outre donné quelques informations sur les fameuses extensions, qui permettent de personnaliser les demandes pour tenir compte d’un contexte particulier. Plusieurs d’entre elles ont été créées par Atlassian, Docker ou encore Stack Overflow, mais sont toujours en préversions.

On sait à présent que les versions finales seront lancées en début d’année prochaine, mais il n’y a pas encore de date précise. Dans la foulée, toute personne, entreprise ou autre structure pourra créer ses propres extensions, la capacité n’étant plus liée à quelques partenaires triés sur le volet.

☕️ Firefox 132 : streaming 4K, large gamme de couleurs et SVG accéléré

30 octobre 2024 à 07:49

Nouvelle mouture pour Firefox, avec des améliorations notables à la clé. Le DRM PlayReady de Microsoft est ainsi supporté. Sur les sites de streaming compatibles, le 1080p devient alors la qualité minimale, pouvant grimper jusqu’à la 4K.

Autre ajout notable, le support du Wide Color Gamut WebGL pour Windows et macOS, permettant des couleurs plus riches pour les contenus. « Cette implémentation prend actuellement en charge des profils de couleurs plus larges (P3) en 8 bits », précise Mozilla.

L’accélération matérielle dans WebRender prend également en charge un plus grand nombre de primitives de filtres SVG : feBlend, feColorMatrix, feComponentTransfer, feComposite, feDropShadow, feFlood, feGaussianBlur, feMerge et feOffset. Les contenus « à forte composante graphique » seront donc plus fluides.

Logo de la fondation Mozilla

Mozilla ajoute en outre le support des fonctions de partage d’écran introduites dans les derniers macOS. La compatibilité commence avec la version 15 (l’actuel Sequoia), puis sera répercutée sur la précédente, Sonoma, dans une prochaine mouture. Firefox prend aussi mieux en charge la reprise de session après redémarrage du Mac, quand l’option de réouverture des applications est active.

On note également un changement important sur le comportement du mode Strict pour la Protection renforcée, puisque l’accès aux cookies tiers est désormais bloqué.

Signalons enfin plusieurs améliorations liées à la sécurité. Les favicons (icônes des sites apparaissant dans les onglets ou dans les marque-pages) ne peuvent désormais plus être reçues que si elles sont délivrées via HTTPS. De plus, la fonction « Copier sans le pistage du site » (via le clic droit sur l’URL) a été renforcée pour inclure plus de paramètres. Elle est en outre grisée si aucun paramètre n’est trouvé dans le lien.

Quant aux failles de sécurité, Firefox 132 en corrige onze, dont deux critiques.

Cloud, lobbying : rien ne va plus entre Microsoft et Google

30 octobre 2024 à 07:03
spiderman-meme.jpg
Cloud, lobbying : rien ne va plus entre Microsoft et Google

Dans une publication lundi soir, Microsoft a accusé Google de préparer une guerre « clandestine » contre ses offres Azure. La société de Mountain View serait directement à l’origine de l’Open Cloud Coalition – officielle depuis quelques heures – pour faire du lobbying en Europe et influencer l’opinion.

Rien ne va plus entre Microsoft et Google. Les deux entreprises s’affrontent depuis des années sur le cloud mais, en parts de marché, Microsoft est loin devant Google, tandis qu’Amazon Web Services détient toujours la première place dans le monde.

Dans un communiqué publié lundi, Microsoft révèle d’étranges informations. La société accuse sa concurrente d’être derrière l’Open Cloud Coalition (OCC), tout juste lancée. « La mission de l’OCC est de promouvoir l’ouverture, l’interopérabilité et la concurrence loyale dans le paysage du cloud, en favorisant un écosystème du cloud plus innovant, transparent, résilient et sécurisé qui profite aux clients du Royaume-Uni, de l’UE et d’ailleurs », indique ainsi la nouvelle coalition.

Google, Civo, Centerprise International, Gigas, ControlPlane, DTP Group, Prolinx, Pulsant, Clairo et Room 101 en sont les dix membres. Cette coalition est dirigée par Nicky Stewart, auparavant à la tête de la société britannique UKCloud.

L’avocate de Microsoft, Rima Alaily, qualifie les futures activités de l’OCC comme de « l’astroturfing », soit de la désinformation populaire orchestrée. Selon Microsoft, cette coalition semble dirigée par « une poignée de fournisseurs européens de services en nuage » intéressés par la transparence sur le marché du cloud, mais qui auraient en réalité été recrutés par Google pour lui servir de caisse de résonance. Google aurait payé ces entreprises pour mener une autre forme du combat qu’elle tente de mener contre Microsoft.

« Campagnes obscures »

Toujours selon le père de Windows, cette Open Cloud Coalition ne serait qu’un élément parmi plusieurs « campagnes obscures » directement ou indirectement financées par Google. L’objectif général de ces campagnes serait de brouiller les pistes et d’influencer l’opinion sur tout ce qui touche aux procédures antitrust. Celles-ci, aux États-Unis, sont d’ailleurs renforcées depuis l’arrivée de Lina Khan à la tête de la Federal Trade Commission.

« Google s’est donné beaucoup de mal pour dissimuler son implication, son financement et son contrôle, notamment en recrutant une poignée de fournisseurs européens de services d’informatique en nuage pour servir de visage public à la nouvelle organisation. Lorsque le groupe sera lancé, Google se présentera vraisemblablement comme un membre de second plan plutôt que comme le chef de file », affirme Microsoft au sujet de la nouvelle coalition. L’entreprise estime que Google a pu offrir des avantages sous forme d’argent ou de remises. Dans le groupe, Google n’apparait que comme un membre parmi les autres.

Cette stratégie de Google serait l’héritage direct de son essai manqué avec le CISPE (Cloud Infrastructure Services Providers in Europe). Ce dernier avait en effet déposé plainte en novembre 2022 contre Microsoft, fustigeant les conditions et tarifs de ses produits pour les exécuter dans d’autres environnements qu’Azure.

Seulement, Microsoft a fini par négocier, aboutissant à un accord très critiqué avec le CISPE. En plus d’un paiement de 22 millions de dollars, Microsoft s’était engagée à participer à un observatoire permettant de suivre l’évolution de plusieurs de ses produits. Le 16 juillet, Bloomberg affirmait également que Google avait tout fait pour enjoindre le CISPE à refuser cet accord et à continuer la bataille. La firme aurait proposé jusqu’à 470 millions de dollars, ce que le CISPE aurait refusé. Une décision « sage », selon Microsoft.

Cette dernière trace un parallèle entre l’Open Cloud Coalition et la Coalition for Fair Software Licensing (CFSL), toujours pour du lobbying (États-Unis, Royaume-Uni et Europe). Selon Microsoft, Google en est le principal soutien financier. Contacté par Ars Technica, Ryan Triplette, président de la CFSL, indique au contraire que Google est un soutien public depuis plus de deux ans. Interrogé sur l’accusation de Microsoft sur son statut de lobbyiste chez Google auparavant, Triplette a répondu qu’il s’agissait d’une « étrange critique » : « tout le monde dans le domaine du droit, de la politique, etc. a travaillé pour Google, Microsoft ou Amazon à un moment donné, à un titre ou à un autre ».

Détourner l’attention

Pour Microsoft, il n’y a pas de doute : « Jamais, au cours des deux dernières décennies, les monopoles de Google en matière de recherche, de publicité numérique et de magasins d’applications mobiles n’ont fait l’objet d’une menace aussi concertée et déterminée qu’aujourd’hui. Selon nos estimations, au moins 24 enquêtes antitrust ont été ouvertes à l’encontre de Google sur les principaux marchés numériques du monde ».

La tactique actuelle servirait donc deux objectifs : détourner l’attention et, bien sûr, récupérer les restes en cas d’impact concret. Et, pour cela, Google aurait donc monté son propre CISPE, engageant « une agence de lobbying et de communication en Europe pour créer et gérer l’organisation ».

Le tout se ferait en parallèle de la plainte déposée en septembre devant la Commission européenne contre Microsoft pour pratiques abusives. La communication de Google était à cette occasion devenue ronflante.

Faisant référence à la panne CrowdStrike, la société de Mountain View avait déclaré : « Comme l’a montré la panne de sécurité massive survenue il y a deux mois, les tactiques de verrouillage de Microsoft peuvent aboutir à un point de défaillance unique qui nuit aux entreprises, aux industries et aux gouvernements ». Un incident certes grave, mais dont Microsoft n’était pas à l’origine et qui, surtout, ne concernait pas le cloud ni même les serveurs.

Microsoft accuse également Google de vouloir noyer le poisson en se faisant passer pour un petit acteur, bien loin d’un AWS ou d’un Microsoft. Cette dernière insiste – sans doute avec beaucoup de plaisir : cela est peut-être vrai en matière de parts de marché, mais pas en termes de moyens, puisque Google serait première au classement des centres de données.

Comment Microsoft a-t-elle appris tout ça ? L’entreprise explique que l’un des fournisseurs européens approchés par Google aurait refusé et l’en aurait averti. Aucun nom n’est donné.

Que se passe-t-il ?

Il ne fait aucun doute que Microsoft a voulu couper l’herbe sous le pied de la nouvelle coalition, pour présenter ses actions sous un mauvais jour. Mais le communiqué de Microsoft est également un exercice de communication, même si c’est la première fois que l’entreprise adopte un ton aussi offensif.

Difficile pour l’instant de savoir ce qu’il s’est passé. Microsoft semble avoir été piquée au vif par sa concurrente. Cependant, la société passe elle-même par des coalitions et alliances, comme l’European Cloud Alliance. Microsoft pourrait simplement avoir été fâchée d’apprendre que les activités du CISPE allaient ressurgir sous une autre forme, alors qu’elle pensait en avoir terminé.

« Nous avons fait part publiquement de nos inquiétudes concernant les licences de Microsoft pour le cloud. Nous pensons, comme beaucoup d’autres, que les pratiques anticoncurrentielles de Microsoft verrouillent les clients et créent des effets négatifs en aval qui ont un impact sur la cybersécurité, l’innovation et le choix. Vous pouvez en savoir plus dans nos nombreux billets de blog sur ces questions », a simplement réagi Google auprès d’Ars Technica.

Et en France ? Interrogée, OVHcloud ne cache pas un certain agacement : « Il nous apparaît regrettable que les débats actuels semblent se concentrer sur la forme et les modalités d’action des acteurs plutôt que sur l’amélioration concrète de la situation pour les utilisateurs du cloud. Nous souhaitons que ces acteurs mettent fin aux pratiques préjudiciables qui enferment les utilisateurs du cloud. »

Du côté de Clever Cloud, on sourit : « Ce spectacle est à la fois ironique et révélateur. Ironique, car ces géants américains qui s’affrontent aujourd’hui n’ont jamais brillé par leur attachement à une concurrence libre et non faussée. Révélateur, car ils confirment ce que nous savions déjà : l’Europe est le terreau idéal pour l’émergence d’un cloud équitable pour le consommateur. Mais cette transformation ne viendra pas de ces entreprises. C’est à nous, industriels européens, qu’il revient de faire de cette opportunité une réalité, de faire comprendre à nos dirigeants, dans chaque pays de l’Union, l’importance stratégique qu’elle représente. C’est précisément cette vision qui anime Clever Cloud : construire jour après jour un écosystème souverain, compétitif et ouvert », a ainsi réagi Quentin Adam, CEO de Clever Cloud.

Comment Google pousse les fabricants vers sept ans de mises à jour Android

29 octobre 2024 à 13:16
Treble, la situation est grave
Comment Google pousse les fabricants vers sept ans de mises à jour Android

Google pousse les constructeurs vers un support allongé pour leurs appareils, qui peuvent recevoir jusqu’à sept ans de nouvelles versions majeures d’Android. Cette bascule n’est pas simple, même si elle semble mettre un terme à la complexité actuelle. Ce support allongé va d’abord passer par le haut de gamme, via notamment le Snapdragon 8 Elite récemment présenté.

Android a depuis longtemps un problème de fragmentation. Depuis de nombreuses années, les constructeurs de smartphones prennent peu au sérieux la longévité de leurs produits, n’offrant que peu de mises à jour. L’exception se trouvait dans les modèles haut de gamme, qui pouvaient recevoir des versions majeures d’Android plus longtemps. Au-delà de ces dernières, il était surtout question des mises à jour de sécurité mensuelles, abandonnées trop vite sur de nombreux modèles d’entrée de gamme. Or, un smartphone ou une tablette sans mises à jour de sécurité représente un trop grand danger pour être encore utilisé.

La situation change progressivement. On l’a vu avec les Pixel et le haut de gamme de Samsung, des modèles commencent à être livrés avec sept ans de mises à jour mineures et majeures. Google veut inspirer le marché, d’autant que les lois s’apprêtent à se durcir, notamment en Europe.

Ces dernières années, Google a également beaucoup travaillé à rendre la maintenance des appareils plus simple pour les constructeurs. Une conséquence directe de la stratégie Android pratiquée jusque-là, qui donne de nombreuses libertés aux constructeurs dans le choix des composants et de l’utilisation d’Android. Plus il y a de modèles, plus il faut dépenser de ressources pour entretenir des configurations très différentes.

Une première étape avec le projet Treble

Face à ce constat, Google avait présenté le projet Treble. Il s’agissait alors de simplifier la chaine logistique allant de la disponibilité d’une mise à jour Android à son installation concrète par l’utilisateur. Et pour cause : il fallait que des fabricants de puces testent la compatibilité du nouveau code avec leurs produits, que les constructeurs de smartphones en fassent autant avec leurs appareils, voire que les opérateurs mettent leur grain de sel.

Treble a marqué une importante rupture dans ce modèle. Pour la première fois, Google séparait le système d’exploitation proprement dit de ses Play Services. Cette séparation devait permettre aux constructeurs de ne vérifier la compatibilité de code mis à jour que sur les composants strictement nécessaires du système, sans toucher à l’implémentation d’origine par le constructeur.

Ce fut un premier changement salvateur, car Google a déplacé petit à petit un nombre croissant de composants logiciels cruciaux dans ses Services. Aussi, sur les appareils ne pouvant plus prétendre aux versions annuelles d’Android, les Play Services continuaient à se mettre à jour pendant plusieurs années, limitant un peu le problème de fragmentation.

Un déplacement de la complexité

Si cela a l’air simple en apparence, la réalité est tout autre. Non seulement le projet Treble est complexe dans ses objectifs, mais il l’a aussi été dans sa mise en application. Il a fallu également que Google puisse maintenir une compatibilité ascendante pour toutes ses versions Android. Pas question en effet qu’une nouvelle mouture du système vienne réduire à néant les implémentations réalisées par les constructeurs sur la version précédente.

Toute la complexité du processus de suivi des mises à jour s’est en fait déplacée. Les constructeurs se sont surtout mis à attendre les retours des fournisseurs de composants. Ces derniers doivent en effet fournir une implémentation compatible pour chaque version d’Android en circulation sur chaque appareil. Ce qui inclut à la fois les versions majeures (quand le noyau Linux change par exemple) ou les versions intermédiaires, par exemple quand Google modifie une couche d’abstraction matérielle (HAL) pour introduire une nouveauté.

Si Treble a simplifié le processus pour les constructeurs, il l’a donc rendu plus complexe pour les fournisseurs de composants… dont dépendent les constructeurs. À moins d’être dans le cas de Google et de fournir directement ses propres composants, comme l’entreprise l’a fait en introduisant sa série Tensor. Une maitrise du matériel et du logiciel qui a valu pendant de longues années la palme de la longévité aux iPhone, maintenus pendant au moins cinq ans pour les versions majeures d’iOS, ainsi qu’une année supplémentaire pour les correctifs de sécurité. Apple s’est depuis fait voler la vedette.

Google Requirements Freeze, la deuxième moitié du puzzle

Google s’est rapidement aperçue du problème. L’entreprise a donc introduit fin 2020 un autre projet. Baptisé Google Requirements Freeze (GRF), il a étendu les grands principes de Treble aux SoC des appareils mobiles. GRF a introduit un très gros changement dans Android : les changements opérés dans le noyau Linux et/ou les couches d’abstraction matérielle ne peuvent plus être répercutés sur d’anciennes implémentations. Il n’y a plus de rétroactivité, alors qu’elle était obligatoire avec Treble.

Voici un exemple, pour mieux comprendre. Un fournisseur de composant propose un nouveau SoC prenant en charge Android 12. Avec GRF, l’implémentation réalisée par le fournisseur est garantie jusqu’à N+3, donc Android 15. Dans cet intervalle, toutes les mises à jour Android proposées, même les plus importantes dans les versions majeures, peuvent se faire en réutilisant l’implémentation initiale faite pour Android 12. D’où le nom de « Freeze », Google gelant littéralement ses exigences.

Le programme GRF a permis de simplifier le passage à trois ans de mises à jour d’Android, puis autant de correctifs de sécurité seuls. Il était possible d’étendre le support à sept ans, mais à la condition de payer le fournisseur de SoC pour un travail supplémentaire de prise en charge. C’est ce qu’explique Android Authority, donnant l’exemple de Samsung avec sa ligne Galaxy S24 lancée en début d’année.

Un director’s cut de GRF

Désormais, il faut parler de Longevity GRF. Une version longue du programme initial qui propose directement sept années de mises à jour. Plus spécifiquement, il autorise la réutilisation du logiciel d’un SoC pour sept évolutions majeures d’Android, au lieu des trois actuelles. Un changement majeur, car cela permet à un smartphone lancé sous Android 15 de pouvoir être mis à jour jusqu’à Android 22.

Il ne s’agit donc plus d’exceptions comme les Pixel 8/9 ou encore les Samsung Galaxy S24, mais d’une règle commune, applicable par l’ensemble des constructeurs. Il y a cependant une condition importante : il faut que la société proposant le SoC accompagne ce dernier de cette « garantie ». Or, à l’heure actuelle, seul le Snapdragon 8 Elite, présenté la semaine dernière par Qualcomm, est compatible. En théorie, tout appareil qui en sera équipé pourra recevoir les précieuses nouvelles versions d’Android.

Une condition, une limite et un problème

Si ce gel prolongé est un énorme progrès en matière de longévité des appareils, il y a cependant une grosse condition à respecter : mettre à jour la version du noyau Linux après trois ans, car les versions fournies par Android ne sont supportées que quatre ans. Le décompte commence à partir de la version 6.6 fournie avec Android 15. Si les constructeurs ne le font pas, ils devront s’occuper eux-mêmes de porter les modifications de sécurité sur l’ancienne version utilisée par leurs appareils.

Il y a une autre limitation : Google interdit qu’une implémentation pour un SoC soit utilisée au-delà de sa quatrième année pour équiper un nouvel appareil avec le dernier Android. En 2028, par exemple, il ne sera pas possible d’utiliser l’implémentation actuelle du Snapdragon 8 faite pour Android 15 dans un nouvel appareil conçu autour d’Android 19. Ceci pour éviter que l’ancienne implémentation ne soit pas sans cesse reprise par un constructeur. Sur Android Authority, Mishael Rahman a résumé les informations dans le tableau suivant :

Cette longévité simplifiée, qui demandera tout de même quelques travaux, surtout en milieu de cycle de vie, s’accompagne également d’un problème. Les constructeurs vont en effet pouvoir proposer des mises à jour sur 7 à 8 ans, sans plus devoir payer de support allongé aux fournisseurs de SoC. Cependant, cela se fait au détriment d’un gel des couches d’abstraction matérielle. Si Google introduit des nouveautés ayant besoin d’une telle modification, elles ne seront répercutées qu’au bon vouloir des fournisseurs de composants et des constructeurs. Par exemple, Android 13 a ajouté une API permettant de modifier la luminosité de la fonction lampe de torche.

Rahman ajoute que ces informations ne sont pas publiques, qu’elles lui ont été communiquées par une source anonyme et que certains détails pourraient donc lui avoir échappé. Cependant, elles sont en phase avec les mouvements de l’industrie observés depuis l’automne 2023, jusqu’à la présentation du Snapdragon 8 Elite. La longévité des appareils devrait donc bien devenir un argument de vente, mais il n’est pas certain qu’il le soit pour toutes les gammes. D’autant que seul le dernier fleuron de Qualcomm est pour l’instant compatible. Mais cette permissivité semble bien être l’aboutissement des objectifs fixés par Treble il y a six ans.

❌
❌