Vue lecture

Android : il y aura deux SDK par an, Android 16 au deuxième trimestre 2025

Accord mineur
Android : il y aura deux SDK par an, Android 16 au deuxième trimestre 2025

Google a annoncé le 31 octobre qu’elle allait augmenter le rythme de parution des kits de développement pour Android. Chaque nouvelle version apporte des possibilités supplémentaires pour les développeurs.

Premier changement important, la parution du premier nouveau SDK aura lieu au deuxième trimestre de chaque année, plutôt qu’au troisième. Cette modification doit permettre de « mieux s’aligner sur le calendrier des lancements d’appareils dans notre écosystème, de sorte que davantage d’appareils pourront recevoir la version majeure d’Android plus tôt », explique Google.

Ce premier SDK annuel concernera la nouvelle version majeure d’Android. Traduction, Android 16 arrivera au deuxième trimestre 2025. « La version majeure étant prévue pour le deuxième trimestre, vous devrez effectuer vos tests de compatibilité annuels quelques mois plus tôt que les années précédentes pour vous assurer que vos applications sont prêtes », précise Google.

Ensuite, à chaque quatrième trimestre, une mouture mineure du SDK sera proposée. Elle proposera « des mises à jour de fonctionnalités, des optimisations et des corrections de bogues depuis la version majeure ». Point important : à la différence du SDK printanier, le kit hivernal n’incrémentera pas le niveau d’API. Il n’entrainera donc pas d’éventuels soucis de compatibilité.

Il y aura quand même un niveau d’API mineur, qui pourra être ciblé par les développeurs. Google ajoute qu’un nouveau manifeste permettra de spécifier ce niveau mineur pour le rendre obligatoire, par exemple quand un éditeur souhaite se servir d’une certaine fonction faisant partie intégrante de l’expérience utilisateur.

Quant aux premiers et troisièmes trimestres de chaque année, ils resteront dévolus à la publication de mises à jour intermédiaires pour Android (les QPR), comprenant des améliorations tournées vers les utilisateurs.

☕️ BitWarden passe son SDK sous GPLv3 pour en finir avec les interrogations sur sa licence

Le gestionnaire de mots de passe, connu pour son code open source, a été entouré d’une petite polémique ces derniers temps. En cause, une modification dans le SDK, qui ne permettait plus de reconstruire le client BitWarden en restant sur du code libre, du moins pas sans erreur.

La société s’était déjà exprimée sur le sujet, indiquant qu’il s’agissait d’un bug. Elle avait ajouté que son engagement pour le code open source et le logiciel libre restait intact. La situation n’étant toujours pas claire pour une partie des utilisateurs, BitWarden a décidé de franchir une nouvelle étape.

L’entreprise a ainsi présenté un commit sur GitHub proposant un passage d’une licence maison pour le SDK à la GPLv3. Kyle Spearin, directeur technique, très présent dans la conversation depuis le début des craintes exprimées, a indiqué le 26 octobre : « Nous avons fait quelques ajustements sur la façon dont le code du SDK est organisé et emballé pour vous permettre de construire et d’exécuter l’application avec seulement la GPL/OSI ».

« Le dépôt original sdk repository sera renommé en sdk-secrets, et conservera sa structure de licence SDK Bitwarden existante pour nos produits commerciaux Secrets Manager. Le dépôt et les paquets sdk-secrets ne seront plus référencés dans les applications clientes, puisque ce code n’y est pas utilisé », a-t-il ajouté, faisant référence à un autre produit commercial de l’entreprise.

Et effectivement, quand on se rend maintenant sur le fichier LICENCE du SDK interne sur GitHub, on peut voir que les développeurs peuvent choisir entre la GPLv3 et la BitWarden Software Development Kit License v1.0. L’entreprise espère donc en avoir fini avec les questions sur son code open source, mais The Register tempère dans un article publié hier : dans le message accompagnant le commit sur GitHub, il était question d’améliorer le langage de la licence « pour la plupart des crates ». Nos confrères tiquant sur cette « plupart », ils ont contacté BitWarden pour obtenir un éclaircissement, mais l’entreprise n’a pas encore répondu.

Microsoft proposera une année supplémentaire et payante de support pour Windows

Grincements dans les chaumières
Microsoft proposera une année supplémentaire et payante de support pour Windows

Microsoft arrêtera le support de Windows 10 le 24 octobre 2025. Après cette date, plus aucune mise à jour de sécurité ne sera fournie au système. Continuer à l’utiliser sera donc dangereux, puisque les failles détectées resteront ouvertes aux quatre vents. Microsoft propose cependant de payer pour maintenir ce support pour une année supplémentaire de support.

L’arrêt du support technique sur un Windows est toujours une étape importante. À chaque fois, une partie des utilisateurs retardataires se retrouve avec un système sans mise à jour. Dans le cas de Windows 10, la situation est pire.

L’arrivée de Windows 11 ne s’est pas passée comme les versions précédentes. La puissance demandée par le système est pratiquement identique aux versions précédentes et les prérequis n’ont guère changé depuis Vista. En revanche, Microsoft exige du matériel récent pour son dernier système d’exploitation, dont une puce TPM 2.0. Entre cette obligation et celle d’un processeur ne pouvant pas dépasser cinq ou six ans, de nombreuses configurations ne peuvent pas migrer vers Windows 11, quand bien même celle-ci était proposée gratuitement.

Depuis que Microsoft a annoncé le 24 octobre 2025 comme date limite du support pour Windows 10, beaucoup se posaient la question : la société allait-elle persister et signer, ou s’adapter à la situation et retarder la fin du support ?

Une année supplémentaire, pas plus

Pour l’instant, elle persiste. On savait cependant qu’elle proposerait une extension payante. Celle-ci existe depuis longtemps et permet aux entreprises de payer pour pousser jusqu’à trois ans de mises à jour supplémentaires, via un mécanisme nommé ESU (Extended Security Updates). Cependant, la tarification se fait par le nombre de postes à couvrir et en fonction du nombre d’années : chaque année supplémentaire de support est plus chère que la précédente. La situation étant exceptionnelle, Microsoft a donc fini par proposer son ESU aux particuliers.

Dans une annonce le 31 octobre, l’éditeur explique ainsi : « Nous comprenons que certains d’entre vous peuvent avoir besoin d’un délai supplémentaire pour passer à un nouveau PC Windows 11 ou Copilot+. Pendant cette période, vous pouvez souhaiter prendre des mesures pour aider à sécuriser votre PC existant. Comme annoncé précédemment, nous offrirons notre programme Mises à jour de sécurité étendues (ESU). Les PC inscrits continueront à recevoir les mises à jour de sécurité critiques et importantes pour Windows 10 ».

Le tarif proposé n’a rien à voir avec celui des entreprises : 30 dollars. Plusieurs informations à connaitre cependant. D’une part, on ne peut acheter qu’une seule année. Pas question ici de pousser à trois ans, comme pour les entreprises. En outre, l’option n’est pas disponible pour l’instant. Elle ne sera proposée que vers la fin du support technique l’année prochaine. Enfin, ces mises à jour ne concerneront que la sécurité. Il ne sera pas question de corrections de bugs généraux et encore moins de fonctions. Autre précision importante, les personnes qui auront payé ne pourront plus contacter le support.

Des problèmes de moyens et de communication

Le billet de Microsoft est presque entièrement tourné vers les avantages à passer à Windows 11. L’entreprise s’engage ainsi « à vous protéger, vous et votre PC, avec la sécurité la plus avancée possible ». « Nous comprenons que le changement n’est jamais facile, mais nous nous engageons à rendre cette transition aussi fluide que possible. Merci pour votre passion et votre fidélité à Windows », ajoute Microsoft.

Ces 30 dollars ne sont donc envisagés que comme un délai permettant d’investir dans du matériel. Investissement que tout le monde ne pourra pas forcément faire. Quitte à abandonner Windows 10, certains pourraient être tentés de changer de crèmerie. Il y a bien sûr un éventuel passage au Mac, mais l’option d’un Linux est largement envisageable également. Tout dépend des besoins, des moyens financiers et des connaissances. Ces dernières seront malheureusement déterminantes.

Le fait de proposer une extension de support ne sera ainsi peut-être pas suffisant. Microsoft ne dit pas un mot sur la manière dont elle communiquera cette possibilité aux personnes concernées. Une fenêtre sera-t-elle affichée pour informer clairement les utilisateurs ? Ne sera-t-elle pas prise pour une arnaque ? Y aura-t-il un entourage capable d’expliquer, rassurer ou conseiller une autre solution ?

Microsoft est dans tous les cas face à un problème de taille, puisque Windows 10 représente à l’heure actuelle plus de 60 % du marché des machines Windows. Un chiffre colossal qu’il sera impossible de gommer en une seule année. Même si la moitié des personnes concernées migraient vers Windows 11, il resterait presque un tiers du parc sous l’ancienne version. Microsoft, qui n’a de cesse de rappeler sa Secure Future Initiative, se retrouverait alors avec un sérieux souci, avec possiblement une récupération du sujet par les pouvoirs publics, par exemple pour défaut de sécurisation.

Apple : récap des nombreuses annonces et rumeurs du week-end d’Halloween

Bouh !
Apple : récap des nombreuses annonces et rumeurs du week-end d’Halloween

Les derniers jours ont été riches en informations et rumeurs autour d’Apple. L’un des faits les plus marquants est le rachat de Pixelmator. Apple a également pris une participation dans son partenaire satellitaire GlobalStar et ouvert des laboratoires de recherche sur les écrans en Chine.

Apple rachète l’application Photomator

Le rachat, d’un montant non précisé, a été confirmé par la société lituanienne le 1er novembre. L’équipe en place intègrera Apple. Elle précise que rien ne changera pour les applications actuelles (Pixelmator Pro, Pixelmator for iOS et Photomator). L’application s’est fait connaître à plusieurs reprises à travers des mises en avant par Apple dans des conférences et captures d’écran.

Comme le rappellent nos confrères de MacG (qui fêtent leurs 25 ans et se lancent pour l’occasion dans la création d’un magazine collector), Apple a racheté plusieurs fois des applications, comme Dark Sky, qui a constitué la base de la nouvelle application Météo. On se rappelle de Shazam en 2017, mais l’exemple le plus marquant est sans conteste iTunes.

Parallèlement, Apple lance un rappel pour une partie des iPhone 14 Plus, précisément ceux produits entre les 10 avril 2023 et 28 avril 2024. Ils présentent un problème de caméra arrière. La firme a mis en place une page dédiée dans laquelle les personnes concernées sont invitées à entrer leur numéro de série pour savoir si leur appareil est concerné. Rappelons que dans ce type de cas, les réparations sont prises en charge par le constructeur.

Apple investit dans GlobalStar

Dans un tout autre domaine, Apple a pris une participation de 20 % dans GlobalStar, l’entreprise partenaire pour la connexion satellitaire des iPhone. Cette fonction avait été lancée avec l’iPhone 14 et permettant d’établir une connexion avec un satellite pour des appels d’urgence, quand aucun réseau cellulaire n’était trouvé. Avec iOS 18, la fonction s’est étendue aux SMS.

La prise de participation est notée dans un document remis par GlobalStar à la SEC (Securities and Exchange Commission, l’autorité américaine des marchés financiers), relevé par The Verge. On y apprend que le montant s’élève à 400 millions de dollars. Viendra s’y ajouter un prépaiement de 1,1 milliard de dollars destiné à l’amélioration de l’infrastructure satellitaire : « une nouvelle constellation de satellites, une infrastructure terrestre élargie et une augmentation des licences de [services mobiles par satellite] à l’échelle mondiale ».

De la recherche sur les écrans en Chine

On apprend également par BusinessKorea, via PatentlyApple, qu’Apple a ouvert des laboratoires de recherche sur les écrans dans quatre villes chinoises : Pékin, Shenzhen, Suzhou et Shanghai. Selon le média coréen, l’initiative servira à la fois à développer de nouvelles technologies qu’à élargir ses sources d’approvisionnement, essentiellement situées en Corée aujourd’hui.

« Ces laboratoires de recherche développent et testent des panneaux pour les iPhone, les iPad, le Vision Pro et les futurs iPhone pliables. Ils effectuent également des évaluations de qualité en les comparant aux panneaux coréens », a indiqué une source.

Des rumeurs et des performances

Cette information alimente d’ailleurs des rumeurs très insistantes actuellement sur un changement important qui se dessinerait pour les iPhone 17. Sur ses prochaines smartphones, Apple aurait l’intention d’utiliser la technologie LTPO (oxyde polycristallin à basse température) sur l’ensemble de sa gamme. Pour la première fois, les modèles d’entrée de gamme auraient – enfin ! – des écrans dont la fréquence varierait entre 1 et 120 Hz, comme sur les actuels modèles Pro.

On reste dans les rumeurs avec plusieurs informations circulant actuellement. Le souvent très informé Mark Gurman, de Bloomberg, indique ainsi qu’Apple aurait dans ses cartons un important renouvellement des MacBook Pro pour 2026, avec un nouveau design. Une de plus ? L’entreprise aurait repoussé son modèle Vision Pro plus accessible à 2027 au profit d’une version plus puissante de l’actuel pour l’année prochaine.

Les performances des puces M4, M4 Pro et M4 Max commencent également à se dévoiler sur GeekBench. En monothread, le M4 Pro (14 cœurs) du Mac mini obtiendrait ainsi un score de 3 663, tandis que le M4 Max (16 cœurs) du MacBook Pro 16 pouces grimperait à 4 013. Des valeurs à comparer aux 2 777 points de la puce M2 Ultra (24 cœurs) du Mac Studio.

En multithread, sur les mêmes puces, les scores s’envoleraient à 22 094 et 26 445, contre 21 351 pour le M2 Ultra. Contrairement au découpage de la gamme M3, la puce M4 Pro serait donc particulièrement puissante.

Côté GPU, on passerait de 111 000 sur un M4 Pro à 190 329 sur le M4 Max. Ce qui n’aurait rien d’étonnant, puisque le SoC Max embarque 40 cœurs GPU, contre 20 sur le M4 Pro.

Des milliards de dollars comme s’il en pleuvait

Enfin, Apple a aussi mis en ligne ses résultats financiers pour son quatrième trimestre fiscal de l’année (terminé le 28 septembre 2024). La société revendique un chiffre d’affaires de 94,930 milliards de dollars sur trois mois, et de 391,035 milliards de dollars sur un an.

Les iPhone continuent d’assurer le gros des revenus avec 46,222 milliards de dollars sur trois mois, et 201,183 milliards sur un an. Les services sont seconds avec respectivement 24,972 et 96,169 milliards de dollars.

Le bénéfice net est moins important que l’année dernière, avec 14,736 milliards de dollars sur trois mois et 93,736 milliards sur un an, contre respectivement 22,956 et 96,995 milliards.

☕️ Microsoft repousse de nouveau sa fonction Recall

Lorsque Microsoft a présenté Recall, il s’agissait de rendre la vie plus simple : pouvoir retrouver n’importe quelle information est effectivement une force. Mais pour y parvenir, la fonction prend régulièrement des captures d’écran et catalogue les informations, après une analyse par plusieurs petits modèles d’IA.

Rapidement, de nombreux problèmes sont apparus, notamment sur la sécurité. Il était par exemple trop simple pour une autre personne d’aller récupérer ces données pour peu qu’elle ait un accès physique au PC Copilot+ (les seuls compatibles). L’ordinateur pouvait se retourner contre son utilisateur ou son utilisatrice, Recall gardant une trace de tout ce qui avait été fait. En outre, Recall ne floutait pas les informations sensibles.

Microsoft a commencé par apporter certaines améliorations, mais il est vite apparu qu’il fallait tout reprendre. La fonction a été retirée et son retour était programmé en octobre, d’abord pour les membres du programme de préversions Windows Insiders. De gros changements avaient également été annoncés, dont le chiffrement de la base de données, de nombreuses barrières pour en protéger l’accès physique, le passage à l’opt-in et la possibilité de désinstaller la fonction.

Il semble cependant que le travail soit plus long que prévu. La polémique autour de Recall cadrait mal en effet avec les prétentions de Microsoft sur la sécurité, puisque la firme a indiqué en début d’année en avoir fait sa priorité, des vœux renouvelés après le fiasco CrowdStrike.

Interrogée à ce sujet par The Verge, Microsoft a confirmé le retard, par la voix de Brandon LeBlanc, responsable du programme Windows Insiders : « Nous nous engageons à offrir une expérience sûre et fiable avec Recall. Pour nous assurer que nous livrons ces mises à jour importantes, nous prenons plus de temps pour affiner l’expérience […]. Initialement prévu pour octobre, Recall sera désormais disponible en avant-première auprès des Windows Insiders sur les PC Copilot Plus d’ici décembre ».

Steam oblige les éditeurs à mentionner la présence de solutions anti-triche

Pour votre bien
Steam oblige les éditeurs à mentionner la présence de solutions anti-triche

Les logiciels anti-triche font souvent polémique. Pour que l’information soit un peu plus transparente, Valve va forcer les éditeurs à communiquer sur la présence de ces mécanismes sur les fiches des jeux dans Steam. Ce dernier comporte également une mention obligatoire sur l’impossibilité de revendre les jeux en occasions.

Les solutions anti-triche, tout comme les DRM, où qu’ils passent, acquièrent rapidement une mauvaise réputation. Une partie des joueurs affirme que ces composants font baisser les performances, d’autres qu’ils entrainent des plantages de leur PC. D’autres encore pestent que leur jeu ne fonctionne plus.

Dans le cas des jeux vidéo, et à l’instar des DRM, il s’agit le plus souvent d’un code en espace noyau. L’objectif, pour le développeur, est d’empêcher les tricheurs de modifier en temps réel les valeurs résidant en mémoire et d’autres aspects d’un jeu, afin d’en tirer un bénéfice lors de matchs, voire de compétitions. Des noms comme Easy Cheat, Denuvo ou encore Enigma sont courants. Souvent, les mécanismes s’occupent à la fois de la protection contre la copie (DRM) et de celle contre la triche, comme Enigma de Capcom.

Les exemples sont nombreux. Sur la seule année 2024, on pourrait citer le choix de Capcom de répercuter Enigma sur l’intégralité de son catalogue présent sur Steam. Début septembre, la sortie du très attendu Warhammer 40K Space Marine 2 s’est faite avec une annonce importante de son éditeur, Saber Interactive : non seulement le jeu n’intègre pas Denuvo, mais l’éditeur a bien pris soin de l’indiquer dans sa FAQ. Plus récemment encore, on apprenait qu’EA avait répercuté son DRM sur Battlefield 1, rendant le jeu inexploitable sur Linux, comme les autres titres du catalogue.

La présence de solutions anti-triche doit être affichée sur Steam

Dans un billet publié la semaine dernière, Valve veut éclaircir la situation : « Ces derniers temps, de plus en plus de développeurs nous ont dit qu’ils cherchaient la bonne façon de partager avec les joueurs les informations relatives à l’anti-triche de leur jeu. Dans le même temps, les joueurs ont demandé plus de transparence sur les services anti-triche utilisés dans les jeux, ainsi que sur l’existence de tout logiciel supplémentaire qui sera installé dans le jeu ».

En conséquence, toutes les fiches vont être équipées d’un nouvel encart devant indiquer, sur un fond en dégradé de beige, si le titre contient un tel mécanisme.

Dans un premier temps, la mesure va concerner les nouveaux jeux. Valve indique dans son billet ce que les éditeurs trouveront désormais dans le paramétrage de la fiche de leur titre. Mais la société précise aussi qu’elle communique actuellement avec les sociétés et développeurs indépendants derrière les titres actuellement présents pour qu’ils remplissent aussi la fiche.

Notez que si Valve fait explicitement comprendre le caractère obligatoire de la démarche, elle ne donne aucune date limite.

Des informations à préciser

Tout aussi intéressant, Valve rend également obligatoire certaines informations. Les éditeurs devront ainsi indiquer si le mécanisme s’installe en espace noyau sur le système d’exploitation. Dans le sillage de l’énorme panne CrowdStrike, une partie du public est devenue plus sensible sur ces questions. Steam proposant une liste des solutions anti-triche les plus courantes, la case sera automatiquement cochée le cas échéant.

En outre, des informations devront être données sur la manière de désinstaller le logiciel anti-triche: « Votre script de désinstallation devrait déjà nettoyer tous les fichiers créés ou modifiés par votre processus d’installation. Cependant, nous savons que certains jeux plus anciens ne suppriment pas complètement les fichiers lors de la désinstallation et qu’il n’est plus possible de mettre à jour le jeu. Les joueurs doivent savoir si les utilitaires anti-triche ont laissé des fichiers derrière eux, en particulier ceux qui modifient les fichiers du noyau du système d’exploitation », explique Valve.

Valve ajoute que les jeux en cours d’examen pour publication sur Steam doivent posséder ces informations. Si elles n’y sont pas, l’examen n’aboutira pas et il sera demandé des renseignements supplémentaires. Et ce, même si ces derniers étaient intégrés dans le descriptif général. Valve tient à ce que l’information soit présente dans l’encart prévu.

On « n’achète pas » un jeu

Puisque l’on évoque la question des informations affichées par Steam, la boutique a été contrainte il y a quelques semaines d’en ajouter une autre : que l’on n’achète pas vraiment un jeu et que le paiement ne donne droit qu’à une licence d’utilisation. Plus précisément : « L’achat d’un produit numérique accorde une licence pour le produit sur Steam ».

Bien que Steam affiche désormais cette mention partout dans le monde, c’est la conséquence d’une loi californienne à venir. Signée le 26 septembre par le gouverneur, elle est estampillée AB 2426 et s’attaque notamment à la publicité mensongère sur les biens numériques.

☕️ Chrome se dote de plusieurs outils dédiés aux performances

La dernière version de Chrome s’est équipée de plusieurs ajouts liés aux performances et à leur surveillance. La principale nouveauté peut se trouver dans la section Performances des paramètres du navigateur.

La ligne « Alertes concernant les problèmes de performances » est active par défaut et va prévenir l’utilisateur quand le comportement de certains onglets devient erratique. La grande consommation de ressources est alors signalée quand elle peut avoir un impact sur l’utilisation de l’onglet en cours.

La fonction pointe alors les onglets fautifs et propose de les désactiver. Pour rappel, cette fonction – désormais commune à tous les principaux navigateurs – décharge les ressources consommées par les onglets. Elles ne sont rechargées que si l’on revient dessus. Ce mécanisme est utilisé pour l’endormissement des onglets après un certain temps d’inactivité. Les onglets désactivés sont affichés avec un cercle en pointillés autour de leur icône.

Parallèlement, l’économiseur de mémoire peut désormais être paramétré selon trois crans :

  • Modéré :  désactive les onglets en fonction des besoins du système
  • Équilibré : tient compte des habitudes de navigation et des besoins du système
  • Maximal : désactive les onglets lorsque vous cessez de les utiliser, plus rapidement que les deux autres modes

La fonction est désactivée par défaut. Lorsqu’elle est activée, elle est réglée sur Équilibré, qui s’affiche avec une mention « Recommandé ».

Enfin, il est possible d’établir des paramètres plus personnalisés. Par exemple, on peut indiquer les sites devant toujours rester actifs. Les cercles en pointillés peuvent être désactivés, de même que la quantité de mémoire consommée dans le panneau qui s’affiche au survol d’un onglet par la souris.

Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Clique, on va te dépanner
Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Dans une communication du 29 octobre, Microsoft a averti d’une importante campagne de spear phishing – une forme de phishing très ciblé – contre des milliers de personnes aux États-Unis. Le groupe malveillant russe Midnight Blizzard serait derrière l’attaque. Signe particulier : des fichiers RDP ont été utilisés pour la première fois.

Microsoft est en guerre contre le groupe Midnight Blizzard (aussi appelé Nobelium, APT29 ou Cozy Bear) depuis plusieurs années maintenant. En aout 2023, par exemple, la société prévenait que le groupe, décrit par plusieurs sociétés de sécurité comme proche du gouvernement russe, s’était lancé dans une vaste campagne de phishing sur Teams.

Mais c’est surtout Midnight Blizzard que l’on a retrouvé derrière l’opération qui a mené au piratage de plusieurs boites mails de dirigeants de l’entreprise. Les pirates ont ensuite tenté de récupérer des informations internes et du code source. Google les a même épinglés pour leurs techniques très proches de sociétés comme Intellexa et NSO (auteur du fameux Pegasus).

Dans un billet de sécurité publié le 29 octobre, Microsoft prévient cette fois que Midnight Blizzard est à l’origine d’une nouvelle campagne. Cette fois cependant, il s’agit de spear phishing (ou harponnage), une forme très personnalisée de phishing, dans le but de récupérer des informations sensibles. L’entreprise dit communiquer sur le sujet « pour informer le public et perturber l’activité de cet acteur malveillant ».

Une campagne très ciblée

L’opération aurait débuté le 22 octobre. Des emails ont été envoyés à plusieurs milliers de personnes réparties dans une centaine d’organisations diverses. Des membres du gouvernement américain, du personnel d’universités, de la défense, d’ONG et d’autres secteurs ont ainsi été visés. « Nous estimons que l’objectif de cette opération est probablement la collecte de renseignements », indique Microsoft.

Selon l’entreprise, l’opération – toujours en cours – est dans la lignée des précédentes de Midnight Blizzard, que ce soit au travers des cibles ou de la finalité. « Ses opérations impliquent souvent la compromission de comptes valides et, dans certains cas très ciblés, des techniques avancées pour compromettre les mécanismes d’authentification au sein d’une organisation afin d’élargir l’accès et d’échapper à la détection », explique ainsi l’éditeur.

Les emails envoyés utilisent des techniques d’ingénierie sociale en lien avec Microsoft, Amazon Web Services et même le concept de confiance zéro. On apprécie bien sûr l’ironie de la situation, devant un texte fait pour inspirer la confiance. Le contenu de ces courriels semblerait à s’y méprendre comme envoyé par des employés de Microsoft.

Comment les pirates ont-ils pu cibler ces personnes spécifiques ? Grâce à de précédentes compromissions, qui ont permis aux pirates de collecter les adresses emails.

La technique employée, en revanche, est nouvelle

Microsoft a observé dans la campagne une technique qu’elle n’avait encore jamais vue. La société explique ainsi que les emails contiennent un fichier .rdp. RDP, pour Remote Desktop Protocol, pointe vers l’outil d’accès à distance, qui peut également servir à faire de la prise de contrôle. Ce type d’outil est très courant et simplifie beaucoup la gestion d’un parc ou même le dépannage à distance d’un proche.

Dans le cas présent, le fichier est signé avec un certificat obtenu auprès de Let’s Encrypt. Il contient plusieurs paramètres décrits comme « sensibles », pouvant entrainer une exposition des informations chez le client. S’il est ouvert, le fichier connecte ce dernier à un serveur contrôlé par Midnight Blizzard. Un mapping bidirectionnel entre le client et le serveur est également mis en place. Tout le contenu des disques et du presse-papiers, l’ensemble des périphériques connectés, l’audio, les équipements comme les lecteurs de cartes ainsi que les fonctions d’authentification deviennent alors accessibles par les pirates.

La session n’a pas d’autre but que de dérober des informations et/ou d’installer des malwares. Ces derniers se chargeront alors d’entretenir le lien entre la machine contaminée et le serveur. En dépit des soins pris par les pirates pour personnaliser l’attaque, on peut voir dans les images fournies par Microsoft que l’ouverture du fichier .rdp provoque l’apparition d’une fenêtre indiquant qu’un test va avoir lieu. Celui-ci est censé mesurer la stabilité d’une connexion à AWS Secure Storage. Ce pourrait être effectivement le cas, mais le fait de mettre en avant Amazon Web Services dans un email prétendument envoyé par un employé de Microsoft peut interroger des personnes prudentes.

De nombreuses mesures pour atténuer les risques

Microsoft dresse une longue liste de mesures que les structures peuvent mettre en place pour ne pas tomber dans ce genre de piège. Bien que l’ingénierie sociale ne puisse jamais complètement être éliminée, des règles peuvent être mises en place pour casser certains scénarios ou en atténuer les effets.

L’utilisation d’un pare-feu pour empêcher ou limiter les connexions RDP sortantes vers des réseaux externes ou publics est ainsi en première place des suggestions. Suit rapidement l’authentification multifactorielle (MFA), quand un autre appareil est utilisé pour confirmer une demande d’authentification. Même si Microsoft décrit la mesure comme un « pilier essentiel de la sécurité », la même entreprise avait montré en aout 2022 qu’elle n’était pas non plus l’alpha et l’oméga de la protection. Mais les moyens à mettre en œuvre pour la contourner sont aussi plus importants. Microsoft recommande à ce titre d’éviter si possible les téléphones pour éviter les risques liés à la carte SIM.

Si l’entreprise en profite pour mettre en avant certains de ses produits et services, tel que Defender SmartScreen dans Edge, les conseils donnés restent assez généraux. Elle recommande par exemple la mise en œuvre de l’accès conditionnel avec authentification forte. L’accès conditionnel permet de n’autoriser un appareil à se connecter au réseau que s’il répond à des critères spécifiques, comme sa géolocalisation, l’installation d’une certaine mise à jour ou encore l’application de règles précises. L’authentification forte permettra de confirmer une identité avant l’accès à une application critique.

Suivent une série de conseils pour configurer certains produits courants, comme Office 365. Pour ce dernier, Microsoft conseille ainsi d’activer les liens et pièces jointes sécurisés, ainsi que la Zero-hour auto purge (ZAP). Cette dernière permet la récupération d’informations sur les nouvelles campagnes malveillantes. Elle peut alors proactivement mettre en quarantaine les emails considérés comme suspicieux et rétroactivement isoler ceux déjà présents dans les boites de réception.

☕️ Un paquet malveillant Python ciblait les portefeuilles de cryptomonnaies

Dans un billet publié mardi par GitHub, on a appris que l’usage du Python avait désormais dépassé celui de JavaScript. « Python est fortement utilisé dans les domaines de l’apprentissage automatique, de la science des données, de l’informatique scientifique, des loisirs et de la domotique, entre autres », explique l’entreprise. Dès lors, il n’est pas étonnant de voir le Python grimper en flèche, au vu de l’explosion des développements autour de l’IA.

La société note quand même que les « langages de programmation de systèmes, comme Rust, sont également en hausse, même si Python, JavaScript, TypeScript et Java restent les langages les plus utilisés sur GitHub ».

C’est probablement cette popularité que des pirates ont voulu exploiter. Dans un billet publié hier, la société de sécurité Checkmark explique qu’un paquet nommé CryptoAITools a été publié sur le Python Package Index (PyPI) et de faux dépôts GitHub. Il a été téléchargé 1 300 fois avant d’être supprimé de l’Index. Il a donc pu accomplir un certain nombre de méfaits avant d’être détecté.

Il est conçu pour Windows et macOS et s’active dès l’installation ; grâce à un code présent dans son fichier __init__.py. Il présente une interface trompeuse, conçue pour duper les utilisateurs pendant qu’il active ses fonctions malveillantes.

Le code peut être utilisé pour récupérer d’autres charges utiles depuis le site coinsw[.]app, qui avait toutes les apparences d’un vrai site, pour tromper la vigilance des personnes qui seraient allées voir. Le site faisait la promotion d’un bot d’échange de cryptomonnaies.

Le malware est conçu pour voler des données personnelles et puiser dans les actifs des portefeuilles de cryptomonnaies. Les informations ainsi récupérées sont nombreuses : portefeuilles de crypto-monnaies (Bitcoin, Ethereum, Exodus, Atomic, Electrum, etc.), mots de passe enregistrés, cookies, historique de navigation, extensions de cryptomonnaies, clés SSH, fichiers stockés dans les répertoires Téléchargements, Documents, Bureau qui référencent des cryptomonnaies, informations financières…

« La campagne de logiciels malveillants CryptoAITools a de graves conséquences pour les victimes et la communauté des crypto-monnaies au sens large. Les utilisateurs qui ont mis en vedette ou forké le dépôt malveillant ‘Meme-Token-Hunter-Bot’ sont des victimes potentielles, ce qui élargit considérablement la portée de l’attaque », indique Checkmark.

La société a également découvert un dépôt GitHub, nommé Meme Token Hunter Bot, qui distribue le même malware. Le dépôt est toujours en ligne, et on peut voir qu’il a été forké une fois et mis en favori dix fois.

☕️ Apple présente ses nouveaux MacBook Pro et sa puce M4 Max

Après les iMac et le Mac mini, c’est au tour des MacBook Pro de passer à la moulinette de la puce M4. Cette fois, les portables ont accès aux trois variantes de la puce : M4, M4 Pro et M4 Max. Comme pour les générations précédentes, c’est bien sûr la version Max qui offre les meilleures performances.

La puce M4 Max comporte jusqu’à 16 cœurs : 12 performants (2 de plus que sur la version Pro) et 4 efficaces. Si le M4 Pro voyait ses cœurs GPU doubler pour passer de 10 à 20, c’est encore le cas sur la version Max, avec jusqu’à 40 cœurs GPU, soit le même nombre que dans les versions précédentes. En revanche, GPU doublé oblige, la puce intègre deux codeurs/décodeurs vidéo.

La bande passante de la mémoire reste sur 512 bits, mais passe de 410 Go/s à un maximum 546 Go/s. La puce M4 Max peut supporter jusqu’à 128 Go de RAM. On retrouve la compatibilité Thunderbolt 5. Le Neural Engine garde ses 16 cœurs. Nous reviendrons prochainement plus en détail sur les caractéristiques de cette puce.

Quant aux MacBook Pro, la présentation de la gamme n’a pas changé. On retrouve toujours six configurations de base proposées : trois en M4, deux en M4 Pro et une M4 Max. La version 14 pouces du portable peut être configurée en M4 classique ou Pro. En revanche, la version 16 pouces ne peut avoir que du Pro au minimum.

La mémoire et la taille du SSD dépendent de la machine visée. On trouve au minimum 16 Go de RAM et 512 Go de SSD sur le MacBook Pro M4 en 14 pouces. En M4 Pro, la quantité minimale de RAM passe à 24 Go, toujours en 512 Go. Quant aux versions M4 Max, il y en a deux. La première intègre une puce à 14 cœurs CPU et 32 cœurs GPU, 36 Go de RAM et 1 To de SSD, et existe en modèles 14 et 16 pouces. La seconde possède le M4 Max « complet » avec ses 16 cœurs CPU et 40 cœurs GPU, épaulés par 48 Go de RAM et 1 To de SSD, et n’existe qu’en 16 pouces.

Tous les MacBook Pro présentent de nombreuses caractéristiques communes : trois ports Thunderbolt 4 (sur les modèles M4) ou 5 (sur les modèles Pro et Max), un port HDMI, un lecteur de carte SDXC, une prise casque, un port MagSafe 3, TouchID intégré au clavier, une luminosité de 1 000 nits, une autonomie pouvant grimper jusqu’à 24 heures (contre 22 sur la génération précédente) en lecture vidéo, du Wi-Fi 6E (dommage) et du Bluetooth 5.3. Tout ce petit monde est bien sûr taillé pour Apple Intelligence.

En ce qui concerne les prix, nous ne sommes plus sur le tarif d’appel du Mac mini et ses 700 euros (qui certes n’avait ni écran ni périphériques). Le plus petit modèle de MacBook Pro M4 est vendu au prix de 1 899 euros. Quand on passe au M4 Pro, le tarif minimal devient 2 399 euros pour du 14 pouces et 2 899 euros pour du 16 pouces (mais dans une version avec plus de cœurs). Quant au M4 Max, il vous en coutera au moins 3 799 euros en 14 pouces 4 099 euros en 16 pouces.

Les précommandes sont ouvertes, pour des livraisons débutant le 8 novembre.

À noter que même si Apple ne le proclame pas, tous les MacBook Air (actuellement équipés d’une puce M3) viennent de voir leur mémoire doubler et passer à 16 Go, sans modification du tarif.

Dénonçant un manque d’investissement de Google, un développeur forke Flutter

Sans dessin acide
Dénonçant un manque d’investissement de Google, un développeur forke Flutter

La gestion de Flutter, un framework multiplateforme chez Google, semble poser problème à un nombre croissant de développeurs. Au point que Matt Carroll, anciennement employé chez Google et ayant travaillé sur le cadriciel, en a annoncé un fork.

Flutter est un kit de développement multiplateforme open source (sous licence BSD). Créé par Google, il a d’abord été conçu pour les applications mobiles, mais a pris du galon avec les années. On se souvient notamment que c’est Canonical qui s’était chargé de son portage sur Linux. La société l’a ensuite utilisé pour réécrire complètement l’installeur de la distribution Ubuntu.

Mais l’un des anciens développeurs du SDK, Matt Carroll, resté sous forme de contributeur externe, a annoncé récemment la création d’un fork. Pour rappel, le terme peut être traduit par « bifurcation » ou « embranchement ». Il est utilisé dans le cas où le code source d’un projet est copié pour servir de base à un nouveau projet. L’opération est extrêmement courante dans le monde du libre et alimente l’émulation autour du développement logiciel. Firefox a par exemple plusieurs forks : LibreWolf, Waterfox, Iceweasel…

Dans le cas présent, Matt Carroll a annoncé un fork de Flutter le 27 octobre, citant de vastes problèmes chez Google et une réduction continuelle de l’équipe. Le nom du nouveau projet ? Flock (sans rapport avec notre dessinateur).

Un trop grand nombre de problèmes

Matt Carroll fait une longue liste des problèmes observés sur ces dernières années. Son principal grief est une équipe de développement manquant singulièrement de personnel. Il l’estime à une cinquantaine de personnes (chiffre gelé en 2023), alors que le nombre de développeurs utilisant Flutter serait d’un million, une estimation basse et conservatrice selon lui. Le ratio serait alors d’un membre de l’équipe pour 20 000 développeurs, ce qui ne peut pas fonctionner, d’après Matt Carroll.

Il cite plusieurs exemples, dont le temps de traitement des tickets de support. Il affirme qu’il peut s’écouler parfois plusieurs années entre la création d’un ticket et le moment où l’équipe s’en empare pour l’examiner. Or, avec le temps, les informations qui avaient servi à le créer ont peut-être été perdues. Le développeur a pu passer à autre chose et oublier le contexte du problème signalé.

« D’après mon expérience, lorsque cela m’arrive, j’ai cessé depuis longtemps de travailler avec le client à l’origine du problème initial. J’ai écrit des centaines de milliers de lignes de code depuis lors et, souvent, je ne me souviens même pas d’avoir déposé le problème, sans parler des détails obscurs liés au problème initial. L’équipe ne peut pas corriger le bug sans mes informations, et cela fait trop longtemps que je ne lui en ai pas fournies. Le bug est donc enterré et sera redécouvert par un futur développeur », explique Matt Carroll.

L’ancien employé de Google cite également les changements de priorités dans l’entreprise, avec des yeux largement tournés vers l’intelligence artificielle. Google vient d’ailleurs de mettre en avant que plus d’un quart du nouveau code écrit par ses développeurs l’a été par une IA générative. Les plateformes desktop ne sont ainsi plus considérées comme des priorités et trois des six plateformes sont en mode maintenance. Le desktop est selon Carroll le plus grand gâchis de Flutter. Certains des bugs non corrigés étaient suffisamment importants pour que les clients changent de crèmerie.

Il est vrai que les questions autour de Flutter commençaient à s’accumuler. La dernière Google I/O en mai a renforcé les inquiétudes. De nouvelles versions avaient bien été proposées pour Flutter (3.22) et Dart (3.4), mais l’arrivée de Kotlin Multiplatform les a éclipsés. Plusieurs médias avaient noté ce changement, dont DevClass. En outre, l’ancien directeur de l’équipe Flutter, Tim Sneath (ancien transfuge de Microsoft), est parti chez Apple en juin 2023.

Le choix du fork

Matt Carroll indique que la question d’une coopération massive avec des développeurs externes aurait pu être envisagée. Le problème est cependant le même, car l’afflux des participations aurait été géré par la même équipe qui manque actuellement de main d’œuvre pour s’occuper des tickets du support. Or, la révision du code prend du temps. En outre, de nombreux développeurs auraient trouvé la communication avec l’équipe Flutter « frustrante, voire impossible ».

Que propose-t-il ? Flock, un fork de Flutter imaginé comme un catalyseur. Il décrit en effet le projet comme un « Flutter+ », non comme un remplaçant. Il espère attirer les contributions pour faire de Flock un outil dont les bugs seront corrigés rapidement, tout comme l’ajout de nouvelles fonctions.

« En d’autres termes, nous ne voulons pas, ou avons l’intention, de forker la communauté Flutter. Flock restera constamment à jour avec Flutter. Flock ajoutera d’importantes corrections de bugs et des fonctionnalités populaires de la communauté, que l’équipe de Flutter ne peut pas ou ne veut pas implémenter », indique Matt Carroll.

Dans les grandes lignes, chaque nouvelle version de Flutter verra ses nouveautés portées vers Flock. Ce dernier ira dans le sens que sa communauté de développeurs estimera la plus logique, s’occupant d’abord de tous les bugs en attente, tout en partageant le code correcteur avec l’équipe de Flutter, qui sera alors libre de l’intégrer ou non.

Sa priorité pour l’instant est de créer un miroir de Flutter pour refléter automatiquement les branches master, beta et stable. Il faudra ensuite que Flock puisse construire le moteur d’exécution. Matt Carroll invite les développeurs à participer et à tester leurs applications sur Flock. Pour l’instant, puisqu’il s’agira d’une copie miroir, elles devraient fonctionner sans modification.

Des réactions mitigées

Que ce soit sur Hacker News ou Reddit, les réactions sont en majorité négatives. Beaucoup estiment que les problèmes avancés par Matt Carroll sont réels et sérieux. Cependant, la plupart pensent que dans ce cas précis, la création d’un fork va diviser les ressources et ne servira pas.

« Mais je suis sceptique quant à sa suggestion d’accueillir de nouveaux changements dans un fork de Flutter et ainsi gagner en vitesse de développement. Cela nécessiterait des personnes qui souhaitent réellement travailler sur de nouvelles fonctionnalités. Je doute que ces personnes existent. Du moins, qu’elles existent en nombre suffisant pour qu’un fork soit plus rapide – en termes de fonctionnalités – que Google lui-même », estime par exemple l’un d’entre eux sur Reddit.

En revanche, sur X, l’annonce a créé plus d’engouement, Matt Carroll ayant répondu à de nombreuses questions, certaines très concrètes. Par exemple, Remi Rousselet se demandait hier comment gérer les paquets si Flock devient aussi populaire que Flutter : faudra-t-il que leurs auteurs supportent systématiquement les deux ? Matt Carroll lui a répondu que la conduite serait de recommander Flock pour les applications et Flutter pour les paquets. À un autre, il a répondu qu’en cas de conflit d’approche sur une fonction, la version Flock serait supprimée.

GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

Tranquille, pépère
GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

À travers sa conférence Universe, GitHub a annoncé plusieurs de nouveautés importantes à destination des développeurs. Le projet Spark, par exemple, ambitionne l’écriture des applications réalisée entièrement par l’IA. Le fameux Copilot s’ouvre également à d’autres modèles et outils de la concurrence, ainsi que de plusieurs améliorations significatives.

GitHub a fait son show hier lors de sa conférence Universe. Comme de nombreuses autres entreprises, elle tient une grand-messe annuelle pour y présenter ses nouveautés. Une manière bien sûr d’attirer l’attention avec un tir groupé. Et on peut dire que GitHub a tiré tous azimuts.

Lorsque GitHub a lancé son Copilot – initiant une vague d’autres Copilot chez Microsoft, qui possède GitHub – les développeurs ont pu commencer à compléter leurs lignes de code par des suggestions. Lors d’une évolution suivante, ce sont des pans de code entiers qui ont pu être ajoutés, toujours sous la supervision des développeurs. C’est à ce moment-là que deux questions sont apparues : le code suggéré n’enfreint-il pas le droit d’auteur (via son entrainement sur les dépôts publics) ? À quand l’intégralité du code d’un projet suggérée par Copilot ?

Si la première question a trouvé réponse dans plusieurs plaintes, la seconde était dans l’attente. Avec Spark, GitHub a fini par y répondre.

Une petite application en langage naturel

Selon GitHub, Spark est né comme un projet de recherche dans son laboratoire GitHub Next. La question était posée : peut-on obtenir une application complète en décrivant simplement ce que l’on souhaite en langage naturel ? La réponse est : oui.

On commence par un premier prompt définissant dans les grandes lignes ce que l’on veut obtenir, sachant que Spark se destine plutôt aux petits projets pour l’instant. Les projets eux-mêmes peuvent viser des applications web, natives ou mobiles. Après cette première demande, Spark affiche un aperçu général de l’application. Le développeur peut alors compléter au fur et à mesure ses requêtes pour préciser un nombre plus ou moins importants de détails du fonctionnement.

Le code reste toujours accessible et peut donc être modifié. Selon GitHub, Spark permet surtout d’explorer des idées au travers de micro-applications. Il peut s’agir de petits outils pour s’aider au quotidien dans des tâches spécifiques, de petits robots ou agents pour traiter certaines informations. À TechCrunch cependant, GitHub a confirmé qu’il n’y avait a priori pas de limites à ce que l’on pouvait demander à Spark. L’outil, fourni pour l’instant en avant-première, accepte a priori toutes les entrées, mais ses capacités seront peut-être resserrées une fois le produit disponible en version finale.

Le potentiel de Spark semble conséquent, puisque l’outil peut utiliser n’importe quelle API web. En outre, il va profiter de l’ouverture de GitHub à d’autres modèles et outils.

GitHub s’ouvre à d’autres modèles

L’interface de « discussion » avec GitHub Copilot est basée depuis le début sur GPT, la version actuelle utilisant GPT4. Ce n’est pas étonnant, puisque l’on se situe toujours dans la galaxie Microsoft. Cependant, cette exclusivité va prendre fin.

GitHub a en effet annoncé hier que Copilot allait pouvoir être utilisé avec d’autres modèles d’IA générative. Claude 3.5 Sonnet aura les honneurs de commencer très prochainement. Gemini 1.5 Pro devrait suivre dans quelque semaines. GPT-4o, o1-preview et o1-mini et d’OpenAI suivront également.

L’entreprise dit croire au choix pour les développeurs, un seul modèle n’étant pas idéal dans tous les cas de figure. Selon les besoins, la politique d’entreprise, les langages de programmation ou encore les préférences personnelles, le choix d’un modèle ou d’un autre peut faire une grande différence. Dans notre cas, nous avons par exemple utilisé Claude pour créer un grand tableau permettant de calculer les abonnements à l’électricité les plus intéressants, en fonction de votre consommation horaire sur un an (chiffres obtenus par le Linky via le site d’Enedis).

Mais attention : ce choix ne va être offert dans un premier temps que sur Copilot Chat et Spark. GitHub compte bien le répercuter sur l’ensemble de ses outils, mais n’a fourni aucune information sur le délai.

GitHub s’ouvre à Xcode, un timing intéressant

Au sein de GitHub, Copilot représente toujours un produit central. À l’occasion de la conférence Universe, il reçoit plusieurs nouveautés, dont une ouverture à Xcode, l’environnement de développement intégré d’Apple.

Même s’il s’agit d’une préversion publique et qu’il reste donc du travail, le mouvement est intéressant à plus d’un titre. D’abord, parce que les développeurs sur Mac seront probablement intéressés par l’arrivée d’un composant entré dans les habitudes de bon nombre d’entre eux sur d’autres plateformes. Même si cette préversion se focalise d’abord et avant tout sur la complétion du code, d’autres fonctions arriveront par la suite.

Ensuite, parce qu’Apple vient de donner le coup d’envoi de son bouquet de services Apple Intelligence. Or, sur macOS Sequoia 15.1, Xcode peut profiter de l’assistant maison pour produire le même type de résultat. Mais là où l’assistant d’Apple est neuf et a encore tout à prouver, Copilot arrive avec une expérience de plusieurs années dans le domaine.

« Il s’agit d’une étape majeure dans notre mission permanente visant à faire de Copilot un outil essentiel pour les développeurs sur une grande variété de plateformes. Désormais, les développeurs Apple peuvent bénéficier de la même assistance intelligente au codage, intégrée de manière transparente dans leur IDE préféré », indique ainsi GitHub dans son communiqué.

Prenant en charge les langages Objective-C et surtout Swift, le Copilot de GitHub pourrait donc couper l’herbe sous le pied d’Apple. À ceci près qu’Apple n’a pour l’instant affiché aucun tarif pour ses fonctions alimentées par l’IA générative. Beaucoup se demandent d’ailleurs si la firme pourra longtemps proposer gratuitement ses services, au vu des investissements colossaux nécessaires, que ce soit pour l’entrainement des modèles, la puissance nécessaire ou l’infrastructure mise en place. Apple en a d’ailleurs récemment détaillé la sécurité, proposant jusqu’à un million de dollars aux chercheurs qui parviendraient à exécuter un code arbitraire dans son Private Cloud Compute.

L’arrivée officielle de Copilot sur Xcode devrait mettre un sérieux frein à certains projets tiers, comme l’extension Copilot for Xcode, disponible sous licence MIT.

D’autres apports pour Copilot

À côté des annonces importantes, on trouve également d’autres nouveautés pour Copilot. Dans VS Code, Copilot Chat permet par exemple désormais de modifier plusieurs fichiers à la fois, dans le cadre de projets plus complexes. Il propose aussi une fonction permettant d’examiner le code pour obtenir des informations complémentaires. À noter la possibilité de personnaliser les instructions à Copilot Chat pour lui pointer les outils préférés par une personne ou une structure (comme une entreprise), ainsi que les connaissances organisationnelles.

GitHub a en outre donné quelques informations sur les fameuses extensions, qui permettent de personnaliser les demandes pour tenir compte d’un contexte particulier. Plusieurs d’entre elles ont été créées par Atlassian, Docker ou encore Stack Overflow, mais sont toujours en préversions.

On sait à présent que les versions finales seront lancées en début d’année prochaine, mais il n’y a pas encore de date précise. Dans la foulée, toute personne, entreprise ou autre structure pourra créer ses propres extensions, la capacité n’étant plus liée à quelques partenaires triés sur le volet.

☕️ Firefox 132 : streaming 4K, large gamme de couleurs et SVG accéléré

Nouvelle mouture pour Firefox, avec des améliorations notables à la clé. Le DRM PlayReady de Microsoft est ainsi supporté. Sur les sites de streaming compatibles, le 1080p devient alors la qualité minimale, pouvant grimper jusqu’à la 4K.

Autre ajout notable, le support du Wide Color Gamut WebGL pour Windows et macOS, permettant des couleurs plus riches pour les contenus. « Cette implémentation prend actuellement en charge des profils de couleurs plus larges (P3) en 8 bits », précise Mozilla.

L’accélération matérielle dans WebRender prend également en charge un plus grand nombre de primitives de filtres SVG : feBlend, feColorMatrix, feComponentTransfer, feComposite, feDropShadow, feFlood, feGaussianBlur, feMerge et feOffset. Les contenus « à forte composante graphique » seront donc plus fluides.

Logo de la fondation Mozilla

Mozilla ajoute en outre le support des fonctions de partage d’écran introduites dans les derniers macOS. La compatibilité commence avec la version 15 (l’actuel Sequoia), puis sera répercutée sur la précédente, Sonoma, dans une prochaine mouture. Firefox prend aussi mieux en charge la reprise de session après redémarrage du Mac, quand l’option de réouverture des applications est active.

On note également un changement important sur le comportement du mode Strict pour la Protection renforcée, puisque l’accès aux cookies tiers est désormais bloqué.

Signalons enfin plusieurs améliorations liées à la sécurité. Les favicons (icônes des sites apparaissant dans les onglets ou dans les marque-pages) ne peuvent désormais plus être reçues que si elles sont délivrées via HTTPS. De plus, la fonction « Copier sans le pistage du site » (via le clic droit sur l’URL) a été renforcée pour inclure plus de paramètres. Elle est en outre grisée si aucun paramètre n’est trouvé dans le lien.

Quant aux failles de sécurité, Firefox 132 en corrige onze, dont deux critiques.

Cloud, lobbying : rien ne va plus entre Microsoft et Google

spiderman-meme.jpg
Cloud, lobbying : rien ne va plus entre Microsoft et Google

Dans une publication lundi soir, Microsoft a accusé Google de préparer une guerre « clandestine » contre ses offres Azure. La société de Mountain View serait directement à l’origine de l’Open Cloud Coalition – officielle depuis quelques heures – pour faire du lobbying en Europe et influencer l’opinion.

Rien ne va plus entre Microsoft et Google. Les deux entreprises s’affrontent depuis des années sur le cloud mais, en parts de marché, Microsoft est loin devant Google, tandis qu’Amazon Web Services détient toujours la première place dans le monde.

Dans un communiqué publié lundi, Microsoft révèle d’étranges informations. La société accuse sa concurrente d’être derrière l’Open Cloud Coalition (OCC), tout juste lancée. « La mission de l’OCC est de promouvoir l’ouverture, l’interopérabilité et la concurrence loyale dans le paysage du cloud, en favorisant un écosystème du cloud plus innovant, transparent, résilient et sécurisé qui profite aux clients du Royaume-Uni, de l’UE et d’ailleurs », indique ainsi la nouvelle coalition.

Google, Civo, Centerprise International, Gigas, ControlPlane, DTP Group, Prolinx, Pulsant, Clairo et Room 101 en sont les dix membres. Cette coalition est dirigée par Nicky Stewart, auparavant à la tête de la société britannique UKCloud.

L’avocate de Microsoft, Rima Alaily, qualifie les futures activités de l’OCC comme de « l’astroturfing », soit de la désinformation populaire orchestrée. Selon Microsoft, cette coalition semble dirigée par « une poignée de fournisseurs européens de services en nuage » intéressés par la transparence sur le marché du cloud, mais qui auraient en réalité été recrutés par Google pour lui servir de caisse de résonance. Google aurait payé ces entreprises pour mener une autre forme du combat qu’elle tente de mener contre Microsoft.

« Campagnes obscures »

Toujours selon le père de Windows, cette Open Cloud Coalition ne serait qu’un élément parmi plusieurs « campagnes obscures » directement ou indirectement financées par Google. L’objectif général de ces campagnes serait de brouiller les pistes et d’influencer l’opinion sur tout ce qui touche aux procédures antitrust. Celles-ci, aux États-Unis, sont d’ailleurs renforcées depuis l’arrivée de Lina Khan à la tête de la Federal Trade Commission.

« Google s’est donné beaucoup de mal pour dissimuler son implication, son financement et son contrôle, notamment en recrutant une poignée de fournisseurs européens de services d’informatique en nuage pour servir de visage public à la nouvelle organisation. Lorsque le groupe sera lancé, Google se présentera vraisemblablement comme un membre de second plan plutôt que comme le chef de file », affirme Microsoft au sujet de la nouvelle coalition. L’entreprise estime que Google a pu offrir des avantages sous forme d’argent ou de remises. Dans le groupe, Google n’apparait que comme un membre parmi les autres.

Cette stratégie de Google serait l’héritage direct de son essai manqué avec le CISPE (Cloud Infrastructure Services Providers in Europe). Ce dernier avait en effet déposé plainte en novembre 2022 contre Microsoft, fustigeant les conditions et tarifs de ses produits pour les exécuter dans d’autres environnements qu’Azure.

Seulement, Microsoft a fini par négocier, aboutissant à un accord très critiqué avec le CISPE. En plus d’un paiement de 22 millions de dollars, Microsoft s’était engagée à participer à un observatoire permettant de suivre l’évolution de plusieurs de ses produits. Le 16 juillet, Bloomberg affirmait également que Google avait tout fait pour enjoindre le CISPE à refuser cet accord et à continuer la bataille. La firme aurait proposé jusqu’à 470 millions de dollars, ce que le CISPE aurait refusé. Une décision « sage », selon Microsoft.

Cette dernière trace un parallèle entre l’Open Cloud Coalition et la Coalition for Fair Software Licensing (CFSL), toujours pour du lobbying (États-Unis, Royaume-Uni et Europe). Selon Microsoft, Google en est le principal soutien financier. Contacté par Ars Technica, Ryan Triplette, président de la CFSL, indique au contraire que Google est un soutien public depuis plus de deux ans. Interrogé sur l’accusation de Microsoft sur son statut de lobbyiste chez Google auparavant, Triplette a répondu qu’il s’agissait d’une « étrange critique » : « tout le monde dans le domaine du droit, de la politique, etc. a travaillé pour Google, Microsoft ou Amazon à un moment donné, à un titre ou à un autre ».

Détourner l’attention

Pour Microsoft, il n’y a pas de doute : « Jamais, au cours des deux dernières décennies, les monopoles de Google en matière de recherche, de publicité numérique et de magasins d’applications mobiles n’ont fait l’objet d’une menace aussi concertée et déterminée qu’aujourd’hui. Selon nos estimations, au moins 24 enquêtes antitrust ont été ouvertes à l’encontre de Google sur les principaux marchés numériques du monde ».

La tactique actuelle servirait donc deux objectifs : détourner l’attention et, bien sûr, récupérer les restes en cas d’impact concret. Et, pour cela, Google aurait donc monté son propre CISPE, engageant « une agence de lobbying et de communication en Europe pour créer et gérer l’organisation ».

Le tout se ferait en parallèle de la plainte déposée en septembre devant la Commission européenne contre Microsoft pour pratiques abusives. La communication de Google était à cette occasion devenue ronflante.

Faisant référence à la panne CrowdStrike, la société de Mountain View avait déclaré : « Comme l’a montré la panne de sécurité massive survenue il y a deux mois, les tactiques de verrouillage de Microsoft peuvent aboutir à un point de défaillance unique qui nuit aux entreprises, aux industries et aux gouvernements ». Un incident certes grave, mais dont Microsoft n’était pas à l’origine et qui, surtout, ne concernait pas le cloud ni même les serveurs.

Microsoft accuse également Google de vouloir noyer le poisson en se faisant passer pour un petit acteur, bien loin d’un AWS ou d’un Microsoft. Cette dernière insiste – sans doute avec beaucoup de plaisir : cela est peut-être vrai en matière de parts de marché, mais pas en termes de moyens, puisque Google serait première au classement des centres de données.

Comment Microsoft a-t-elle appris tout ça ? L’entreprise explique que l’un des fournisseurs européens approchés par Google aurait refusé et l’en aurait averti. Aucun nom n’est donné.

Que se passe-t-il ?

Il ne fait aucun doute que Microsoft a voulu couper l’herbe sous le pied de la nouvelle coalition, pour présenter ses actions sous un mauvais jour. Mais le communiqué de Microsoft est également un exercice de communication, même si c’est la première fois que l’entreprise adopte un ton aussi offensif.

Difficile pour l’instant de savoir ce qu’il s’est passé. Microsoft semble avoir été piquée au vif par sa concurrente. Cependant, la société passe elle-même par des coalitions et alliances, comme l’European Cloud Alliance. Microsoft pourrait simplement avoir été fâchée d’apprendre que les activités du CISPE allaient ressurgir sous une autre forme, alors qu’elle pensait en avoir terminé.

« Nous avons fait part publiquement de nos inquiétudes concernant les licences de Microsoft pour le cloud. Nous pensons, comme beaucoup d’autres, que les pratiques anticoncurrentielles de Microsoft verrouillent les clients et créent des effets négatifs en aval qui ont un impact sur la cybersécurité, l’innovation et le choix. Vous pouvez en savoir plus dans nos nombreux billets de blog sur ces questions », a simplement réagi Google auprès d’Ars Technica.

Et en France ? Interrogée, OVHcloud ne cache pas un certain agacement : « Il nous apparaît regrettable que les débats actuels semblent se concentrer sur la forme et les modalités d’action des acteurs plutôt que sur l’amélioration concrète de la situation pour les utilisateurs du cloud. Nous souhaitons que ces acteurs mettent fin aux pratiques préjudiciables qui enferment les utilisateurs du cloud. »

Du côté de Clever Cloud, on sourit : « Ce spectacle est à la fois ironique et révélateur. Ironique, car ces géants américains qui s’affrontent aujourd’hui n’ont jamais brillé par leur attachement à une concurrence libre et non faussée. Révélateur, car ils confirment ce que nous savions déjà : l’Europe est le terreau idéal pour l’émergence d’un cloud équitable pour le consommateur. Mais cette transformation ne viendra pas de ces entreprises. C’est à nous, industriels européens, qu’il revient de faire de cette opportunité une réalité, de faire comprendre à nos dirigeants, dans chaque pays de l’Union, l’importance stratégique qu’elle représente. C’est précisément cette vision qui anime Clever Cloud : construire jour après jour un écosystème souverain, compétitif et ouvert », a ainsi réagi Quentin Adam, CEO de Clever Cloud.

Comment Google pousse les fabricants vers sept ans de mises à jour Android

Treble, la situation est grave
Comment Google pousse les fabricants vers sept ans de mises à jour Android

Google pousse les constructeurs vers un support allongé pour leurs appareils, qui peuvent recevoir jusqu’à sept ans de nouvelles versions majeures d’Android. Cette bascule n’est pas simple, même si elle semble mettre un terme à la complexité actuelle. Ce support allongé va d’abord passer par le haut de gamme, via notamment le Snapdragon 8 Elite récemment présenté.

Android a depuis longtemps un problème de fragmentation. Depuis de nombreuses années, les constructeurs de smartphones prennent peu au sérieux la longévité de leurs produits, n’offrant que peu de mises à jour. L’exception se trouvait dans les modèles haut de gamme, qui pouvaient recevoir des versions majeures d’Android plus longtemps. Au-delà de ces dernières, il était surtout question des mises à jour de sécurité mensuelles, abandonnées trop vite sur de nombreux modèles d’entrée de gamme. Or, un smartphone ou une tablette sans mises à jour de sécurité représente un trop grand danger pour être encore utilisé.

La situation change progressivement. On l’a vu avec les Pixel et le haut de gamme de Samsung, des modèles commencent à être livrés avec sept ans de mises à jour mineures et majeures. Google veut inspirer le marché, d’autant que les lois s’apprêtent à se durcir, notamment en Europe.

Ces dernières années, Google a également beaucoup travaillé à rendre la maintenance des appareils plus simple pour les constructeurs. Une conséquence directe de la stratégie Android pratiquée jusque-là, qui donne de nombreuses libertés aux constructeurs dans le choix des composants et de l’utilisation d’Android. Plus il y a de modèles, plus il faut dépenser de ressources pour entretenir des configurations très différentes.

Une première étape avec le projet Treble

Face à ce constat, Google avait présenté le projet Treble. Il s’agissait alors de simplifier la chaine logistique allant de la disponibilité d’une mise à jour Android à son installation concrète par l’utilisateur. Et pour cause : il fallait que des fabricants de puces testent la compatibilité du nouveau code avec leurs produits, que les constructeurs de smartphones en fassent autant avec leurs appareils, voire que les opérateurs mettent leur grain de sel.

Treble a marqué une importante rupture dans ce modèle. Pour la première fois, Google séparait le système d’exploitation proprement dit de ses Play Services. Cette séparation devait permettre aux constructeurs de ne vérifier la compatibilité de code mis à jour que sur les composants strictement nécessaires du système, sans toucher à l’implémentation d’origine par le constructeur.

Ce fut un premier changement salvateur, car Google a déplacé petit à petit un nombre croissant de composants logiciels cruciaux dans ses Services. Aussi, sur les appareils ne pouvant plus prétendre aux versions annuelles d’Android, les Play Services continuaient à se mettre à jour pendant plusieurs années, limitant un peu le problème de fragmentation.

Un déplacement de la complexité

Si cela a l’air simple en apparence, la réalité est tout autre. Non seulement le projet Treble est complexe dans ses objectifs, mais il l’a aussi été dans sa mise en application. Il a fallu également que Google puisse maintenir une compatibilité ascendante pour toutes ses versions Android. Pas question en effet qu’une nouvelle mouture du système vienne réduire à néant les implémentations réalisées par les constructeurs sur la version précédente.

Toute la complexité du processus de suivi des mises à jour s’est en fait déplacée. Les constructeurs se sont surtout mis à attendre les retours des fournisseurs de composants. Ces derniers doivent en effet fournir une implémentation compatible pour chaque version d’Android en circulation sur chaque appareil. Ce qui inclut à la fois les versions majeures (quand le noyau Linux change par exemple) ou les versions intermédiaires, par exemple quand Google modifie une couche d’abstraction matérielle (HAL) pour introduire une nouveauté.

Si Treble a simplifié le processus pour les constructeurs, il l’a donc rendu plus complexe pour les fournisseurs de composants… dont dépendent les constructeurs. À moins d’être dans le cas de Google et de fournir directement ses propres composants, comme l’entreprise l’a fait en introduisant sa série Tensor. Une maitrise du matériel et du logiciel qui a valu pendant de longues années la palme de la longévité aux iPhone, maintenus pendant au moins cinq ans pour les versions majeures d’iOS, ainsi qu’une année supplémentaire pour les correctifs de sécurité. Apple s’est depuis fait voler la vedette.

Google Requirements Freeze, la deuxième moitié du puzzle

Google s’est rapidement aperçue du problème. L’entreprise a donc introduit fin 2020 un autre projet. Baptisé Google Requirements Freeze (GRF), il a étendu les grands principes de Treble aux SoC des appareils mobiles. GRF a introduit un très gros changement dans Android : les changements opérés dans le noyau Linux et/ou les couches d’abstraction matérielle ne peuvent plus être répercutés sur d’anciennes implémentations. Il n’y a plus de rétroactivité, alors qu’elle était obligatoire avec Treble.

Voici un exemple, pour mieux comprendre. Un fournisseur de composant propose un nouveau SoC prenant en charge Android 12. Avec GRF, l’implémentation réalisée par le fournisseur est garantie jusqu’à N+3, donc Android 15. Dans cet intervalle, toutes les mises à jour Android proposées, même les plus importantes dans les versions majeures, peuvent se faire en réutilisant l’implémentation initiale faite pour Android 12. D’où le nom de « Freeze », Google gelant littéralement ses exigences.

Le programme GRF a permis de simplifier le passage à trois ans de mises à jour d’Android, puis autant de correctifs de sécurité seuls. Il était possible d’étendre le support à sept ans, mais à la condition de payer le fournisseur de SoC pour un travail supplémentaire de prise en charge. C’est ce qu’explique Android Authority, donnant l’exemple de Samsung avec sa ligne Galaxy S24 lancée en début d’année.

Un director’s cut de GRF

Désormais, il faut parler de Longevity GRF. Une version longue du programme initial qui propose directement sept années de mises à jour. Plus spécifiquement, il autorise la réutilisation du logiciel d’un SoC pour sept évolutions majeures d’Android, au lieu des trois actuelles. Un changement majeur, car cela permet à un smartphone lancé sous Android 15 de pouvoir être mis à jour jusqu’à Android 22.

Il ne s’agit donc plus d’exceptions comme les Pixel 8/9 ou encore les Samsung Galaxy S24, mais d’une règle commune, applicable par l’ensemble des constructeurs. Il y a cependant une condition importante : il faut que la société proposant le SoC accompagne ce dernier de cette « garantie ». Or, à l’heure actuelle, seul le Snapdragon 8 Elite, présenté la semaine dernière par Qualcomm, est compatible. En théorie, tout appareil qui en sera équipé pourra recevoir les précieuses nouvelles versions d’Android.

Une condition, une limite et un problème

Si ce gel prolongé est un énorme progrès en matière de longévité des appareils, il y a cependant une grosse condition à respecter : mettre à jour la version du noyau Linux après trois ans, car les versions fournies par Android ne sont supportées que quatre ans. Le décompte commence à partir de la version 6.6 fournie avec Android 15. Si les constructeurs ne le font pas, ils devront s’occuper eux-mêmes de porter les modifications de sécurité sur l’ancienne version utilisée par leurs appareils.

Il y a une autre limitation : Google interdit qu’une implémentation pour un SoC soit utilisée au-delà de sa quatrième année pour équiper un nouvel appareil avec le dernier Android. En 2028, par exemple, il ne sera pas possible d’utiliser l’implémentation actuelle du Snapdragon 8 faite pour Android 15 dans un nouvel appareil conçu autour d’Android 19. Ceci pour éviter que l’ancienne implémentation ne soit pas sans cesse reprise par un constructeur. Sur Android Authority, Mishael Rahman a résumé les informations dans le tableau suivant :

Cette longévité simplifiée, qui demandera tout de même quelques travaux, surtout en milieu de cycle de vie, s’accompagne également d’un problème. Les constructeurs vont en effet pouvoir proposer des mises à jour sur 7 à 8 ans, sans plus devoir payer de support allongé aux fournisseurs de SoC. Cependant, cela se fait au détriment d’un gel des couches d’abstraction matérielle. Si Google introduit des nouveautés ayant besoin d’une telle modification, elles ne seront répercutées qu’au bon vouloir des fournisseurs de composants et des constructeurs. Par exemple, Android 13 a ajouté une API permettant de modifier la luminosité de la fonction lampe de torche.

Rahman ajoute que ces informations ne sont pas publiques, qu’elles lui ont été communiquées par une source anonyme et que certains détails pourraient donc lui avoir échappé. Cependant, elles sont en phase avec les mouvements de l’industrie observés depuis l’automne 2023, jusqu’à la présentation du Snapdragon 8 Elite. La longévité des appareils devrait donc bien devenir un argument de vente, mais il n’est pas certain qu’il le soit pour toutes les gammes. D’autant que seul le dernier fleuron de Qualcomm est pour l’instant compatible. Mais cette permissivité semble bien être l’aboutissement des objectifs fixés par Treble il y a six ans.

Apple Intelligence en Europe en avril 2025, iOS 18.1 disponible, nouveaux iMac M4

Where is Brian ?
Apple Intelligence en Europe en avril 2025, iOS 18.1 disponible, nouveaux iMac M4

Apple a procédé hier soir à une série d’annonces, dont ses premiers Mac avec puce M4 et la disponibilité des dernières révisions de ses systèmes. Mais c’est surtout l’arrivée d’Apple Intelligence en France en avril qui a retenu l’attention.

Depuis hier soir, les mises à jour iOS 18.1, iPadOS 18.1 et macOS 15.1 sont diffusées à tous les appareils compatibles. Entre autres nouveautés, ils activent le premier tronçon des fonctions Apple Intelligence.

Peut-on en profiter dès maintenant ? Oui et non, car il faudra surtout attendre avril.

Apple Intelligence : Qui ? Comment ? Quoi ?

Apple Intelligence est officiellement disponible sur l’ensemble des Mac compatibles (puce M1 et 8 Go de RAM au moins), les ordinateurs d’Apple n’étant pas soumis au DMA. Il y a malheureusement une condition : les machines doivent être configurées en anglais, seule langue disponible pour le moment.

Si l’anglais ne vous fait pas peur, rendez-vous dans Réglages > Général. Là, vous verrez une ligne « Langue et région ». Dans le haut de la fenêtre, appuyez sur « + » pour ajouter une langue. Cherchez la ligne English (US), car c’est la seule variante acceptée actuellement pour Apple Intelligence. Validez l’ajout puis confirmez que vous voulez utiliser cette langue pour le système. Un redémarrage sera ensuite requis.

Direction ensuite la section Apple Intelligence & Siri dans Réglages, devenus System Settings. Sur la ligne Language, il faut également changer pour « English (United States) », déclenchant un petit téléchargement pour la langue. À ce moment, un nouveau bouton apparait en haut du panneau, permettant de rejoindre la liste d’attente. Dans notre cas, une notification est apparue moins d’une heure après pour prévenir que les fonctions étaient prêtes.

Cliquer sur la notification a renvoyé vers la section Apple Intelligence de System Settings. Ne resterait plus qu’à cliquer sur « Turn on » pour activer les fonctions. S’ensuit une courte présentation des apports, essentiellement deux pour l’instant : les outils d’écriture (reformulation, résumé…) et le nouveau Siri, avec un phrasé plus naturel. Avec une limitation à l’anglais, les outils d’écriture ne fonctionneront que sur des textes dans cette langue. Même chose pour Siri, tout devra se faire en anglais.

Notez que vous pouvez revenir en français à n’importe quel moment, moyennant un redémarrage. Apple Intelligence cessera alors de fonctionner.

Et le français ? Et les iPhone ?

C’est sans doute la plus grosse annonce d’hier soir : Apple Intelligence arrivera en Europe en avril prochain et avec lui le français.

« Les utilisateurs de Mac dans l’UE peuvent accéder à Apple Intelligence en anglais (États‑Unis) avec macOS Sequoia 15.1. En avril, les fonctionnalités d’Apple Intelligence commenceront à être déployées pour les utilisateurs d’iPhone et d’iPad dans l’UE. Cela inclura de nombreuses fonctionnalités clés d’Apple Intelligence, notamment les Outils d’écriture, Genmoji, un Siri repensé avec une compréhension linguistique plus riche, l’intégration de ChatGPT, et bien plus encore », précise ainsi Apple dans son communiqué de presse. Dans une note, la firme indique le français fera partie des langues supportées.

C’est bien la version complète des services qui sera alors diffusée, sans doute avec iOS 18.4.

iOS/iPadOS 18.1, macOS 15.1 et les autres

Les nouvelles versions « .1 » des derniers systèmes d’Apple intronisent donc Apple Intelligence, ainsi que quelques autres apports.

Sur iOS 18.1, on trouve ainsi la possibilité d’enregistrer en temps réel les appels téléphoniques classiques et FaceTime audio. Apple précise que cet enregistrement est « automatiquement annoncé ». Nous n’avons cependant pas trouvé la fonction dans nos tests. Il y a peut-être des conditions à respecter (un certain type d’appareil, une compatibilité Apple Intelligence…), mais elle n’est pas mentionnée par Apple.

Parmi les autres nouveautés, plusieurs concernent le Centre de contrôle. Plusieurs boutons dédiés font ainsi leur apparition pour le cellulaire, le VPN et le Wi-Fi, permettant d’influer sur ces réglages sans passer par le dossier qui les contient. Deux autres sont également disponibles pour appeler l’application Mesure. Enfin, une option permet de réinitialiser le Centre à ses paramètres par défaut, supprimant toute personnalisation.

Plus visible, une amélioration permet aux notifications d’afficher un petit chiffre sur les piles, indiquant combien la pile en contient. Un ajout tout simple, mais si évident que l’on se demande pourquoi il n’est pas arrivé avant. Le chiffre apparait en haut à droite de l’icône à gauche des notifications. On peut cependant lui reprocher sa taille, l’information est si petite qu’elle pourrait passer inaperçue.

On trouve également un passage rapide à la caméra TrueDepth avant sur la gamme iPhone 16, la possibilité de prendre des photos et vidéos spatiales sur la gamme iPhone 15, la compatibilité avec les fonctions dédiées à l’audition sur les AirPods Pro 2 (qui reçoivent un nouveau firmware), ainsi que diverses corrections de bugs.

Sur macOS 15.1, le programme est nettement moins riche. Sorti d’Apple Intelligence, le seul nouvel apport réellement visible est l’arrivée d’une option permettant d’installer les applications de plus de 1 Go sur un autre volume. La mise à jour corrige également plusieurs dizaines de failles de sécurité. Celles-ci sont également colmatées par les versions de macOS 14.7.1 et 13.7.1, disponibles pour les machines plus anciennes.

Les iMac passent à la puce M4

Comme prévu, les premières machines à passer à la moulinette M4 sont les iMac. Le renouvellement se fait essentiellement par la puce (qui remplace le M3 de l’iMac précédent) et le passage à 16 Go de mémoire par défaut. Soit ce que les rumeurs en annonçaient. Le format reste le même, tout comme les couleurs disponibles, la répartition de la gamme et la dalle, qui reste de 24 pouces en 4,5K.

Le premier modèle propose ainsi un M4 contenant 8 cœurs CPU et 8 cœurs GPU pour 1 499 euros, un tarif légèrement en baisse. En revanche, comme précédemment, il n’y a que deux ports Thunderbolt/USB4 et pas d’Ethernet. À 1 749 euros, la seconde configuration passe à 10 cœurs CPU et 10 cœurs GPU, quatre ports Thunderbolt/USB4 et un port Gigabit Ethernet. Le clavier Magic Keyboard récupère Touch ID. Toutes les configurations sont fournies avec un SSD de 256 Go et mettent en avant la compatibilité Apple Intelligence.

À noter que tous les accessoires désormais fournis avec ces Mac abandonnent le port Lightning pour l’USB-C. Les précommandes sont ouvertes, pour des livraisons qui commenceront le 8 novembre.

Apple détaille la sécurité de son architecture IA et veut séduire les chercheurs

Qui veut gagner des millions ?
Apple détaille la sécurité de son architecture IA et veut séduire les chercheurs

Apple lancera la semaine prochaine son bouquet de services Apple Intelligence, dans le sillage d’iOS 18.1 et d’autres évolutions de ses plateformes. Dans un billet publié le 24 octobre, la firme explique plusieurs éléments de sécurité sur son cloud privé. Elle annonce également de fortes récompenses pour les hackers et chercheurs qui réussiraient à s’introduire, voire à exécuter du code.

Lors de la dernière WWDC en juin, Apple a présenté son très attendu bouquet Apple Intelligence. Attendue parce que depuis l’explosion de l’IA générative, l’entreprise était restée muette. De nombreuses fonctions ont été annoncées, mais avec une compatibilité limitée. Seuls les iPhone 15 Pro, les iPad équipés au moins d’une puce A17 Pro et les Mac dotés d’un M1 ou plus prennent en charge Apple Intelligence. Nous avions émis l’hypothèse que les radineries de la société sur la mémoire vive l’avaient « coincée », l’obligeant à ne sélectionner que les appareils qui possèdent au moins 8 Go.

Durant la présentation, certains points n’étaient pas très clairs et ne le sont toujours pas. Un en particulier : la quantité de demandes qui passeront par les serveurs. La société avait expliqué qu’une partie des requêtes s’exécuterait localement, tandis que les autres passeraient par ses serveurs. Ces derniers sont constitués uniquement de Mac Apple Silicon et s’exécutent selon l’entreprise dans un environnement sécurisé.

Une sécurité sur laquelle Apple en dit plus dans son billet.

Un accent sur la sécurité

Le Private Cloud Compute (PCC) représente l’architecture mise en place par Apple pour gérer les demandes réclamant un calcul intensif. Il s’agit donc de l’infrastructure qui va s’occuper des requêtes quand celles-ci réclament une trop grande puissance. On ne sait pas en revanche où se situe la frontière, l’entreprise indiquant simplement que son service s’exécute localement « dans la mesure du possible ».

Parallèlement à son billet, Apple a publié une documentation dans laquelle elle explique les grandes lignes du fonctionnement de son PCC. Apple évoque des « protections révolutionnaires en matière de confidentialité et de sécurité ».

On y apprend que le PCC doit fournir des calculs sans état sur les données personnelles. Ces dernières ne doivent donc être utilisées que pour fournir une réponse, après quoi les copies sont supprimées pour ne pas laisser de trace, y compris pour le débogage ou la journalisation. Les composants du PCC doivent également pouvoir être contraints et analysés. Aucune interface ne doit être disponible, de sorte que même le personnel ne puisse voir les données, même pendant des pannes ou incidents.

Pas de fenêtre sur les données

Dans certains cas, note Apple, les données de l’utilisateur seront mises en cache, par exemple si la demande suppose un nouvel accès rapidement après le précédent. Le fonctionnement du PCC sera préservé par le contrôle des clés cryptographiques : « le PCC mettra en cache les données chiffrées avec une clé fournie par l’appareil de l’utilisateur et effacera sa propre copie de cette clé après la demande. Le PCC ne pourra donc déchiffrer les données mises en cache que si l’appareil de l’utilisateur envoie une autre demande comprenant la clé de déchiffrement du cache », explique Apple.

En outre, l’un des objectifs est – bien sûr – d’empêcher les pirates d’aller piocher des données personnelles sans compromettre l’intégralité du système. Enfin, et c’est une nouveauté, Apple met en avant la transparence : « les chercheurs en sécurité doivent pouvoir vérifier, avec un degré de confiance élevé, que nos garanties en matière de protection de la vie privée et de sécurité pour la PCC correspondent à nos promesses publiques ».

L’ouverture aux chercheurs

En dépit des explications données par Apple, on pourrait répondre que ces objectifs sont peu ou prou les mêmes que chez d’autres prestataires de services. Après tout, elle a tout intérêt à communiquer sur l’énergie dépensée dans cette architecture, afin d’inspirer la confiance. L’entreprise veut cependant faire la différence avec un degré important d’ouverture aux chercheurs.

Pour y parvenir, elle propose donc un Virtual Research Environment (VRE). Disponible dans la dernière préversion de macOS 15.1 (pour les Mac Apple Silicon avec au moins 16 Go de mémoire), il permet la création d’un environnement virtuel fonctionnant comme un nœud du PCC. Apple explique qu’il s’agit du même logiciel « avec quelques modifications mineures », le processus de démarrage et le noyau étant « adaptés à la virtualisation ». Le VRE contient même un processeur virtuel Secure Enclave. C’est la première fois qu’Apple permet aux chercheurs de se pencher officiellement sur la sécurité de ce composant, chargé notamment de stocker les clés cryptographiques de l’utilisateur.

Parmi les possibilités du VRE, les chercheurs pourront « lister et inspecter les versions logicielles de la PCC, vérifier la cohérence du journal de transparence, télécharger les binaires correspondant à chaque version, démarrer une version dans un environnement virtualisé, effectuer des déductions à partir de modèles de démonstration, modifier et déboguer le logiciel PCC pour permettre des recherches plus approfondies ».

Et même du code source

Sur un dépôt GitHub, Apple publie même le code source de certains composants principaux du PCC. Le code, dans l’immense majorité écrit en Swift, n’est là que pour des objectifs de recherche et de vérification, précise Apple.

Les quatre composants disponibles sont CloudAttestation (construction et validation des attestations du nœud PCC), Thimble (intègre le service privatecloudcomputed qui s’exécute localement sur l’appareil de l’utilisateur et communique avec CloudAttestation), le service splunkloggingd (filtrage des journaux pour en expurger les éventuelles données personnelles) et srd_tools (contient les outils du VRE).

Jusqu’à un million de dollars pour les primes

Pour accompagner le lancement de ses services, Apple invite donc les chercheurs à se pencher sur son Private Cloud Compute, avec des sommes importantes à la clé.

Sur les brèches, Apple distingue deux catégories. La première comprend les attaques déclenchées depuis une position privilégiée sur le réseau. 50 000 dollars seront ainsi offerts aux chercheurs qui prouveront une divulgation accidentelle ou inattendue de données suite à un problème technique (déploiement ou configuration). 100 000 dollars iront à ceux qui parviendront à exécuter un code non attesté. La somme grimpe à 150 000 dollars pour les chercheurs qui réussiront à intercepter les demandes de l’utilisateur ou des informations personnelles lui appartenant.

L’autre catégorie est nettement plus lucrative : les attaques à distance. Si un chercheur parvient à accéder à des informations personnelles ou des requêtes utilisateur en dehors de la zone de confiance, il pourra empocher 250 000 dollars. Pour ceux qui réussiraient à exécuter un code arbitraire avec des droits tout aussi arbitraires, la prime atteindra 1 000 000 dollars.

Apple ajoute tout de même que tout problème de sécurité lié au PCC sera examiné, même s’il n’appartient pas aux catégories définies. Il pourra donc y avoir récompense. « Nous évaluerons chaque rapport en fonction de la qualité de ce qui est présenté, de la preuve de ce qui peut être exploité et de l’impact sur les utilisateurs », précise Apple.

☕️ Bluesky lève 15 millions de dollars et prévoit des abonnements

Ce qui n’avait commencé que comme un petit projet incubé chez Twitter, mené par Jack Dorsey en personne, a fini en entreprise dédiée. Le réseau social Bluesky commence à avoir le vent en poupe, porté notamment par une succession de décisions polémiques sur X. Selon Bluesky, il y aurait 13 millions d’utilisateurs.

Après un financement initial de 8 millions de dollars, Bluesky a annoncé il y a quelques jours une nouvelle levée. La série A a été de 15 millions de dollars, « mené par Blockchain Capital avec la participation d’Alumni Ventures, True Ventures, SevenX, Amir Shevat de Darkmode, le cocréateur de Kubernetes Joe Beda, et d’autres ».

Bluesky

Dans son communiqué, Bluesky assure que le chef de file, Blockchain Capital, partage sa philosophie d’une « technologie au service de l’utilisateur, et non l’inverse ». La société met en avant une « connaissance approfondie » des réseaux décentralisés, ce qu’est justement Bluesky, via son protocole AT. Elle ajoute qu’il ne sera pas question de blockchain (en dépit du nom du fonds), de jetons, de cryptomonnaies ou de NFT. En clair, pas de web3.

L’argent récolté va servir à développer le projet, « investir dans la confiance et la sécurité, et à soutenir l’écosystème de développeurs ATmosphere ». La société se réjouit de voir son protocole AT utilisé par des applications et services avec des finalités autres que celles du réseau social. « Par exemple, Smoke Signal est une application d’événements, Frontpage est un forum web, et Bluecast est une application audio », cite l’entreprise.

Bluesky prépare également un système d’abonnement. Les fonctions visées incluent l’envoi de vidéos en meilleure qualité et la personnalisation des profils, avec des couleurs et cadres d’avatars. Dans une pique clairement adressée à X, Bluesky ajoute qu’elle ne fera pas monter en gamme les comptes simplement parce qu’ils payent un abonnement. Une référence claire à la visibilité des comptes Premium sur X.

☕️ Bitwarden clarifie la situation autour du fameux SDK : c’était un bug

Il y a une semaine, des développeurs s’inquiétaient d’un apparent virage de Bitwarden sur l’open source. Le gestionnaire de mots de passe propose en effet la quasi totalité du code de ses composants en GPLv3 ou AGPLv3.

Un développeur avait découvert que le client Bitwarden avait introduit une dépendance à un SDK interne. Il fallait non seulement l’avoir sous le coude pour compiler le client, mais la licence de ce kit de développement interdisait toute utilisation pour tout autre projet que la construction du client officiel. Beaucoup y voyaient alors une limite franche à la création de clients tiers, alors que c’est justement l’une des forces de Bitwarden.

Kyle Spearrin, fondateur et directeur technique de Bitwarden, avait pris la parole pour expliquer notamment qu’il s’agissait d’établir une clarification sur ce qui était sous GPL et ce qui ne l’était pas.

Dans un nouveau message, il tient cependant à clarifier de nouveau la situation. « Nous avons fait quelques ajustements sur la façon dont le code SDK est organisé et empaqueté pour vous permettre de construire et d’exécuter l’application avec seulement les licences GPL/OSI incluses. Les références du paquetage sdk-internal dans les clients proviennent maintenant d’un nouveau dépôt sdk-internal, qui suit le modèle de licence que nous avons historiquement utilisé pour tous nos clients », commence-t-il par expliquer.

Il ajoute surtout : « La référence sdk-internal n’utilise pour l’instant que des licences GPL. Si la référence devait inclure le code de la licence Bitwarden à l’avenir, nous fournirions un moyen de produire plusieurs variantes de construction du client, similaire à ce que nous faisons avec les builds des clients web de la chambre forte ».

Il précise que le dépôt originel de SDK sera renommé sdk-secrets et qu’il « conservera sa structure de licence Bitwarden SDK existante » pour les produits commerciaux Secrets Manager. « Le dépôt et les paquets sdk-secrets ne seront plus référencés à partir des applications clientes, puisque ce code n’y est pas utilisé », finit d’expliquer Kyle Spearrin. En d’autres termes, il s’agissait d’un bug.

Débats et colère autour des développeurs russes écartés du noyau Linux

Une décision d'au-dessus
Débats et colère autour des développeurs russes écartés du noyau Linux

Il y a quelques jours, on apprenait qu’une douzaine de personnes avaient été écartées de la maintenance du noyau Linux pour ce que l’on supposait alors être une nationalité russe ou une trop grande proximité avec la Russie. L’hypothèse ne fait désormais plus de doutes, Linus Torvalds ayant (violemment) confirmé l’information.

Que s’est-il passé ? Le 22 octobre, Phoronix se faisait l’écho d’un évènement étrange : une douzaine de personnes impliquées dans le développement du noyau Linux étaient officiellement supprimées de la liste des mainteneurs.

Cette disparition intervenait dans le cadre d’un patch poussé par Greg Kroah-Hartman, mainteneur de la branche stable et de nombreux autres composants. Une note indiquait simplement : « Supprimer certaines entrées en raison de diverses exigences de conformité. Elles peuvent revenir à l’avenir si une documentation suffisante est fournie ».

Sans plus d’explications, l’hypothèse la plus évidente était un lien trop prononcé avec la Russie, soit parce que les mainteneurs étaient russes, soit parce qu’ils avaient une proximité avec le pays ou l’un de ses acteurs. Les noms concernés étaient tous à consonance russe et beaucoup avaient des adresses email de type « .ru ».

L’évènement n’est pas passé inaperçu, déclenchant des conversations entre les autres mainteneurs. Ils se demandaient notamment pourquoi cette décision soudaine et remettaient en question la brutalité du processus et le manque d’informations. Était également pointée du doigt une approche très américaine du problème.

Linus Torvalds s’en mêle

Le 23 octobre, le créateur de Linux rejoint la conversation avec son franc-parler coutumier.

« Ok, il y a beaucoup de trolls russes dans les parages. La raison pour laquelle le changement a été effectué est tout à fait claire, il ne sera pas annulé, et l’utilisation de plusieurs comptes anonymes aléatoires […] ne va rien changer. Et à l’information des spectateurs innocents qui ne sont pas des comptes d’usines de trolls, les « diverses exigences de conformité » ne sont pas uniquement une affaire américaine », débute ainsi Torvalds.

Il continue, plus offensif : « Si vous n’avez pas encore entendu parler des sanctions russes, vous devriez essayer de lire les nouvelles un jour. Et par « nouvelles », je n’entends pas le spam sponsorisé par l’État russe. Pour ce qui est de m’envoyer un correctif : utilisez la bouillie que vous appelez cervelle, s’il vous plaît ».

« Je suis Finlandais. Vous pensiez que je soutiendrais l’agression russe ? Apparemment, il ne s’agit pas seulement d’un manque d’informations réelles, mais aussi d’un manque de connaissances historiques », finit le père de Linux. Une référence sans doute à la Guerre d’Hiver, déclenchée par la Russie contre la Finlande le 30 novembre 1939, pour obtenir notamment ses ressources et une partie de son potentiel industriel. Mais un argument très personnel à une demande d’informations complémentaires.

Le problème était bien la Russie

Des informations plus précises ont finalement été publiées hier par un autre mainteneur du noyau, James Bottomley. En réponse à un commentaire estimant que la phrase initiale était « très vague », Bottomley commence par indiquer qu’ils ont « enfin obtenu l’autorisation » de publier un « vrai conseil » aux développeurs.

Le conseil est le suivant : « Si votre entreprise figure sur les listes SDN de l’OFAC, fait l’objet d’un programme de sanctions de l’OFAC ou est détenue/contrôlée par une entreprise figurant sur la liste, notre capacité à collaborer avec vous sera soumise à des restrictions et vous ne pourrez pas figurer dans le fichier MAINTAINERS ».

L’OFAC est l’Office of Foreign Assets Control du département américain du Trésor. Ce bureau tient à jour une liste nommée « Specially Designated Nationals and Blocked Persons » (ou SDN) dans laquelle on trouve les noms des personnes et entités soumises à des restrictions. Il s’agit d’une conséquence des multiples sanctions prononcées contre la Russie depuis le début de l’invasion de l’Ukraine.

Cette action est passée par voie d’avocats. On ne sait pas s’il s’agit d’une demande directe de l’OFAC ou si les avocats de la fondation Linux (dont le siège est aux États-Unis) ont alerté les développeurs sur l’obligation de conformité avec cette liste. En revanche, le code produit par les mainteneurs écartés reste en place, du moins pour l’instant.

L’impact des sanctions

Comme le souligne Ars Technica et le relevait déjà Phoronix il y a quelques jours, ce n’est pas la première fois que les sanctions contre la Russie s’invitent dans la gestion du noyau Linux.

Serge Semin, l’un des mainteneurs supprimés de la liste, a ainsi travaillé chez Baikal. Cette entreprise russe concevait des puces Arm, mais a dû fermer l’année dernière. Les sanctions avaient pour conséquence la révocation de la licence Arm. Semin a publié hier un long message d’adieu, dans lequel il exprime sa frustration devant le processus cavalier. Il ajoute que son travail sur le noyau était « purement volontaire ».

❌