Vue lecture

☕️ Chrome se dote de plusieurs outils dédiés aux performances

La dernière version de Chrome s’est équipée de plusieurs ajouts liés aux performances et à leur surveillance. La principale nouveauté peut se trouver dans la section Performances des paramètres du navigateur.

La ligne « Alertes concernant les problèmes de performances » est active par défaut et va prévenir l’utilisateur quand le comportement de certains onglets devient erratique. La grande consommation de ressources est alors signalée quand elle peut avoir un impact sur l’utilisation de l’onglet en cours.

La fonction pointe alors les onglets fautifs et propose de les désactiver. Pour rappel, cette fonction – désormais commune à tous les principaux navigateurs – décharge les ressources consommées par les onglets. Elles ne sont rechargées que si l’on revient dessus. Ce mécanisme est utilisé pour l’endormissement des onglets après un certain temps d’inactivité. Les onglets désactivés sont affichés avec un cercle en pointillés autour de leur icône.

Parallèlement, l’économiseur de mémoire peut désormais être paramétré selon trois crans :

  • Modéré :  désactive les onglets en fonction des besoins du système
  • Équilibré : tient compte des habitudes de navigation et des besoins du système
  • Maximal : désactive les onglets lorsque vous cessez de les utiliser, plus rapidement que les deux autres modes

La fonction est désactivée par défaut. Lorsqu’elle est activée, elle est réglée sur Équilibré, qui s’affiche avec une mention « Recommandé ».

Enfin, il est possible d’établir des paramètres plus personnalisés. Par exemple, on peut indiquer les sites devant toujours rester actifs. Les cercles en pointillés peuvent être désactivés, de même que la quantité de mémoire consommée dans le panneau qui s’affiche au survol d’un onglet par la souris.

Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Clique, on va te dépanner
Microsoft se bat encore contre Midnight Blizzard, cette fois pour du harponnage

Dans une communication du 29 octobre, Microsoft a averti d’une importante campagne de spear phishing – une forme de phishing très ciblé – contre des milliers de personnes aux États-Unis. Le groupe malveillant russe Midnight Blizzard serait derrière l’attaque. Signe particulier : des fichiers RDP ont été utilisés pour la première fois.

Microsoft est en guerre contre le groupe Midnight Blizzard (aussi appelé Nobelium, APT29 ou Cozy Bear) depuis plusieurs années maintenant. En aout 2023, par exemple, la société prévenait que le groupe, décrit par plusieurs sociétés de sécurité comme proche du gouvernement russe, s’était lancé dans une vaste campagne de phishing sur Teams.

Mais c’est surtout Midnight Blizzard que l’on a retrouvé derrière l’opération qui a mené au piratage de plusieurs boites mails de dirigeants de l’entreprise. Les pirates ont ensuite tenté de récupérer des informations internes et du code source. Google les a même épinglés pour leurs techniques très proches de sociétés comme Intellexa et NSO (auteur du fameux Pegasus).

Dans un billet de sécurité publié le 29 octobre, Microsoft prévient cette fois que Midnight Blizzard est à l’origine d’une nouvelle campagne. Cette fois cependant, il s’agit de spear phishing (ou harponnage), une forme très personnalisée de phishing, dans le but de récupérer des informations sensibles. L’entreprise dit communiquer sur le sujet « pour informer le public et perturber l’activité de cet acteur malveillant ».

Une campagne très ciblée

L’opération aurait débuté le 22 octobre. Des emails ont été envoyés à plusieurs milliers de personnes réparties dans une centaine d’organisations diverses. Des membres du gouvernement américain, du personnel d’universités, de la défense, d’ONG et d’autres secteurs ont ainsi été visés. « Nous estimons que l’objectif de cette opération est probablement la collecte de renseignements », indique Microsoft.

Selon l’entreprise, l’opération – toujours en cours – est dans la lignée des précédentes de Midnight Blizzard, que ce soit au travers des cibles ou de la finalité. « Ses opérations impliquent souvent la compromission de comptes valides et, dans certains cas très ciblés, des techniques avancées pour compromettre les mécanismes d’authentification au sein d’une organisation afin d’élargir l’accès et d’échapper à la détection », explique ainsi l’éditeur.

Les emails envoyés utilisent des techniques d’ingénierie sociale en lien avec Microsoft, Amazon Web Services et même le concept de confiance zéro. On apprécie bien sûr l’ironie de la situation, devant un texte fait pour inspirer la confiance. Le contenu de ces courriels semblerait à s’y méprendre comme envoyé par des employés de Microsoft.

Comment les pirates ont-ils pu cibler ces personnes spécifiques ? Grâce à de précédentes compromissions, qui ont permis aux pirates de collecter les adresses emails.

La technique employée, en revanche, est nouvelle

Microsoft a observé dans la campagne une technique qu’elle n’avait encore jamais vue. La société explique ainsi que les emails contiennent un fichier .rdp. RDP, pour Remote Desktop Protocol, pointe vers l’outil d’accès à distance, qui peut également servir à faire de la prise de contrôle. Ce type d’outil est très courant et simplifie beaucoup la gestion d’un parc ou même le dépannage à distance d’un proche.

Dans le cas présent, le fichier est signé avec un certificat obtenu auprès de Let’s Encrypt. Il contient plusieurs paramètres décrits comme « sensibles », pouvant entrainer une exposition des informations chez le client. S’il est ouvert, le fichier connecte ce dernier à un serveur contrôlé par Midnight Blizzard. Un mapping bidirectionnel entre le client et le serveur est également mis en place. Tout le contenu des disques et du presse-papiers, l’ensemble des périphériques connectés, l’audio, les équipements comme les lecteurs de cartes ainsi que les fonctions d’authentification deviennent alors accessibles par les pirates.

La session n’a pas d’autre but que de dérober des informations et/ou d’installer des malwares. Ces derniers se chargeront alors d’entretenir le lien entre la machine contaminée et le serveur. En dépit des soins pris par les pirates pour personnaliser l’attaque, on peut voir dans les images fournies par Microsoft que l’ouverture du fichier .rdp provoque l’apparition d’une fenêtre indiquant qu’un test va avoir lieu. Celui-ci est censé mesurer la stabilité d’une connexion à AWS Secure Storage. Ce pourrait être effectivement le cas, mais le fait de mettre en avant Amazon Web Services dans un email prétendument envoyé par un employé de Microsoft peut interroger des personnes prudentes.

De nombreuses mesures pour atténuer les risques

Microsoft dresse une longue liste de mesures que les structures peuvent mettre en place pour ne pas tomber dans ce genre de piège. Bien que l’ingénierie sociale ne puisse jamais complètement être éliminée, des règles peuvent être mises en place pour casser certains scénarios ou en atténuer les effets.

L’utilisation d’un pare-feu pour empêcher ou limiter les connexions RDP sortantes vers des réseaux externes ou publics est ainsi en première place des suggestions. Suit rapidement l’authentification multifactorielle (MFA), quand un autre appareil est utilisé pour confirmer une demande d’authentification. Même si Microsoft décrit la mesure comme un « pilier essentiel de la sécurité », la même entreprise avait montré en aout 2022 qu’elle n’était pas non plus l’alpha et l’oméga de la protection. Mais les moyens à mettre en œuvre pour la contourner sont aussi plus importants. Microsoft recommande à ce titre d’éviter si possible les téléphones pour éviter les risques liés à la carte SIM.

Si l’entreprise en profite pour mettre en avant certains de ses produits et services, tel que Defender SmartScreen dans Edge, les conseils donnés restent assez généraux. Elle recommande par exemple la mise en œuvre de l’accès conditionnel avec authentification forte. L’accès conditionnel permet de n’autoriser un appareil à se connecter au réseau que s’il répond à des critères spécifiques, comme sa géolocalisation, l’installation d’une certaine mise à jour ou encore l’application de règles précises. L’authentification forte permettra de confirmer une identité avant l’accès à une application critique.

Suivent une série de conseils pour configurer certains produits courants, comme Office 365. Pour ce dernier, Microsoft conseille ainsi d’activer les liens et pièces jointes sécurisés, ainsi que la Zero-hour auto purge (ZAP). Cette dernière permet la récupération d’informations sur les nouvelles campagnes malveillantes. Elle peut alors proactivement mettre en quarantaine les emails considérés comme suspicieux et rétroactivement isoler ceux déjà présents dans les boites de réception.

☕️ Un paquet malveillant Python ciblait les portefeuilles de cryptomonnaies

Dans un billet publié mardi par GitHub, on a appris que l’usage du Python avait désormais dépassé celui de JavaScript. « Python est fortement utilisé dans les domaines de l’apprentissage automatique, de la science des données, de l’informatique scientifique, des loisirs et de la domotique, entre autres », explique l’entreprise. Dès lors, il n’est pas étonnant de voir le Python grimper en flèche, au vu de l’explosion des développements autour de l’IA.

La société note quand même que les « langages de programmation de systèmes, comme Rust, sont également en hausse, même si Python, JavaScript, TypeScript et Java restent les langages les plus utilisés sur GitHub ».

C’est probablement cette popularité que des pirates ont voulu exploiter. Dans un billet publié hier, la société de sécurité Checkmark explique qu’un paquet nommé CryptoAITools a été publié sur le Python Package Index (PyPI) et de faux dépôts GitHub. Il a été téléchargé 1 300 fois avant d’être supprimé de l’Index. Il a donc pu accomplir un certain nombre de méfaits avant d’être détecté.

Il est conçu pour Windows et macOS et s’active dès l’installation ; grâce à un code présent dans son fichier __init__.py. Il présente une interface trompeuse, conçue pour duper les utilisateurs pendant qu’il active ses fonctions malveillantes.

Le code peut être utilisé pour récupérer d’autres charges utiles depuis le site coinsw[.]app, qui avait toutes les apparences d’un vrai site, pour tromper la vigilance des personnes qui seraient allées voir. Le site faisait la promotion d’un bot d’échange de cryptomonnaies.

Le malware est conçu pour voler des données personnelles et puiser dans les actifs des portefeuilles de cryptomonnaies. Les informations ainsi récupérées sont nombreuses : portefeuilles de crypto-monnaies (Bitcoin, Ethereum, Exodus, Atomic, Electrum, etc.), mots de passe enregistrés, cookies, historique de navigation, extensions de cryptomonnaies, clés SSH, fichiers stockés dans les répertoires Téléchargements, Documents, Bureau qui référencent des cryptomonnaies, informations financières…

« La campagne de logiciels malveillants CryptoAITools a de graves conséquences pour les victimes et la communauté des crypto-monnaies au sens large. Les utilisateurs qui ont mis en vedette ou forké le dépôt malveillant ‘Meme-Token-Hunter-Bot’ sont des victimes potentielles, ce qui élargit considérablement la portée de l’attaque », indique Checkmark.

La société a également découvert un dépôt GitHub, nommé Meme Token Hunter Bot, qui distribue le même malware. Le dépôt est toujours en ligne, et on peut voir qu’il a été forké une fois et mis en favori dix fois.

☕️ Apple présente ses nouveaux MacBook Pro et sa puce M4 Max

Après les iMac et le Mac mini, c’est au tour des MacBook Pro de passer à la moulinette de la puce M4. Cette fois, les portables ont accès aux trois variantes de la puce : M4, M4 Pro et M4 Max. Comme pour les générations précédentes, c’est bien sûr la version Max qui offre les meilleures performances.

La puce M4 Max comporte jusqu’à 16 cœurs : 12 performants (2 de plus que sur la version Pro) et 4 efficaces. Si le M4 Pro voyait ses cœurs GPU doubler pour passer de 10 à 20, c’est encore le cas sur la version Max, avec jusqu’à 40 cœurs GPU, soit le même nombre que dans les versions précédentes. En revanche, GPU doublé oblige, la puce intègre deux codeurs/décodeurs vidéo.

La bande passante de la mémoire reste sur 512 bits, mais passe de 410 Go/s à un maximum 546 Go/s. La puce M4 Max peut supporter jusqu’à 128 Go de RAM. On retrouve la compatibilité Thunderbolt 5. Le Neural Engine garde ses 16 cœurs. Nous reviendrons prochainement plus en détail sur les caractéristiques de cette puce.

Quant aux MacBook Pro, la présentation de la gamme n’a pas changé. On retrouve toujours six configurations de base proposées : trois en M4, deux en M4 Pro et une M4 Max. La version 14 pouces du portable peut être configurée en M4 classique ou Pro. En revanche, la version 16 pouces ne peut avoir que du Pro au minimum.

La mémoire et la taille du SSD dépendent de la machine visée. On trouve au minimum 16 Go de RAM et 512 Go de SSD sur le MacBook Pro M4 en 14 pouces. En M4 Pro, la quantité minimale de RAM passe à 24 Go, toujours en 512 Go. Quant aux versions M4 Max, il y en a deux. La première intègre une puce à 14 cœurs CPU et 32 cœurs GPU, 36 Go de RAM et 1 To de SSD, et existe en modèles 14 et 16 pouces. La seconde possède le M4 Max « complet » avec ses 16 cœurs CPU et 40 cœurs GPU, épaulés par 48 Go de RAM et 1 To de SSD, et n’existe qu’en 16 pouces.

Tous les MacBook Pro présentent de nombreuses caractéristiques communes : trois ports Thunderbolt 4 (sur les modèles M4) ou 5 (sur les modèles Pro et Max), un port HDMI, un lecteur de carte SDXC, une prise casque, un port MagSafe 3, TouchID intégré au clavier, une luminosité de 1 000 nits, une autonomie pouvant grimper jusqu’à 24 heures (contre 22 sur la génération précédente) en lecture vidéo, du Wi-Fi 6E (dommage) et du Bluetooth 5.3. Tout ce petit monde est bien sûr taillé pour Apple Intelligence.

En ce qui concerne les prix, nous ne sommes plus sur le tarif d’appel du Mac mini et ses 700 euros (qui certes n’avait ni écran ni périphériques). Le plus petit modèle de MacBook Pro M4 est vendu au prix de 1 899 euros. Quand on passe au M4 Pro, le tarif minimal devient 2 399 euros pour du 14 pouces et 2 899 euros pour du 16 pouces (mais dans une version avec plus de cœurs). Quant au M4 Max, il vous en coutera au moins 3 799 euros en 14 pouces 4 099 euros en 16 pouces.

Les précommandes sont ouvertes, pour des livraisons débutant le 8 novembre.

À noter que même si Apple ne le proclame pas, tous les MacBook Air (actuellement équipés d’une puce M3) viennent de voir leur mémoire doubler et passer à 16 Go, sans modification du tarif.

Dénonçant un manque d’investissement de Google, un développeur forke Flutter

Sans dessin acide
Dénonçant un manque d’investissement de Google, un développeur forke Flutter

La gestion de Flutter, un framework multiplateforme chez Google, semble poser problème à un nombre croissant de développeurs. Au point que Matt Carroll, anciennement employé chez Google et ayant travaillé sur le cadriciel, en a annoncé un fork.

Flutter est un kit de développement multiplateforme open source (sous licence BSD). Créé par Google, il a d’abord été conçu pour les applications mobiles, mais a pris du galon avec les années. On se souvient notamment que c’est Canonical qui s’était chargé de son portage sur Linux. La société l’a ensuite utilisé pour réécrire complètement l’installeur de la distribution Ubuntu.

Mais l’un des anciens développeurs du SDK, Matt Carroll, resté sous forme de contributeur externe, a annoncé récemment la création d’un fork. Pour rappel, le terme peut être traduit par « bifurcation » ou « embranchement ». Il est utilisé dans le cas où le code source d’un projet est copié pour servir de base à un nouveau projet. L’opération est extrêmement courante dans le monde du libre et alimente l’émulation autour du développement logiciel. Firefox a par exemple plusieurs forks : LibreWolf, Waterfox, Iceweasel…

Dans le cas présent, Matt Carroll a annoncé un fork de Flutter le 27 octobre, citant de vastes problèmes chez Google et une réduction continuelle de l’équipe. Le nom du nouveau projet ? Flock (sans rapport avec notre dessinateur).

Un trop grand nombre de problèmes

Matt Carroll fait une longue liste des problèmes observés sur ces dernières années. Son principal grief est une équipe de développement manquant singulièrement de personnel. Il l’estime à une cinquantaine de personnes (chiffre gelé en 2023), alors que le nombre de développeurs utilisant Flutter serait d’un million, une estimation basse et conservatrice selon lui. Le ratio serait alors d’un membre de l’équipe pour 20 000 développeurs, ce qui ne peut pas fonctionner, d’après Matt Carroll.

Il cite plusieurs exemples, dont le temps de traitement des tickets de support. Il affirme qu’il peut s’écouler parfois plusieurs années entre la création d’un ticket et le moment où l’équipe s’en empare pour l’examiner. Or, avec le temps, les informations qui avaient servi à le créer ont peut-être été perdues. Le développeur a pu passer à autre chose et oublier le contexte du problème signalé.

« D’après mon expérience, lorsque cela m’arrive, j’ai cessé depuis longtemps de travailler avec le client à l’origine du problème initial. J’ai écrit des centaines de milliers de lignes de code depuis lors et, souvent, je ne me souviens même pas d’avoir déposé le problème, sans parler des détails obscurs liés au problème initial. L’équipe ne peut pas corriger le bug sans mes informations, et cela fait trop longtemps que je ne lui en ai pas fournies. Le bug est donc enterré et sera redécouvert par un futur développeur », explique Matt Carroll.

L’ancien employé de Google cite également les changements de priorités dans l’entreprise, avec des yeux largement tournés vers l’intelligence artificielle. Google vient d’ailleurs de mettre en avant que plus d’un quart du nouveau code écrit par ses développeurs l’a été par une IA générative. Les plateformes desktop ne sont ainsi plus considérées comme des priorités et trois des six plateformes sont en mode maintenance. Le desktop est selon Carroll le plus grand gâchis de Flutter. Certains des bugs non corrigés étaient suffisamment importants pour que les clients changent de crèmerie.

Il est vrai que les questions autour de Flutter commençaient à s’accumuler. La dernière Google I/O en mai a renforcé les inquiétudes. De nouvelles versions avaient bien été proposées pour Flutter (3.22) et Dart (3.4), mais l’arrivée de Kotlin Multiplatform les a éclipsés. Plusieurs médias avaient noté ce changement, dont DevClass. En outre, l’ancien directeur de l’équipe Flutter, Tim Sneath (ancien transfuge de Microsoft), est parti chez Apple en juin 2023.

Le choix du fork

Matt Carroll indique que la question d’une coopération massive avec des développeurs externes aurait pu être envisagée. Le problème est cependant le même, car l’afflux des participations aurait été géré par la même équipe qui manque actuellement de main d’œuvre pour s’occuper des tickets du support. Or, la révision du code prend du temps. En outre, de nombreux développeurs auraient trouvé la communication avec l’équipe Flutter « frustrante, voire impossible ».

Que propose-t-il ? Flock, un fork de Flutter imaginé comme un catalyseur. Il décrit en effet le projet comme un « Flutter+ », non comme un remplaçant. Il espère attirer les contributions pour faire de Flock un outil dont les bugs seront corrigés rapidement, tout comme l’ajout de nouvelles fonctions.

« En d’autres termes, nous ne voulons pas, ou avons l’intention, de forker la communauté Flutter. Flock restera constamment à jour avec Flutter. Flock ajoutera d’importantes corrections de bugs et des fonctionnalités populaires de la communauté, que l’équipe de Flutter ne peut pas ou ne veut pas implémenter », indique Matt Carroll.

Dans les grandes lignes, chaque nouvelle version de Flutter verra ses nouveautés portées vers Flock. Ce dernier ira dans le sens que sa communauté de développeurs estimera la plus logique, s’occupant d’abord de tous les bugs en attente, tout en partageant le code correcteur avec l’équipe de Flutter, qui sera alors libre de l’intégrer ou non.

Sa priorité pour l’instant est de créer un miroir de Flutter pour refléter automatiquement les branches master, beta et stable. Il faudra ensuite que Flock puisse construire le moteur d’exécution. Matt Carroll invite les développeurs à participer et à tester leurs applications sur Flock. Pour l’instant, puisqu’il s’agira d’une copie miroir, elles devraient fonctionner sans modification.

Des réactions mitigées

Que ce soit sur Hacker News ou Reddit, les réactions sont en majorité négatives. Beaucoup estiment que les problèmes avancés par Matt Carroll sont réels et sérieux. Cependant, la plupart pensent que dans ce cas précis, la création d’un fork va diviser les ressources et ne servira pas.

« Mais je suis sceptique quant à sa suggestion d’accueillir de nouveaux changements dans un fork de Flutter et ainsi gagner en vitesse de développement. Cela nécessiterait des personnes qui souhaitent réellement travailler sur de nouvelles fonctionnalités. Je doute que ces personnes existent. Du moins, qu’elles existent en nombre suffisant pour qu’un fork soit plus rapide – en termes de fonctionnalités – que Google lui-même », estime par exemple l’un d’entre eux sur Reddit.

En revanche, sur X, l’annonce a créé plus d’engouement, Matt Carroll ayant répondu à de nombreuses questions, certaines très concrètes. Par exemple, Remi Rousselet se demandait hier comment gérer les paquets si Flock devient aussi populaire que Flutter : faudra-t-il que leurs auteurs supportent systématiquement les deux ? Matt Carroll lui a répondu que la conduite serait de recommander Flock pour les applications et Flutter pour les paquets. À un autre, il a répondu qu’en cas de conflit d’approche sur une fonction, la version Flock serait supprimée.

GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

Tranquille, pépère
GitHub : Copilot s’ouvre à d’autres modèles et à Xcode, Spark écrit seul des applications

À travers sa conférence Universe, GitHub a annoncé plusieurs de nouveautés importantes à destination des développeurs. Le projet Spark, par exemple, ambitionne l’écriture des applications réalisée entièrement par l’IA. Le fameux Copilot s’ouvre également à d’autres modèles et outils de la concurrence, ainsi que de plusieurs améliorations significatives.

GitHub a fait son show hier lors de sa conférence Universe. Comme de nombreuses autres entreprises, elle tient une grand-messe annuelle pour y présenter ses nouveautés. Une manière bien sûr d’attirer l’attention avec un tir groupé. Et on peut dire que GitHub a tiré tous azimuts.

Lorsque GitHub a lancé son Copilot – initiant une vague d’autres Copilot chez Microsoft, qui possède GitHub – les développeurs ont pu commencer à compléter leurs lignes de code par des suggestions. Lors d’une évolution suivante, ce sont des pans de code entiers qui ont pu être ajoutés, toujours sous la supervision des développeurs. C’est à ce moment-là que deux questions sont apparues : le code suggéré n’enfreint-il pas le droit d’auteur (via son entrainement sur les dépôts publics) ? À quand l’intégralité du code d’un projet suggérée par Copilot ?

Si la première question a trouvé réponse dans plusieurs plaintes, la seconde était dans l’attente. Avec Spark, GitHub a fini par y répondre.

Une petite application en langage naturel

Selon GitHub, Spark est né comme un projet de recherche dans son laboratoire GitHub Next. La question était posée : peut-on obtenir une application complète en décrivant simplement ce que l’on souhaite en langage naturel ? La réponse est : oui.

On commence par un premier prompt définissant dans les grandes lignes ce que l’on veut obtenir, sachant que Spark se destine plutôt aux petits projets pour l’instant. Les projets eux-mêmes peuvent viser des applications web, natives ou mobiles. Après cette première demande, Spark affiche un aperçu général de l’application. Le développeur peut alors compléter au fur et à mesure ses requêtes pour préciser un nombre plus ou moins importants de détails du fonctionnement.

Le code reste toujours accessible et peut donc être modifié. Selon GitHub, Spark permet surtout d’explorer des idées au travers de micro-applications. Il peut s’agir de petits outils pour s’aider au quotidien dans des tâches spécifiques, de petits robots ou agents pour traiter certaines informations. À TechCrunch cependant, GitHub a confirmé qu’il n’y avait a priori pas de limites à ce que l’on pouvait demander à Spark. L’outil, fourni pour l’instant en avant-première, accepte a priori toutes les entrées, mais ses capacités seront peut-être resserrées une fois le produit disponible en version finale.

Le potentiel de Spark semble conséquent, puisque l’outil peut utiliser n’importe quelle API web. En outre, il va profiter de l’ouverture de GitHub à d’autres modèles et outils.

GitHub s’ouvre à d’autres modèles

L’interface de « discussion » avec GitHub Copilot est basée depuis le début sur GPT, la version actuelle utilisant GPT4. Ce n’est pas étonnant, puisque l’on se situe toujours dans la galaxie Microsoft. Cependant, cette exclusivité va prendre fin.

GitHub a en effet annoncé hier que Copilot allait pouvoir être utilisé avec d’autres modèles d’IA générative. Claude 3.5 Sonnet aura les honneurs de commencer très prochainement. Gemini 1.5 Pro devrait suivre dans quelque semaines. GPT-4o, o1-preview et o1-mini et d’OpenAI suivront également.

L’entreprise dit croire au choix pour les développeurs, un seul modèle n’étant pas idéal dans tous les cas de figure. Selon les besoins, la politique d’entreprise, les langages de programmation ou encore les préférences personnelles, le choix d’un modèle ou d’un autre peut faire une grande différence. Dans notre cas, nous avons par exemple utilisé Claude pour créer un grand tableau permettant de calculer les abonnements à l’électricité les plus intéressants, en fonction de votre consommation horaire sur un an (chiffres obtenus par le Linky via le site d’Enedis).

Mais attention : ce choix ne va être offert dans un premier temps que sur Copilot Chat et Spark. GitHub compte bien le répercuter sur l’ensemble de ses outils, mais n’a fourni aucune information sur le délai.

GitHub s’ouvre à Xcode, un timing intéressant

Au sein de GitHub, Copilot représente toujours un produit central. À l’occasion de la conférence Universe, il reçoit plusieurs nouveautés, dont une ouverture à Xcode, l’environnement de développement intégré d’Apple.

Même s’il s’agit d’une préversion publique et qu’il reste donc du travail, le mouvement est intéressant à plus d’un titre. D’abord, parce que les développeurs sur Mac seront probablement intéressés par l’arrivée d’un composant entré dans les habitudes de bon nombre d’entre eux sur d’autres plateformes. Même si cette préversion se focalise d’abord et avant tout sur la complétion du code, d’autres fonctions arriveront par la suite.

Ensuite, parce qu’Apple vient de donner le coup d’envoi de son bouquet de services Apple Intelligence. Or, sur macOS Sequoia 15.1, Xcode peut profiter de l’assistant maison pour produire le même type de résultat. Mais là où l’assistant d’Apple est neuf et a encore tout à prouver, Copilot arrive avec une expérience de plusieurs années dans le domaine.

« Il s’agit d’une étape majeure dans notre mission permanente visant à faire de Copilot un outil essentiel pour les développeurs sur une grande variété de plateformes. Désormais, les développeurs Apple peuvent bénéficier de la même assistance intelligente au codage, intégrée de manière transparente dans leur IDE préféré », indique ainsi GitHub dans son communiqué.

Prenant en charge les langages Objective-C et surtout Swift, le Copilot de GitHub pourrait donc couper l’herbe sous le pied d’Apple. À ceci près qu’Apple n’a pour l’instant affiché aucun tarif pour ses fonctions alimentées par l’IA générative. Beaucoup se demandent d’ailleurs si la firme pourra longtemps proposer gratuitement ses services, au vu des investissements colossaux nécessaires, que ce soit pour l’entrainement des modèles, la puissance nécessaire ou l’infrastructure mise en place. Apple en a d’ailleurs récemment détaillé la sécurité, proposant jusqu’à un million de dollars aux chercheurs qui parviendraient à exécuter un code arbitraire dans son Private Cloud Compute.

L’arrivée officielle de Copilot sur Xcode devrait mettre un sérieux frein à certains projets tiers, comme l’extension Copilot for Xcode, disponible sous licence MIT.

D’autres apports pour Copilot

À côté des annonces importantes, on trouve également d’autres nouveautés pour Copilot. Dans VS Code, Copilot Chat permet par exemple désormais de modifier plusieurs fichiers à la fois, dans le cadre de projets plus complexes. Il propose aussi une fonction permettant d’examiner le code pour obtenir des informations complémentaires. À noter la possibilité de personnaliser les instructions à Copilot Chat pour lui pointer les outils préférés par une personne ou une structure (comme une entreprise), ainsi que les connaissances organisationnelles.

GitHub a en outre donné quelques informations sur les fameuses extensions, qui permettent de personnaliser les demandes pour tenir compte d’un contexte particulier. Plusieurs d’entre elles ont été créées par Atlassian, Docker ou encore Stack Overflow, mais sont toujours en préversions.

On sait à présent que les versions finales seront lancées en début d’année prochaine, mais il n’y a pas encore de date précise. Dans la foulée, toute personne, entreprise ou autre structure pourra créer ses propres extensions, la capacité n’étant plus liée à quelques partenaires triés sur le volet.

☕️ Firefox 132 : streaming 4K, large gamme de couleurs et SVG accéléré

Nouvelle mouture pour Firefox, avec des améliorations notables à la clé. Le DRM PlayReady de Microsoft est ainsi supporté. Sur les sites de streaming compatibles, le 1080p devient alors la qualité minimale, pouvant grimper jusqu’à la 4K.

Autre ajout notable, le support du Wide Color Gamut WebGL pour Windows et macOS, permettant des couleurs plus riches pour les contenus. « Cette implémentation prend actuellement en charge des profils de couleurs plus larges (P3) en 8 bits », précise Mozilla.

L’accélération matérielle dans WebRender prend également en charge un plus grand nombre de primitives de filtres SVG : feBlend, feColorMatrix, feComponentTransfer, feComposite, feDropShadow, feFlood, feGaussianBlur, feMerge et feOffset. Les contenus « à forte composante graphique » seront donc plus fluides.

Logo de la fondation Mozilla

Mozilla ajoute en outre le support des fonctions de partage d’écran introduites dans les derniers macOS. La compatibilité commence avec la version 15 (l’actuel Sequoia), puis sera répercutée sur la précédente, Sonoma, dans une prochaine mouture. Firefox prend aussi mieux en charge la reprise de session après redémarrage du Mac, quand l’option de réouverture des applications est active.

On note également un changement important sur le comportement du mode Strict pour la Protection renforcée, puisque l’accès aux cookies tiers est désormais bloqué.

Signalons enfin plusieurs améliorations liées à la sécurité. Les favicons (icônes des sites apparaissant dans les onglets ou dans les marque-pages) ne peuvent désormais plus être reçues que si elles sont délivrées via HTTPS. De plus, la fonction « Copier sans le pistage du site » (via le clic droit sur l’URL) a été renforcée pour inclure plus de paramètres. Elle est en outre grisée si aucun paramètre n’est trouvé dans le lien.

Quant aux failles de sécurité, Firefox 132 en corrige onze, dont deux critiques.

Cloud, lobbying : rien ne va plus entre Microsoft et Google

spiderman-meme.jpg
Cloud, lobbying : rien ne va plus entre Microsoft et Google

Dans une publication lundi soir, Microsoft a accusé Google de préparer une guerre « clandestine » contre ses offres Azure. La société de Mountain View serait directement à l’origine de l’Open Cloud Coalition – officielle depuis quelques heures – pour faire du lobbying en Europe et influencer l’opinion.

Rien ne va plus entre Microsoft et Google. Les deux entreprises s’affrontent depuis des années sur le cloud mais, en parts de marché, Microsoft est loin devant Google, tandis qu’Amazon Web Services détient toujours la première place dans le monde.

Dans un communiqué publié lundi, Microsoft révèle d’étranges informations. La société accuse sa concurrente d’être derrière l’Open Cloud Coalition (OCC), tout juste lancée. « La mission de l’OCC est de promouvoir l’ouverture, l’interopérabilité et la concurrence loyale dans le paysage du cloud, en favorisant un écosystème du cloud plus innovant, transparent, résilient et sécurisé qui profite aux clients du Royaume-Uni, de l’UE et d’ailleurs », indique ainsi la nouvelle coalition.

Google, Civo, Centerprise International, Gigas, ControlPlane, DTP Group, Prolinx, Pulsant, Clairo et Room 101 en sont les dix membres. Cette coalition est dirigée par Nicky Stewart, auparavant à la tête de la société britannique UKCloud.

L’avocate de Microsoft, Rima Alaily, qualifie les futures activités de l’OCC comme de « l’astroturfing », soit de la désinformation populaire orchestrée. Selon Microsoft, cette coalition semble dirigée par « une poignée de fournisseurs européens de services en nuage » intéressés par la transparence sur le marché du cloud, mais qui auraient en réalité été recrutés par Google pour lui servir de caisse de résonance. Google aurait payé ces entreprises pour mener une autre forme du combat qu’elle tente de mener contre Microsoft.

« Campagnes obscures »

Toujours selon le père de Windows, cette Open Cloud Coalition ne serait qu’un élément parmi plusieurs « campagnes obscures » directement ou indirectement financées par Google. L’objectif général de ces campagnes serait de brouiller les pistes et d’influencer l’opinion sur tout ce qui touche aux procédures antitrust. Celles-ci, aux États-Unis, sont d’ailleurs renforcées depuis l’arrivée de Lina Khan à la tête de la Federal Trade Commission.

« Google s’est donné beaucoup de mal pour dissimuler son implication, son financement et son contrôle, notamment en recrutant une poignée de fournisseurs européens de services d’informatique en nuage pour servir de visage public à la nouvelle organisation. Lorsque le groupe sera lancé, Google se présentera vraisemblablement comme un membre de second plan plutôt que comme le chef de file », affirme Microsoft au sujet de la nouvelle coalition. L’entreprise estime que Google a pu offrir des avantages sous forme d’argent ou de remises. Dans le groupe, Google n’apparait que comme un membre parmi les autres.

Cette stratégie de Google serait l’héritage direct de son essai manqué avec le CISPE (Cloud Infrastructure Services Providers in Europe). Ce dernier avait en effet déposé plainte en novembre 2022 contre Microsoft, fustigeant les conditions et tarifs de ses produits pour les exécuter dans d’autres environnements qu’Azure.

Seulement, Microsoft a fini par négocier, aboutissant à un accord très critiqué avec le CISPE. En plus d’un paiement de 22 millions de dollars, Microsoft s’était engagée à participer à un observatoire permettant de suivre l’évolution de plusieurs de ses produits. Le 16 juillet, Bloomberg affirmait également que Google avait tout fait pour enjoindre le CISPE à refuser cet accord et à continuer la bataille. La firme aurait proposé jusqu’à 470 millions de dollars, ce que le CISPE aurait refusé. Une décision « sage », selon Microsoft.

Cette dernière trace un parallèle entre l’Open Cloud Coalition et la Coalition for Fair Software Licensing (CFSL), toujours pour du lobbying (États-Unis, Royaume-Uni et Europe). Selon Microsoft, Google en est le principal soutien financier. Contacté par Ars Technica, Ryan Triplette, président de la CFSL, indique au contraire que Google est un soutien public depuis plus de deux ans. Interrogé sur l’accusation de Microsoft sur son statut de lobbyiste chez Google auparavant, Triplette a répondu qu’il s’agissait d’une « étrange critique » : « tout le monde dans le domaine du droit, de la politique, etc. a travaillé pour Google, Microsoft ou Amazon à un moment donné, à un titre ou à un autre ».

Détourner l’attention

Pour Microsoft, il n’y a pas de doute : « Jamais, au cours des deux dernières décennies, les monopoles de Google en matière de recherche, de publicité numérique et de magasins d’applications mobiles n’ont fait l’objet d’une menace aussi concertée et déterminée qu’aujourd’hui. Selon nos estimations, au moins 24 enquêtes antitrust ont été ouvertes à l’encontre de Google sur les principaux marchés numériques du monde ».

La tactique actuelle servirait donc deux objectifs : détourner l’attention et, bien sûr, récupérer les restes en cas d’impact concret. Et, pour cela, Google aurait donc monté son propre CISPE, engageant « une agence de lobbying et de communication en Europe pour créer et gérer l’organisation ».

Le tout se ferait en parallèle de la plainte déposée en septembre devant la Commission européenne contre Microsoft pour pratiques abusives. La communication de Google était à cette occasion devenue ronflante.

Faisant référence à la panne CrowdStrike, la société de Mountain View avait déclaré : « Comme l’a montré la panne de sécurité massive survenue il y a deux mois, les tactiques de verrouillage de Microsoft peuvent aboutir à un point de défaillance unique qui nuit aux entreprises, aux industries et aux gouvernements ». Un incident certes grave, mais dont Microsoft n’était pas à l’origine et qui, surtout, ne concernait pas le cloud ni même les serveurs.

Microsoft accuse également Google de vouloir noyer le poisson en se faisant passer pour un petit acteur, bien loin d’un AWS ou d’un Microsoft. Cette dernière insiste – sans doute avec beaucoup de plaisir : cela est peut-être vrai en matière de parts de marché, mais pas en termes de moyens, puisque Google serait première au classement des centres de données.

Comment Microsoft a-t-elle appris tout ça ? L’entreprise explique que l’un des fournisseurs européens approchés par Google aurait refusé et l’en aurait averti. Aucun nom n’est donné.

Que se passe-t-il ?

Il ne fait aucun doute que Microsoft a voulu couper l’herbe sous le pied de la nouvelle coalition, pour présenter ses actions sous un mauvais jour. Mais le communiqué de Microsoft est également un exercice de communication, même si c’est la première fois que l’entreprise adopte un ton aussi offensif.

Difficile pour l’instant de savoir ce qu’il s’est passé. Microsoft semble avoir été piquée au vif par sa concurrente. Cependant, la société passe elle-même par des coalitions et alliances, comme l’European Cloud Alliance. Microsoft pourrait simplement avoir été fâchée d’apprendre que les activités du CISPE allaient ressurgir sous une autre forme, alors qu’elle pensait en avoir terminé.

« Nous avons fait part publiquement de nos inquiétudes concernant les licences de Microsoft pour le cloud. Nous pensons, comme beaucoup d’autres, que les pratiques anticoncurrentielles de Microsoft verrouillent les clients et créent des effets négatifs en aval qui ont un impact sur la cybersécurité, l’innovation et le choix. Vous pouvez en savoir plus dans nos nombreux billets de blog sur ces questions », a simplement réagi Google auprès d’Ars Technica.

Et en France ? Interrogée, OVHcloud ne cache pas un certain agacement : « Il nous apparaît regrettable que les débats actuels semblent se concentrer sur la forme et les modalités d’action des acteurs plutôt que sur l’amélioration concrète de la situation pour les utilisateurs du cloud. Nous souhaitons que ces acteurs mettent fin aux pratiques préjudiciables qui enferment les utilisateurs du cloud. »

Du côté de Clever Cloud, on sourit : « Ce spectacle est à la fois ironique et révélateur. Ironique, car ces géants américains qui s’affrontent aujourd’hui n’ont jamais brillé par leur attachement à une concurrence libre et non faussée. Révélateur, car ils confirment ce que nous savions déjà : l’Europe est le terreau idéal pour l’émergence d’un cloud équitable pour le consommateur. Mais cette transformation ne viendra pas de ces entreprises. C’est à nous, industriels européens, qu’il revient de faire de cette opportunité une réalité, de faire comprendre à nos dirigeants, dans chaque pays de l’Union, l’importance stratégique qu’elle représente. C’est précisément cette vision qui anime Clever Cloud : construire jour après jour un écosystème souverain, compétitif et ouvert », a ainsi réagi Quentin Adam, CEO de Clever Cloud.

Comment Google pousse les fabricants vers sept ans de mises à jour Android

Treble, la situation est grave
Comment Google pousse les fabricants vers sept ans de mises à jour Android

Google pousse les constructeurs vers un support allongé pour leurs appareils, qui peuvent recevoir jusqu’à sept ans de nouvelles versions majeures d’Android. Cette bascule n’est pas simple, même si elle semble mettre un terme à la complexité actuelle. Ce support allongé va d’abord passer par le haut de gamme, via notamment le Snapdragon 8 Elite récemment présenté.

Android a depuis longtemps un problème de fragmentation. Depuis de nombreuses années, les constructeurs de smartphones prennent peu au sérieux la longévité de leurs produits, n’offrant que peu de mises à jour. L’exception se trouvait dans les modèles haut de gamme, qui pouvaient recevoir des versions majeures d’Android plus longtemps. Au-delà de ces dernières, il était surtout question des mises à jour de sécurité mensuelles, abandonnées trop vite sur de nombreux modèles d’entrée de gamme. Or, un smartphone ou une tablette sans mises à jour de sécurité représente un trop grand danger pour être encore utilisé.

La situation change progressivement. On l’a vu avec les Pixel et le haut de gamme de Samsung, des modèles commencent à être livrés avec sept ans de mises à jour mineures et majeures. Google veut inspirer le marché, d’autant que les lois s’apprêtent à se durcir, notamment en Europe.

Ces dernières années, Google a également beaucoup travaillé à rendre la maintenance des appareils plus simple pour les constructeurs. Une conséquence directe de la stratégie Android pratiquée jusque-là, qui donne de nombreuses libertés aux constructeurs dans le choix des composants et de l’utilisation d’Android. Plus il y a de modèles, plus il faut dépenser de ressources pour entretenir des configurations très différentes.

Une première étape avec le projet Treble

Face à ce constat, Google avait présenté le projet Treble. Il s’agissait alors de simplifier la chaine logistique allant de la disponibilité d’une mise à jour Android à son installation concrète par l’utilisateur. Et pour cause : il fallait que des fabricants de puces testent la compatibilité du nouveau code avec leurs produits, que les constructeurs de smartphones en fassent autant avec leurs appareils, voire que les opérateurs mettent leur grain de sel.

Treble a marqué une importante rupture dans ce modèle. Pour la première fois, Google séparait le système d’exploitation proprement dit de ses Play Services. Cette séparation devait permettre aux constructeurs de ne vérifier la compatibilité de code mis à jour que sur les composants strictement nécessaires du système, sans toucher à l’implémentation d’origine par le constructeur.

Ce fut un premier changement salvateur, car Google a déplacé petit à petit un nombre croissant de composants logiciels cruciaux dans ses Services. Aussi, sur les appareils ne pouvant plus prétendre aux versions annuelles d’Android, les Play Services continuaient à se mettre à jour pendant plusieurs années, limitant un peu le problème de fragmentation.

Un déplacement de la complexité

Si cela a l’air simple en apparence, la réalité est tout autre. Non seulement le projet Treble est complexe dans ses objectifs, mais il l’a aussi été dans sa mise en application. Il a fallu également que Google puisse maintenir une compatibilité ascendante pour toutes ses versions Android. Pas question en effet qu’une nouvelle mouture du système vienne réduire à néant les implémentations réalisées par les constructeurs sur la version précédente.

Toute la complexité du processus de suivi des mises à jour s’est en fait déplacée. Les constructeurs se sont surtout mis à attendre les retours des fournisseurs de composants. Ces derniers doivent en effet fournir une implémentation compatible pour chaque version d’Android en circulation sur chaque appareil. Ce qui inclut à la fois les versions majeures (quand le noyau Linux change par exemple) ou les versions intermédiaires, par exemple quand Google modifie une couche d’abstraction matérielle (HAL) pour introduire une nouveauté.

Si Treble a simplifié le processus pour les constructeurs, il l’a donc rendu plus complexe pour les fournisseurs de composants… dont dépendent les constructeurs. À moins d’être dans le cas de Google et de fournir directement ses propres composants, comme l’entreprise l’a fait en introduisant sa série Tensor. Une maitrise du matériel et du logiciel qui a valu pendant de longues années la palme de la longévité aux iPhone, maintenus pendant au moins cinq ans pour les versions majeures d’iOS, ainsi qu’une année supplémentaire pour les correctifs de sécurité. Apple s’est depuis fait voler la vedette.

Google Requirements Freeze, la deuxième moitié du puzzle

Google s’est rapidement aperçue du problème. L’entreprise a donc introduit fin 2020 un autre projet. Baptisé Google Requirements Freeze (GRF), il a étendu les grands principes de Treble aux SoC des appareils mobiles. GRF a introduit un très gros changement dans Android : les changements opérés dans le noyau Linux et/ou les couches d’abstraction matérielle ne peuvent plus être répercutés sur d’anciennes implémentations. Il n’y a plus de rétroactivité, alors qu’elle était obligatoire avec Treble.

Voici un exemple, pour mieux comprendre. Un fournisseur de composant propose un nouveau SoC prenant en charge Android 12. Avec GRF, l’implémentation réalisée par le fournisseur est garantie jusqu’à N+3, donc Android 15. Dans cet intervalle, toutes les mises à jour Android proposées, même les plus importantes dans les versions majeures, peuvent se faire en réutilisant l’implémentation initiale faite pour Android 12. D’où le nom de « Freeze », Google gelant littéralement ses exigences.

Le programme GRF a permis de simplifier le passage à trois ans de mises à jour d’Android, puis autant de correctifs de sécurité seuls. Il était possible d’étendre le support à sept ans, mais à la condition de payer le fournisseur de SoC pour un travail supplémentaire de prise en charge. C’est ce qu’explique Android Authority, donnant l’exemple de Samsung avec sa ligne Galaxy S24 lancée en début d’année.

Un director’s cut de GRF

Désormais, il faut parler de Longevity GRF. Une version longue du programme initial qui propose directement sept années de mises à jour. Plus spécifiquement, il autorise la réutilisation du logiciel d’un SoC pour sept évolutions majeures d’Android, au lieu des trois actuelles. Un changement majeur, car cela permet à un smartphone lancé sous Android 15 de pouvoir être mis à jour jusqu’à Android 22.

Il ne s’agit donc plus d’exceptions comme les Pixel 8/9 ou encore les Samsung Galaxy S24, mais d’une règle commune, applicable par l’ensemble des constructeurs. Il y a cependant une condition importante : il faut que la société proposant le SoC accompagne ce dernier de cette « garantie ». Or, à l’heure actuelle, seul le Snapdragon 8 Elite, présenté la semaine dernière par Qualcomm, est compatible. En théorie, tout appareil qui en sera équipé pourra recevoir les précieuses nouvelles versions d’Android.

Une condition, une limite et un problème

Si ce gel prolongé est un énorme progrès en matière de longévité des appareils, il y a cependant une grosse condition à respecter : mettre à jour la version du noyau Linux après trois ans, car les versions fournies par Android ne sont supportées que quatre ans. Le décompte commence à partir de la version 6.6 fournie avec Android 15. Si les constructeurs ne le font pas, ils devront s’occuper eux-mêmes de porter les modifications de sécurité sur l’ancienne version utilisée par leurs appareils.

Il y a une autre limitation : Google interdit qu’une implémentation pour un SoC soit utilisée au-delà de sa quatrième année pour équiper un nouvel appareil avec le dernier Android. En 2028, par exemple, il ne sera pas possible d’utiliser l’implémentation actuelle du Snapdragon 8 faite pour Android 15 dans un nouvel appareil conçu autour d’Android 19. Ceci pour éviter que l’ancienne implémentation ne soit pas sans cesse reprise par un constructeur. Sur Android Authority, Mishael Rahman a résumé les informations dans le tableau suivant :

Cette longévité simplifiée, qui demandera tout de même quelques travaux, surtout en milieu de cycle de vie, s’accompagne également d’un problème. Les constructeurs vont en effet pouvoir proposer des mises à jour sur 7 à 8 ans, sans plus devoir payer de support allongé aux fournisseurs de SoC. Cependant, cela se fait au détriment d’un gel des couches d’abstraction matérielle. Si Google introduit des nouveautés ayant besoin d’une telle modification, elles ne seront répercutées qu’au bon vouloir des fournisseurs de composants et des constructeurs. Par exemple, Android 13 a ajouté une API permettant de modifier la luminosité de la fonction lampe de torche.

Rahman ajoute que ces informations ne sont pas publiques, qu’elles lui ont été communiquées par une source anonyme et que certains détails pourraient donc lui avoir échappé. Cependant, elles sont en phase avec les mouvements de l’industrie observés depuis l’automne 2023, jusqu’à la présentation du Snapdragon 8 Elite. La longévité des appareils devrait donc bien devenir un argument de vente, mais il n’est pas certain qu’il le soit pour toutes les gammes. D’autant que seul le dernier fleuron de Qualcomm est pour l’instant compatible. Mais cette permissivité semble bien être l’aboutissement des objectifs fixés par Treble il y a six ans.

Apple Intelligence en Europe en avril 2025, iOS 18.1 disponible, nouveaux iMac M4

Where is Brian ?
Apple Intelligence en Europe en avril 2025, iOS 18.1 disponible, nouveaux iMac M4

Apple a procédé hier soir à une série d’annonces, dont ses premiers Mac avec puce M4 et la disponibilité des dernières révisions de ses systèmes. Mais c’est surtout l’arrivée d’Apple Intelligence en France en avril qui a retenu l’attention.

Depuis hier soir, les mises à jour iOS 18.1, iPadOS 18.1 et macOS 15.1 sont diffusées à tous les appareils compatibles. Entre autres nouveautés, ils activent le premier tronçon des fonctions Apple Intelligence.

Peut-on en profiter dès maintenant ? Oui et non, car il faudra surtout attendre avril.

Apple Intelligence : Qui ? Comment ? Quoi ?

Apple Intelligence est officiellement disponible sur l’ensemble des Mac compatibles (puce M1 et 8 Go de RAM au moins), les ordinateurs d’Apple n’étant pas soumis au DMA. Il y a malheureusement une condition : les machines doivent être configurées en anglais, seule langue disponible pour le moment.

Si l’anglais ne vous fait pas peur, rendez-vous dans Réglages > Général. Là, vous verrez une ligne « Langue et région ». Dans le haut de la fenêtre, appuyez sur « + » pour ajouter une langue. Cherchez la ligne English (US), car c’est la seule variante acceptée actuellement pour Apple Intelligence. Validez l’ajout puis confirmez que vous voulez utiliser cette langue pour le système. Un redémarrage sera ensuite requis.

Direction ensuite la section Apple Intelligence & Siri dans Réglages, devenus System Settings. Sur la ligne Language, il faut également changer pour « English (United States) », déclenchant un petit téléchargement pour la langue. À ce moment, un nouveau bouton apparait en haut du panneau, permettant de rejoindre la liste d’attente. Dans notre cas, une notification est apparue moins d’une heure après pour prévenir que les fonctions étaient prêtes.

Cliquer sur la notification a renvoyé vers la section Apple Intelligence de System Settings. Ne resterait plus qu’à cliquer sur « Turn on » pour activer les fonctions. S’ensuit une courte présentation des apports, essentiellement deux pour l’instant : les outils d’écriture (reformulation, résumé…) et le nouveau Siri, avec un phrasé plus naturel. Avec une limitation à l’anglais, les outils d’écriture ne fonctionneront que sur des textes dans cette langue. Même chose pour Siri, tout devra se faire en anglais.

Notez que vous pouvez revenir en français à n’importe quel moment, moyennant un redémarrage. Apple Intelligence cessera alors de fonctionner.

Et le français ? Et les iPhone ?

C’est sans doute la plus grosse annonce d’hier soir : Apple Intelligence arrivera en Europe en avril prochain et avec lui le français.

« Les utilisateurs de Mac dans l’UE peuvent accéder à Apple Intelligence en anglais (États‑Unis) avec macOS Sequoia 15.1. En avril, les fonctionnalités d’Apple Intelligence commenceront à être déployées pour les utilisateurs d’iPhone et d’iPad dans l’UE. Cela inclura de nombreuses fonctionnalités clés d’Apple Intelligence, notamment les Outils d’écriture, Genmoji, un Siri repensé avec une compréhension linguistique plus riche, l’intégration de ChatGPT, et bien plus encore », précise ainsi Apple dans son communiqué de presse. Dans une note, la firme indique le français fera partie des langues supportées.

C’est bien la version complète des services qui sera alors diffusée, sans doute avec iOS 18.4.

iOS/iPadOS 18.1, macOS 15.1 et les autres

Les nouvelles versions « .1 » des derniers systèmes d’Apple intronisent donc Apple Intelligence, ainsi que quelques autres apports.

Sur iOS 18.1, on trouve ainsi la possibilité d’enregistrer en temps réel les appels téléphoniques classiques et FaceTime audio. Apple précise que cet enregistrement est « automatiquement annoncé ». Nous n’avons cependant pas trouvé la fonction dans nos tests. Il y a peut-être des conditions à respecter (un certain type d’appareil, une compatibilité Apple Intelligence…), mais elle n’est pas mentionnée par Apple.

Parmi les autres nouveautés, plusieurs concernent le Centre de contrôle. Plusieurs boutons dédiés font ainsi leur apparition pour le cellulaire, le VPN et le Wi-Fi, permettant d’influer sur ces réglages sans passer par le dossier qui les contient. Deux autres sont également disponibles pour appeler l’application Mesure. Enfin, une option permet de réinitialiser le Centre à ses paramètres par défaut, supprimant toute personnalisation.

Plus visible, une amélioration permet aux notifications d’afficher un petit chiffre sur les piles, indiquant combien la pile en contient. Un ajout tout simple, mais si évident que l’on se demande pourquoi il n’est pas arrivé avant. Le chiffre apparait en haut à droite de l’icône à gauche des notifications. On peut cependant lui reprocher sa taille, l’information est si petite qu’elle pourrait passer inaperçue.

On trouve également un passage rapide à la caméra TrueDepth avant sur la gamme iPhone 16, la possibilité de prendre des photos et vidéos spatiales sur la gamme iPhone 15, la compatibilité avec les fonctions dédiées à l’audition sur les AirPods Pro 2 (qui reçoivent un nouveau firmware), ainsi que diverses corrections de bugs.

Sur macOS 15.1, le programme est nettement moins riche. Sorti d’Apple Intelligence, le seul nouvel apport réellement visible est l’arrivée d’une option permettant d’installer les applications de plus de 1 Go sur un autre volume. La mise à jour corrige également plusieurs dizaines de failles de sécurité. Celles-ci sont également colmatées par les versions de macOS 14.7.1 et 13.7.1, disponibles pour les machines plus anciennes.

Les iMac passent à la puce M4

Comme prévu, les premières machines à passer à la moulinette M4 sont les iMac. Le renouvellement se fait essentiellement par la puce (qui remplace le M3 de l’iMac précédent) et le passage à 16 Go de mémoire par défaut. Soit ce que les rumeurs en annonçaient. Le format reste le même, tout comme les couleurs disponibles, la répartition de la gamme et la dalle, qui reste de 24 pouces en 4,5K.

Le premier modèle propose ainsi un M4 contenant 8 cœurs CPU et 8 cœurs GPU pour 1 499 euros, un tarif légèrement en baisse. En revanche, comme précédemment, il n’y a que deux ports Thunderbolt/USB4 et pas d’Ethernet. À 1 749 euros, la seconde configuration passe à 10 cœurs CPU et 10 cœurs GPU, quatre ports Thunderbolt/USB4 et un port Gigabit Ethernet. Le clavier Magic Keyboard récupère Touch ID. Toutes les configurations sont fournies avec un SSD de 256 Go et mettent en avant la compatibilité Apple Intelligence.

À noter que tous les accessoires désormais fournis avec ces Mac abandonnent le port Lightning pour l’USB-C. Les précommandes sont ouvertes, pour des livraisons qui commenceront le 8 novembre.

Apple détaille la sécurité de son architecture IA et veut séduire les chercheurs

Qui veut gagner des millions ?
Apple détaille la sécurité de son architecture IA et veut séduire les chercheurs

Apple lancera la semaine prochaine son bouquet de services Apple Intelligence, dans le sillage d’iOS 18.1 et d’autres évolutions de ses plateformes. Dans un billet publié le 24 octobre, la firme explique plusieurs éléments de sécurité sur son cloud privé. Elle annonce également de fortes récompenses pour les hackers et chercheurs qui réussiraient à s’introduire, voire à exécuter du code.

Lors de la dernière WWDC en juin, Apple a présenté son très attendu bouquet Apple Intelligence. Attendue parce que depuis l’explosion de l’IA générative, l’entreprise était restée muette. De nombreuses fonctions ont été annoncées, mais avec une compatibilité limitée. Seuls les iPhone 15 Pro, les iPad équipés au moins d’une puce A17 Pro et les Mac dotés d’un M1 ou plus prennent en charge Apple Intelligence. Nous avions émis l’hypothèse que les radineries de la société sur la mémoire vive l’avaient « coincée », l’obligeant à ne sélectionner que les appareils qui possèdent au moins 8 Go.

Durant la présentation, certains points n’étaient pas très clairs et ne le sont toujours pas. Un en particulier : la quantité de demandes qui passeront par les serveurs. La société avait expliqué qu’une partie des requêtes s’exécuterait localement, tandis que les autres passeraient par ses serveurs. Ces derniers sont constitués uniquement de Mac Apple Silicon et s’exécutent selon l’entreprise dans un environnement sécurisé.

Une sécurité sur laquelle Apple en dit plus dans son billet.

Un accent sur la sécurité

Le Private Cloud Compute (PCC) représente l’architecture mise en place par Apple pour gérer les demandes réclamant un calcul intensif. Il s’agit donc de l’infrastructure qui va s’occuper des requêtes quand celles-ci réclament une trop grande puissance. On ne sait pas en revanche où se situe la frontière, l’entreprise indiquant simplement que son service s’exécute localement « dans la mesure du possible ».

Parallèlement à son billet, Apple a publié une documentation dans laquelle elle explique les grandes lignes du fonctionnement de son PCC. Apple évoque des « protections révolutionnaires en matière de confidentialité et de sécurité ».

On y apprend que le PCC doit fournir des calculs sans état sur les données personnelles. Ces dernières ne doivent donc être utilisées que pour fournir une réponse, après quoi les copies sont supprimées pour ne pas laisser de trace, y compris pour le débogage ou la journalisation. Les composants du PCC doivent également pouvoir être contraints et analysés. Aucune interface ne doit être disponible, de sorte que même le personnel ne puisse voir les données, même pendant des pannes ou incidents.

Pas de fenêtre sur les données

Dans certains cas, note Apple, les données de l’utilisateur seront mises en cache, par exemple si la demande suppose un nouvel accès rapidement après le précédent. Le fonctionnement du PCC sera préservé par le contrôle des clés cryptographiques : « le PCC mettra en cache les données chiffrées avec une clé fournie par l’appareil de l’utilisateur et effacera sa propre copie de cette clé après la demande. Le PCC ne pourra donc déchiffrer les données mises en cache que si l’appareil de l’utilisateur envoie une autre demande comprenant la clé de déchiffrement du cache », explique Apple.

En outre, l’un des objectifs est – bien sûr – d’empêcher les pirates d’aller piocher des données personnelles sans compromettre l’intégralité du système. Enfin, et c’est une nouveauté, Apple met en avant la transparence : « les chercheurs en sécurité doivent pouvoir vérifier, avec un degré de confiance élevé, que nos garanties en matière de protection de la vie privée et de sécurité pour la PCC correspondent à nos promesses publiques ».

L’ouverture aux chercheurs

En dépit des explications données par Apple, on pourrait répondre que ces objectifs sont peu ou prou les mêmes que chez d’autres prestataires de services. Après tout, elle a tout intérêt à communiquer sur l’énergie dépensée dans cette architecture, afin d’inspirer la confiance. L’entreprise veut cependant faire la différence avec un degré important d’ouverture aux chercheurs.

Pour y parvenir, elle propose donc un Virtual Research Environment (VRE). Disponible dans la dernière préversion de macOS 15.1 (pour les Mac Apple Silicon avec au moins 16 Go de mémoire), il permet la création d’un environnement virtuel fonctionnant comme un nœud du PCC. Apple explique qu’il s’agit du même logiciel « avec quelques modifications mineures », le processus de démarrage et le noyau étant « adaptés à la virtualisation ». Le VRE contient même un processeur virtuel Secure Enclave. C’est la première fois qu’Apple permet aux chercheurs de se pencher officiellement sur la sécurité de ce composant, chargé notamment de stocker les clés cryptographiques de l’utilisateur.

Parmi les possibilités du VRE, les chercheurs pourront « lister et inspecter les versions logicielles de la PCC, vérifier la cohérence du journal de transparence, télécharger les binaires correspondant à chaque version, démarrer une version dans un environnement virtualisé, effectuer des déductions à partir de modèles de démonstration, modifier et déboguer le logiciel PCC pour permettre des recherches plus approfondies ».

Et même du code source

Sur un dépôt GitHub, Apple publie même le code source de certains composants principaux du PCC. Le code, dans l’immense majorité écrit en Swift, n’est là que pour des objectifs de recherche et de vérification, précise Apple.

Les quatre composants disponibles sont CloudAttestation (construction et validation des attestations du nœud PCC), Thimble (intègre le service privatecloudcomputed qui s’exécute localement sur l’appareil de l’utilisateur et communique avec CloudAttestation), le service splunkloggingd (filtrage des journaux pour en expurger les éventuelles données personnelles) et srd_tools (contient les outils du VRE).

Jusqu’à un million de dollars pour les primes

Pour accompagner le lancement de ses services, Apple invite donc les chercheurs à se pencher sur son Private Cloud Compute, avec des sommes importantes à la clé.

Sur les brèches, Apple distingue deux catégories. La première comprend les attaques déclenchées depuis une position privilégiée sur le réseau. 50 000 dollars seront ainsi offerts aux chercheurs qui prouveront une divulgation accidentelle ou inattendue de données suite à un problème technique (déploiement ou configuration). 100 000 dollars iront à ceux qui parviendront à exécuter un code non attesté. La somme grimpe à 150 000 dollars pour les chercheurs qui réussiront à intercepter les demandes de l’utilisateur ou des informations personnelles lui appartenant.

L’autre catégorie est nettement plus lucrative : les attaques à distance. Si un chercheur parvient à accéder à des informations personnelles ou des requêtes utilisateur en dehors de la zone de confiance, il pourra empocher 250 000 dollars. Pour ceux qui réussiraient à exécuter un code arbitraire avec des droits tout aussi arbitraires, la prime atteindra 1 000 000 dollars.

Apple ajoute tout de même que tout problème de sécurité lié au PCC sera examiné, même s’il n’appartient pas aux catégories définies. Il pourra donc y avoir récompense. « Nous évaluerons chaque rapport en fonction de la qualité de ce qui est présenté, de la preuve de ce qui peut être exploité et de l’impact sur les utilisateurs », précise Apple.

☕️ Bluesky lève 15 millions de dollars et prévoit des abonnements

Ce qui n’avait commencé que comme un petit projet incubé chez Twitter, mené par Jack Dorsey en personne, a fini en entreprise dédiée. Le réseau social Bluesky commence à avoir le vent en poupe, porté notamment par une succession de décisions polémiques sur X. Selon Bluesky, il y aurait 13 millions d’utilisateurs.

Après un financement initial de 8 millions de dollars, Bluesky a annoncé il y a quelques jours une nouvelle levée. La série A a été de 15 millions de dollars, « mené par Blockchain Capital avec la participation d’Alumni Ventures, True Ventures, SevenX, Amir Shevat de Darkmode, le cocréateur de Kubernetes Joe Beda, et d’autres ».

Bluesky

Dans son communiqué, Bluesky assure que le chef de file, Blockchain Capital, partage sa philosophie d’une « technologie au service de l’utilisateur, et non l’inverse ». La société met en avant une « connaissance approfondie » des réseaux décentralisés, ce qu’est justement Bluesky, via son protocole AT. Elle ajoute qu’il ne sera pas question de blockchain (en dépit du nom du fonds), de jetons, de cryptomonnaies ou de NFT. En clair, pas de web3.

L’argent récolté va servir à développer le projet, « investir dans la confiance et la sécurité, et à soutenir l’écosystème de développeurs ATmosphere ». La société se réjouit de voir son protocole AT utilisé par des applications et services avec des finalités autres que celles du réseau social. « Par exemple, Smoke Signal est une application d’événements, Frontpage est un forum web, et Bluecast est une application audio », cite l’entreprise.

Bluesky prépare également un système d’abonnement. Les fonctions visées incluent l’envoi de vidéos en meilleure qualité et la personnalisation des profils, avec des couleurs et cadres d’avatars. Dans une pique clairement adressée à X, Bluesky ajoute qu’elle ne fera pas monter en gamme les comptes simplement parce qu’ils payent un abonnement. Une référence claire à la visibilité des comptes Premium sur X.

☕️ Bitwarden clarifie la situation autour du fameux SDK : c’était un bug

Il y a une semaine, des développeurs s’inquiétaient d’un apparent virage de Bitwarden sur l’open source. Le gestionnaire de mots de passe propose en effet la quasi totalité du code de ses composants en GPLv3 ou AGPLv3.

Un développeur avait découvert que le client Bitwarden avait introduit une dépendance à un SDK interne. Il fallait non seulement l’avoir sous le coude pour compiler le client, mais la licence de ce kit de développement interdisait toute utilisation pour tout autre projet que la construction du client officiel. Beaucoup y voyaient alors une limite franche à la création de clients tiers, alors que c’est justement l’une des forces de Bitwarden.

Kyle Spearrin, fondateur et directeur technique de Bitwarden, avait pris la parole pour expliquer notamment qu’il s’agissait d’établir une clarification sur ce qui était sous GPL et ce qui ne l’était pas.

Dans un nouveau message, il tient cependant à clarifier de nouveau la situation. « Nous avons fait quelques ajustements sur la façon dont le code SDK est organisé et empaqueté pour vous permettre de construire et d’exécuter l’application avec seulement les licences GPL/OSI incluses. Les références du paquetage sdk-internal dans les clients proviennent maintenant d’un nouveau dépôt sdk-internal, qui suit le modèle de licence que nous avons historiquement utilisé pour tous nos clients », commence-t-il par expliquer.

Il ajoute surtout : « La référence sdk-internal n’utilise pour l’instant que des licences GPL. Si la référence devait inclure le code de la licence Bitwarden à l’avenir, nous fournirions un moyen de produire plusieurs variantes de construction du client, similaire à ce que nous faisons avec les builds des clients web de la chambre forte ».

Il précise que le dépôt originel de SDK sera renommé sdk-secrets et qu’il « conservera sa structure de licence Bitwarden SDK existante » pour les produits commerciaux Secrets Manager. « Le dépôt et les paquets sdk-secrets ne seront plus référencés à partir des applications clientes, puisque ce code n’y est pas utilisé », finit d’expliquer Kyle Spearrin. En d’autres termes, il s’agissait d’un bug.

Débats et colère autour des développeurs russes écartés du noyau Linux

Une décision d'au-dessus
Débats et colère autour des développeurs russes écartés du noyau Linux

Il y a quelques jours, on apprenait qu’une douzaine de personnes avaient été écartées de la maintenance du noyau Linux pour ce que l’on supposait alors être une nationalité russe ou une trop grande proximité avec la Russie. L’hypothèse ne fait désormais plus de doutes, Linus Torvalds ayant (violemment) confirmé l’information.

Que s’est-il passé ? Le 22 octobre, Phoronix se faisait l’écho d’un évènement étrange : une douzaine de personnes impliquées dans le développement du noyau Linux étaient officiellement supprimées de la liste des mainteneurs.

Cette disparition intervenait dans le cadre d’un patch poussé par Greg Kroah-Hartman, mainteneur de la branche stable et de nombreux autres composants. Une note indiquait simplement : « Supprimer certaines entrées en raison de diverses exigences de conformité. Elles peuvent revenir à l’avenir si une documentation suffisante est fournie ».

Sans plus d’explications, l’hypothèse la plus évidente était un lien trop prononcé avec la Russie, soit parce que les mainteneurs étaient russes, soit parce qu’ils avaient une proximité avec le pays ou l’un de ses acteurs. Les noms concernés étaient tous à consonance russe et beaucoup avaient des adresses email de type « .ru ».

L’évènement n’est pas passé inaperçu, déclenchant des conversations entre les autres mainteneurs. Ils se demandaient notamment pourquoi cette décision soudaine et remettaient en question la brutalité du processus et le manque d’informations. Était également pointée du doigt une approche très américaine du problème.

Linus Torvalds s’en mêle

Le 23 octobre, le créateur de Linux rejoint la conversation avec son franc-parler coutumier.

« Ok, il y a beaucoup de trolls russes dans les parages. La raison pour laquelle le changement a été effectué est tout à fait claire, il ne sera pas annulé, et l’utilisation de plusieurs comptes anonymes aléatoires […] ne va rien changer. Et à l’information des spectateurs innocents qui ne sont pas des comptes d’usines de trolls, les « diverses exigences de conformité » ne sont pas uniquement une affaire américaine », débute ainsi Torvalds.

Il continue, plus offensif : « Si vous n’avez pas encore entendu parler des sanctions russes, vous devriez essayer de lire les nouvelles un jour. Et par « nouvelles », je n’entends pas le spam sponsorisé par l’État russe. Pour ce qui est de m’envoyer un correctif : utilisez la bouillie que vous appelez cervelle, s’il vous plaît ».

« Je suis Finlandais. Vous pensiez que je soutiendrais l’agression russe ? Apparemment, il ne s’agit pas seulement d’un manque d’informations réelles, mais aussi d’un manque de connaissances historiques », finit le père de Linux. Une référence sans doute à la Guerre d’Hiver, déclenchée par la Russie contre la Finlande le 30 novembre 1939, pour obtenir notamment ses ressources et une partie de son potentiel industriel. Mais un argument très personnel à une demande d’informations complémentaires.

Le problème était bien la Russie

Des informations plus précises ont finalement été publiées hier par un autre mainteneur du noyau, James Bottomley. En réponse à un commentaire estimant que la phrase initiale était « très vague », Bottomley commence par indiquer qu’ils ont « enfin obtenu l’autorisation » de publier un « vrai conseil » aux développeurs.

Le conseil est le suivant : « Si votre entreprise figure sur les listes SDN de l’OFAC, fait l’objet d’un programme de sanctions de l’OFAC ou est détenue/contrôlée par une entreprise figurant sur la liste, notre capacité à collaborer avec vous sera soumise à des restrictions et vous ne pourrez pas figurer dans le fichier MAINTAINERS ».

L’OFAC est l’Office of Foreign Assets Control du département américain du Trésor. Ce bureau tient à jour une liste nommée « Specially Designated Nationals and Blocked Persons » (ou SDN) dans laquelle on trouve les noms des personnes et entités soumises à des restrictions. Il s’agit d’une conséquence des multiples sanctions prononcées contre la Russie depuis le début de l’invasion de l’Ukraine.

Cette action est passée par voie d’avocats. On ne sait pas s’il s’agit d’une demande directe de l’OFAC ou si les avocats de la fondation Linux (dont le siège est aux États-Unis) ont alerté les développeurs sur l’obligation de conformité avec cette liste. En revanche, le code produit par les mainteneurs écartés reste en place, du moins pour l’instant.

L’impact des sanctions

Comme le souligne Ars Technica et le relevait déjà Phoronix il y a quelques jours, ce n’est pas la première fois que les sanctions contre la Russie s’invitent dans la gestion du noyau Linux.

Serge Semin, l’un des mainteneurs supprimés de la liste, a ainsi travaillé chez Baikal. Cette entreprise russe concevait des puces Arm, mais a dû fermer l’année dernière. Les sanctions avaient pour conséquence la révocation de la licence Arm. Semin a publié hier un long message d’adieu, dans lequel il exprime sa frustration devant le processus cavalier. Il ajoute que son travail sur le noyau était « purement volontaire ».

☕️ Copieuse mise à jour pour Windows 11 24H2, le bug des 8,63 Go corrigé

Microsoft a lancé la première mise à jour de « qualité » pour la version 24H2 de Windows 11. Elle ne contient aucun correctif de sécurité et n’est donc pas installée automatiquement, au moins pour le moment. Elle propose cependant de nombreuses améliorations.

Elle corrige ainsi une série de problèmes, dont celui que nous avions rapporté dans l’outil permettant de faire le ménage sur le disque. L’opération prend normalement en compte les fichiers laissés par l’installation des mises à jour de Windows. Dans le cas d’une version majeure comme la 24H2, il peut rester entre 8 et 10 Go de données, qui peuvent être réutilisées en cas de besoin. Ici, l’outil de ménage indiquait avoir fait son travail, mais 8,63 Go apparaissaient toujours. Microsoft avait affirmé qu’il s’agissait d’un simple bug d’affichage.

Parmi les autres bugs corrigés, on en trouve aussi pour DirectAccess, S4U2self (Service for User to Self), la commande sfc /scannow, Winlogon, win32kbase.sys qui créait des fichiers dump du noyau sans en avoir reçu l’instruction, ou encore des soucis avec des éléments d’interface qui disparaissaient quand certaines applications étaient exécutées.

Cette mise à jour KB5044384 apporte aussi du neuf. On peut ainsi bloquer désormais les suggestions de désactivation des notifications, en passant par les points de suspension en haut du message, ou via Paramètres > Système > Notifications. Il est également possible de modifier la touche Copilot présente sur certains nouveaux claviers pour en changer l’action.

Entre autres ajouts, signalons aussi un nouveau clavier Gamepad pour écrire plus vite à l’aide d’une manette Xbox, le changement de « Toutes les applications » en « Tous » dans le menu Démarrer, le support du nouvel Outlook dans le Narrateur et l’ajout d’un raccourci (Narrateur + Ctrl + X) pour copier dans le presse-papiers ce qui a été dit en dernier, ou encore une nouvelle boite de dialogue pour entrer le mot de passe du Wi-Fi, plus en phase avec les canons esthétiques de Windows 11.

La mise à jour est donc relativement importante, en plus des corrections de bugs. Microsoft précise dans son billet que son déploiement est progressif. Elle n’apparait donc pas encore chez tout le monde. En outre, s’agissant d’une préversion, elle sera d’abord disponible chez les personnes ayant activé le paramètre « Recevez les dernières mises à jour dès qu’elles sont disponibles » dans Windows Update.

☕️ Apple présentera de nouveaux Mac toute la semaine prochaine

Une fois n’est pas coutume, c’est par l’intermédiaire d’un simple tweet que l’on apprend l’arrivée de nouvelles machines chez Apple. Greg Joswiak a en effet indiqué hier soir sur X : « Une semaine d’annonces passionnantes nous attend, à partir de lundi matin. Restez à l’écoute… ».

Le message n’est pas une surprise, tant les rumeurs étaient fortes sur l’arrivée de nouveaux Mac la semaine prochaine. L’absence d’évènement de présentation suggère qu’il s’agira surtout d’ordinateurs grand public comme l’iMac et le Mac Mini, ainsi qu’une nouvelle ligne de MacBook Pro. Il ne serait pas encore question du Mac Studio et du Mac Pro. Le MacBook Air, renouvelé avec la puce M3, attendrait encore un peu.

Le renouvellement se ferait par la puce M4, qui n’est présente pour le moment que dans le dernier iPad Pro. Toujours selon les rumeurs, la mémoire minimale passerait à 16 Go, pour tenir compte d’Apple Intelligence. Les accessoires habituels (clavier et souris surtout) passeraient à l’USB-C dans la foulée.

Reste la possibilité d’une ou deux surprises, si Apple compte vraiment annoncer de nouveaux produits chaque jour de la semaine.

En France, le monde publicitaire demande à Apple de supprimer la gomme magique d’iOS 18

Contrôler le contrôle
En France, le monde publicitaire demande à Apple de supprimer la gomme magique d’iOS 18

En mai, une coalition de médias et d’entreprises du monde publicitaire avait envoyé une lettre ouverte à Tim Cook. Elle demandait au patron d’Apple de renoncer à sa fonction de « gomme magique », qui n’existait alors qu’à l’état de rumeur. La fonction étant disponible depuis iOS 18, la coalition envoie une seconde lettre à Tim Cook, ainsi qu’à plusieurs ministres et à la Commission européenne.

iOS 18 a introduit une fonction « Contrôle des distractions » dans Safari. Comme nous l’avions indiqué cet été, elle permet de pointer des éléments sur un site, le navigateur les supprimant alors. Le réglage est persistant d’une session à une autre, à moins que le site ne soit modifié.

Au printemps dernier, avant qu’Apple présente ses nouveautés à la WWDC en juin, cette fonction était à l’état de rumeur. Les bruits de couloir étaient suffisamment insistants cependant pour qu’une coalition de six associations représentant le monde de la publicité s’en émeuve. L’Alliance Digitale, l’Udecam, le Geste, le Syndicat des Régies Internet, l’Union des Marques et l’Apig avaient ainsi envoyé une lettre ouverte à Tim Cook lui demandant, dans les grandes lignes, de renoncer à cette fonction. Déjà, à l’époque, la lettre indiquait que ce type d’affaire avait déjà été porté devant la justice. Une menace à peine voilée.

Maintenant que le Contrôle des distractions est disponible depuis début septembre, la coalition réitère sa demande et hausse le ton.

Une gomme à tout faire

Le préambule de la lettre est assez étrange. La coalition indique en effet que sa première lettre est restée sans réponse, mais qu’en « l’absence de tout commentaire public ou de clarification », elle avait des raisons de penser qu’Apple avait renoncé à sa fonction.

La coalition dit avoir constaté dès le mois d’août l’arrivée du Contrôle des distractions et de sa capacité à masquer n’importe quel élément d’une page web. « Cette évolution a ravivé les mêmes préoccupations que celles qui ont motivé notre lettre initiale, envoyée au nom des 800 entreprises que nous représentons collectivement dans les secteurs des annonceurs, des agences médias, des éditeurs, des médias, de l’AdTech et du marketing mobile », pointe la lettre.

Selon les associations, la fonction de Safari a au moins trois conséquences, puisqu’elle peut :

  • Dissimuler n’importe quel type de contenu, y compris éditorial et protégé par le droit d’auteur, permettant de « faciliter de manière spectaculaire la manipulation d’informations sur Internet et la fidélité des transactions »
  • Servir à masquer les bandeaux et murs de consentement, mettant en péril la conformité avec le droit européen
  • Masquer n’importe quelle forme de publicité

Une grande inquiétude

« Les tests de la version bêta et de la version publique d’iOS 18 ont accru l’inquiétude dans nos différents secteurs d’activité », indique la lettre. Cette inquiétude est d’autant plus forte, pointe la coalition, que d’autres rumeurs indiqueraient que ces fonctions « pourraient être activées dans un avenir proche directement dans les paramètres du navigateur Safari ».

L’association rappelle que Safari a reçu le statut de Core Platform Service en vertu du DMA et que le navigateur est donc soumis à un certain nombre d’obligations, pour ne pas bousculer le marché. Puisque la gomme peut avoir des « conséquences profondes », la lettre demande à Tim Cook d’arrêter le déploiement de cette fonction « dans l’attente d’un examen plus approfondi » et un accès à une documentation complète. La coalition veut « s’assurer que la fonctionnalité est conforme à la législation européenne et respecte les droits de toutes les parties prenantes, y compris les consommateurs européens ».

On peut comprendre que le monde de la publicité soit devenu très sensible aux décisions d’Apple. Il avait été particulièrement échaudé par l’arrivée de l’App Tracking Transparency dans iOS/iPadOS 14.5.

Une fonction pourtant manuelle

Les craintes de l’association se fondent sur le potentiel de la fonction. Effectivement, toute personne en possession d’un produit Apple avec iOS ou iPadOS 18 peut le confirmer. Depuis l’icône située à gauche de la barre d’adresse, on fait apparaître un panneau dans lequel on peut appuyer sur « Masquer les éléments gênants ».

Apple n’a pas justifié l’apparition de cette fonction, mais il est aisé de comprendre son intérêt. Nombre de sites sont aujourd’hui difficiles à naviguer, tant le nombre d’éléments flottants, bandeaux, publicités, vidéos et autres peut parfois être important.

Pourtant, la lettre fait presque du Contrôle des distractions une fonction toute-puissante alors qu’elle est manuelle. Cachée dans un menu, il est probable que nombre d’utilisateurs ne connaissent pas son existence. Il faut spécifiquement aller la chercher et appuyer sur chaque élément que l’on veut supprimer. En outre, elle ne remplace pas les bloqueurs de contenus qui, eux, fonctionnent de manière automatisée. Pourtant, la coalition ne semble pas s’inquiéter de la possibilité d’installer de tels bloqueurs sur iOS et iPadOS.

La lettre, en tout cas, a autant été envoyée à Tim Cook qu’à la Commission européenne, ainsi qu’à plusieurs ministres : Rachida Dati (ministre de la Culture), Antoine Armand (ministre de l’Économie) et Clara Chappaz (secrétaire d’État chargée de l’Intelligence artificielle et du Numérique). Elle indique que tous les recours juridiques sont envisagés, dont « les voies liées à la protection des données, à la
liberté de la presse, aux droits de propriété intellectuelle, aux droits d’auteur, au droit des marques et
à la réglementation de la concurrence 
».

☕️ Vivaldi 7.0 remanie son interface et se synchronise instantanément

Pour son changement majeur de numérotation, Vivaldi se paye un ravalement de façade. L’interface n’est pas intégralement transformée, mais le navigateur modernise un certain nombre d’éléments et ajoute quelques fonctions bienvenues.

Le changement le plus visible concerne les onglets. Ils sont désormais flottants, à la manière de ce que l’on peut voir dans Firefox et quelques autres. Le reste de l’interface a été légèrement repensé pour que tout s’intègre mieux. Selon Jon von Tetzchner, CEO de Vivaldi, l’approche incrémentale habituelle avait le désavantage de donner parfois « l’impression que les nouvelles fonctionnalités ne sont pas à leur place ». Les icônes et thèmes ont donc été remaniés.

Par défaut, les onglets ont une rondeur qui rappelle fortement les éléments d’interface de Google. SI vous êtes allergique à cette apparence, rappelons que Vivaldi permet d’éditer les thèmes. Dans Réglages > Thèmes, cliquer sur « Editeur » au-dessus des vignettes, puis dans l’onglet « Réglages » un peu en dessous. Là, vous verrez une réglette « Coins arrondis » que vous pourrez faire glisser vers la valeur que vous souhaitez.

La plus grosse nouveauté est cependant le tableau de bord. Accessible depuis le Speed Dial, il affiche de nombreuses informations comme la messagerie, les notes, l’agenda, les tâches, le lecteur de flux ou encore des sites que l’on aura épinglés. L’ensemble est entièrement personnalisable, selon les fonctions (emails, agenda, notes…) que l’on aura activées dans le navigateur.

Outre un lecteur de flux permettant maintenant la création de dossiers, le client email se dote d’un bouton flottant « Aller au dernier message » quand on arpente la liste des courriers. Signalons également une amélioration significative de la synchronisation entre appareils, désormais instantanée.

☕️ Google déploie une nouvelle version web de son Agenda en Material Design

Google a annoncé hier soir une nouvelle mouture pour la version web d’Agenda. L’essentiel des nouveautés se concentre dans le passage à Material Design 3.

Les boutons, boites de dialogue et barres latérales se veulent ainsi « plus modernes et accessibles ». La typographie dans l’ensemble de l’interface se veut particulièrement lisible, tout comme l’iconographie utilisée un peu partout. En outre, Agenda peut maintenant basculer en thème sombre, avec le choix possible de suivre le thème du système, pour une adaptation automatique.

Ce changement esthétique commence tout juste à être déployé. La répercussion sur tous les comptes prendra deux semaines, selon Google. Chez les clients Workspace, tout dépend du type de domaine paramétré par les administrateurs. S’il est en déploiement rapide, la diffusion du nouvel Agenda a commencé dans les mêmes conditions : depuis hier soir et sous deux semaines. Pour ceux en déploiement planifié, il faudra attendre le 2 décembre.

Opera One lance une grosse révision R2 : c’est beau, mais moyen sur la vie privée

Bip, plop, chtonk, clap
Opera One lance une grosse révision R2 : c’est beau, mais moyen sur la vie privée

Opera vient de lancer l’une des plus ambitieuses évolutions de son navigateur One. La version R2 ajoute bon nombre de nouveautés, dont beaucoup sont alimentées par l’IA maison Aria. Mais certains comportements posent toujours question.

Opera One R2 intègre donc tout un lot de fonctions liées à l’IA, comme une interface en ligne de commande décrite comme plus puissante, le résumé rapide des pages, les analyses d’articles, les comparaisons entre plusieurs produits lors d’achats en ligne, ou encore la génération et la compréhension des images. On peut par exemple envoyer un croquis et demander à Aria d’en créer une version finalisée, ou se faire expliquer une photo.

La gestion des onglets s’améliore également avec l’arrivée de Split Screen, une fonction qui existe déjà chez plusieurs concurrents, dont Edge et Vivaldi. On peut ainsi joindre deux onglets et leur affecter une moitié de la fenêtre pour les afficher côte à côte. On peut faire glisser la barre de séparation pour modifier l’espace alloué aux sites. La création d’un écran partagé est simple puisqu’il suffit de faire glisser un onglet vers le bas. En outre, quand de nombreux onglets sont ouverts, Opera affiche un trait gris sous les cinq plus récemment utilisés. Ces fonctions viennent compléter les « îles » d’onglets que la version R1 avait inaugurées.

Mini lecteur et thèmes dynamiques

Outre une fenêtre détachable pour les vidéos (commune chez les concurrents), Opera R2 ajoute un petit lecteur assez malin pour la musique. Quand le navigateur en détecte, il affiche une icône dédiée dans la barre latérale. De là, on peut contrôler le flux, par exemple faire pause ou passer la chanson. Le mini lecteur est détachable et repositionnable n’importe où ailleurs sur l’écran. La musique se met automatiquement en pause si on lance une vidéo dans un onglet.

Si Opera met en avant ses performances, son bloqueur de publicités intégré et son support du Manifest V2, le navigateur se distingue également par une nouvelle série de thèmes « dynamiques » nettement plus poussés que ce que l’on peut voir ailleurs. Ces thèmes peuvent même inclure des sons et une musique de fond. Par exemple, Midsommar (le thème, pas le film) affiche des couleurs reposantes (thème clair uniquement), diffuse une musique relaxante (mais tout le temps) et des sons sur certaines actions. Les nostalgiques de Windows 95 Plus! apprécieront sans doute.

De manière générale, Opera One R2 soigne sa présentation. Après l’installation par exemple, l’assistant de bienvenue est particulièrement accueillant, si l’on met de côté un étrange tutoiement. Choix du thème, blocage des publicités, épinglage des messageries et réseaux sociaux dans la barre latérale, et importation des données depuis d’autres navigateurs sont au programme. L’interface est globalement agréable et réactive et on sent qu’Opera a travaillé sa copie (la première préversion date de janvier).

Mais ces nouveautés sont un peu gâchées par le comportement par défaut du navigateur sur les données collectées.

Des comportements critiquables

En dépit d’améliorations somme toute sympathiques, il vaut mieux faire attention lors de l’installation de l’application. Si vous passez rapidement, vous raterez certains réglages qu’il vaut mieux examiner de près, car ils influent grandement sur la quantité d’informations qu’Opera va récupérer.

Dès le premier panneau d’installation, nous vous recommandons de cliquer sur Personnaliser pour accéder à une première série de réglages. Sous Windows par exemple, on trouve des paramètres standards comme le choix de la langue, le type d’installation ou encore le dossier de destination. Mais il y a également le réglage du navigateur par défaut (coché par défaut), le lancement au démarrage de l’ordinateur et surtout l’envoi d’informations sur l’utilisation des fonctions.

Opera enchaine avec un panneau expliquant les bénéfices à l’aider grâce aux données. Rien n’est caché, mais il vaut mieux lire les fins recherchées : statistiques d’utilisation, articles lus dans le fil d’actualités, recherches, sites visités et personnalisation des contenus, actualités et publicités, « généralement » dans le fil d’actualité, précise Opera. Si l’on clique sur Paramètres, on accède au détail de cette collecte, tout étant coché par défaut. On voit d’ailleurs que la position géographique fait aussi partie du lot.

Ce type de comportement n’est pas spécifique à Opera. Des navigateurs comme Chrome et Edge font la même chose, et la question est trop peu souvent posée à l’internaute. Dans le cas d’Opera, on se doute bien que l’éditeur doit rentrer dans ses frais, puisque le navigateur est gratuit et qu’il fournit de nombreuses fonctions de type IA. Le problème se situe dans le nombre de paramètres activés par défaut mais, au moins, on peut décocher les cases en faisant un peu attention.

Intéressant, si l’on sait ce que l’on fait

Outre l’étrange tutoiement, on regrette également certains éléments de langage. Par exemple, Opera One intègre un VPN. On ne va pas refaire le match sur ce type de solution, nous avons clairement exposé notre point de vue sur leur efficacité toute relative quand il s’agit de sécurité.

Dans le cas d’Opera, quand on clique sur le bouton « VPN » situé à gauche de la barre d’adresse, un panneau apparaît avec écrit en gros « Non protégé », ce qui incite bien sûr à cliquer. D’autant qu’il est précisé « Activer pour une confidentialité améliorée ». Toutes les informations de la session de navigation transitent alors par Opera. En outre, le VPN n’est gratuit que pour 7 jours, après quoi il faut passer à la caisse, à partir de 4 euros par mois en paiement annuel.

Faut-il faire l’impasse sur Opera One R2 ? Pas forcément. En matière d’expérience utilisateur, le navigateur a d’évidentes qualités. Le soin apporté à l’interface, la gestion des onglets, la réactivité générale, le bloqueur de publicités intégré, le mini lecteur et le reste sont autant de points forts. En revanche, si votre objectif principal est la confidentialité et le respect de la vie privée, il ne sera pas le mieux positionné.

❌