Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierNext INpact

L’expression « produit reconditionné » bientôt définie officiellement

25 janvier 2021 à 09:43

Un projet de décret notifié à la Commission européenne par la France, officialise la définition de cette expression. La mesure a été initiée dans la foulée de la loi du 10 février 2020 sur l’économie circulaire. Dans ce texte sur la rampe, le gouvernement conditionne l’usage de cette expression au respect d’une série de conditions.

« Il doit s’agir d’un produit ou d’une pièce détachée d’occasion (…) ayant subi des tests portant sur toutes ses fonctionnalités afin d’établir qu’il ou elle répond aux obligations légales de sécurité et à l’usage auquel le consommateur peut légitimement s’attendre, ainsi que, s’il y a lieu, une ou plusieurs interventions afin de lui restituer ses fonctionnalités »

De plus, le décret prévoit qu’à chaque fois que cela sera nécessaire, l’intervention précitée passera par « la suppression de toutes les données à caractère personnel enregistrées ou conservées en lien avec un précédent usage ou un précédent utilisateur ». 

Il indique que ces mesures devront se faire dans le respect du RGPD, notamment « en ce qui concerne le droit à la récupération et à la portabilité des données à caractère personnel ».

Les sites ne pourront plus utiliser des expressions similaires comme « état neuf », « comme neuf », « à neuf » ou toute mention équivalente, pour vendre un produit qualifié de « reconditionné ». Le texte doit entrer en vigueur le 1er avril 2021. 

Pour le gouvernement, « cette disposition a été introduite dans la loi afin de protéger le consommateur des opérateurs qui proposent des produits reconditionnés sans avoir fait les tests nécessaires pour vérifier que le produit est en état de fonctionner et ne présente pas de problèmes de sécurité ». 

Aujourd’hui, « cette protection du consommateur est d’autant plus nécessaire que le marché des produits reconditionnés se développe fortement, compte tenu du fait que ces produits sont moins chers que des produits neufs ». 

Ainsi, ajoute-t-il, « le développement du marché des produits reconditionnés, qui préserve l’environnement, doit se faire en garantissant les droits des consommateurs. »

Windows 10 : la capture d’écran améliorée via le Feature Experience Pack dans le canal Beta

27 janvier 2021 à 09:41

En juin dernier, la question était entière : qu’était le Windows Feature Experience Pack apparu dans Windows 10 avec la mise à jour 2004 (Mai 2020) ? 

La réponse était tombée en fin d’année. Microsoft allait s’en servir pour distribuer des mises à jour d’applications internes, à mi-chemin entre Windows Update, utilisé pour les mises à jour système, et un Microsoft Store essentiellement là pour les applications tierces. 

On aurait donc à terme une décorrélation entre l’ajout de fonctions et les mises à jour semestrielles, dont le rythme est trop « lent ». Les nouveautés seraient diffusées probablement chaque mois, s’il y en a.

En décembre, Microsoft avait utilisé le canal Beta de Windows 10 pour distribuer deux améliorations, l’une pour l’outil de capture d’écran, l’autre pour le clavier virtuel. L’entreprise remet le couvert.

Nouveau test hier soir, avec la diffusion d’une nouvelle version pour l’outil de capture d’écran. On sait simplement que sa fiabilité a été améliorée, notamment avec les applications accédant souvent au presse-papier. Cependant, la capacité à créer directement un fichier via Ctrl + V dans un dossier est pour l’instant supprimée, suite à des retours de mauvais fonctionnement. Elle reviendra plus tard.

Il s’agit davantage, une nouvelle fois, de tester la diffusion via le Feature Experience Pack que les nouveautés ainsi distribuées. Quitte à améliorer l’outil de capture, il serait d’ailleurs bon que Microsoft ajoute enfin une option pour déclarer un dossier par défaut, dans lequel toutes les captures iraient automatiquement s’enregistrer, en JPG ou en PNG.

Instagram : une API Content Publishing pour diffuser depuis des plateformes tierces

27 janvier 2021 à 09:41

Dans un billet de blog, la société (filiale de Facebook) dit avoir reçu de nombreux retours d’entreprises expliquant leurs besoins. 

Notamment qu’elles ne publient pas toujours le contenu spontanément, mais le prévoient à l’avance, selon des critères propres, comme des campagnes publicitaires. D’autres exposent ces plans à plusieurs équipes en même temps, la décision passant ensuite par un processus complexe d’approbation.

La nouvelle interface Content Publishing pour les développeurs va permettre une intégration de l’export vers Instagram depuis des plateformes tierces utilisées pour les campagnes publicitaires.

Pour l’instant, l’API autorise les comptes Business (et uniquement ceux-là) à publier un maximum de 25 posts (une photo ou une vidéo) par période de 24 heures. Cette limite ne tient pas compte des autres méthodes de publication. Les entreprises peuvent donc en publier davantage en passant par l’interface classique du service, au risque évidemment de saturer l’attention du public.

Laure de la Raudière est officiellement la nouvelle présidente de l’Arcep (pour six ans)

28 janvier 2021 à 09:51

Celle qui avait été proposée a passé ses auditions devant le Sénat et l’Assemblée nationale, recueillant une très large majorité des voix. Il ne restait donc plus qu’à attendre le décret au Journal officiel pour entériner sa nomination.

C’est désormais chose faite. Laure de la Raudière se dit « très motivée et heureuse de commencer cette nouvelle page professionnelle ». L’Arcep a publié un communiqué revenant sur le parcours de sa nouvelle présidente et ses priorités.

Vivaldi 3.6 permet une gestion des onglets à deux niveaux

28 janvier 2021 à 09:51

Le navigateur est connu pour ses grandes possibilités de personnalisation, et ses fonctionnalités parfois plus poussées que la concurrence. La dernière mouture en date ne déroge pas à la règle.

Elle permet en effet de gérer les onglets sur deux niveaux, un peu comme on imbriquerait des fichiers dans un répertoire. L'affichage peut paraître étonnant, mais devrait permettre à certains de mieux organiser les éléments de leur navigation. 

Une vidéo de présentation et tous les détails sont donnés par ici.

Apple : l’App Tracking Transparency actif au début du printemps, Mark Zuckerberg en colère

28 janvier 2021 à 16:11

Apple a attendu le Data Privacy Day pour en dire enfin davantage sur les mesures qui entreront bientôt en vigueur pour donner plus de contrôle aux utilisateurs sur la collecte de données personnelles. Un mécanisme simple, sans révolution, mais suffisamment efficace pour que Facebook monte au créneau.

Lors de la WWDC de juin 2020, Apple avait préparé le terrain. On attendait ainsi deux grandes mesures. Dans un premier temps, l’arrivée de renseignements supplémentaires dans les fiches d’applications sur l’App Store, centrées sur les données consommées. Mais pas n’importe lesquelles : celles pouvant faire le lien avec l’identité de la personne, les fameuses données personnelles. Ces informations sont présentes depuis le 1er janvier.

Dans un second temps, une demande faite à l’utilisateur pour accéder à son IDFA (Identifier for Advertisers), pour chaque application. L’IDFA est l’identifiant d'iOS permettant un suivi transversal des habitudes, donc à travers l’ensemble des applications. Il permet la collecte de données personnelles tierces et ainsi la personnalisation renforcée des espaces publicitaires. Le tout est réuni sous l’appellation App Tracking Transparency, ou ATT.

C’est justement l’objet de la communication d’Apple hier soir : annoncer la couleur.

L’autorisation d’accès « au début du printemps », son fonctionnement

Si Apple n’a pas fourni de date précise pour sa mise en place, on sait désormais que la demande d’autorisation sera active au début du printemps. Elle arrivera par le biais d’une mise à jour d’iOS qui doit arriver prochainement en bêta. Il s’agira probablement de la mouture 14.5, la 14.4 étant disponible depuis peu.

Avec l’installation de cette future version, le comportement du système sur l’IDFA sera inversé : on passe d’un opt-out à un opt-in. En conséquence, chaque application lancée pour la première fois après la mise à jour et souhaitant accéder à cet identifiant devra en faire la demande. Si la personne interrogée refuse, l’accès à l’IDFA est bloqué.

C’est un changement important vis-à-vis des données personnelles tierces, dont l’aspiration se fera uniquement avec l’accord de l’utilisateur. Elles sont placées par iOS au même niveau que le micro, les contacts ou l’appareil photo, c’est-à-dire protégées par une notification et un consentement clair, dans l'esprit de lois comme le RGPD.

Apple a d'ailleurs publié un document montrant comment, depuis un cas pratique, deux personnes diffusaient leurs données personnelles sur Internet.

Apple Facebook ATT IDFA

Mais attention : refuser l’accès à l’IDFA ne signifie pas qu’une application ne récoltera plus de données personnelles. On parle bien de données tierces, donc récoltées à travers les autres applications et services.

Pour prendre l’exemple de Messenger, à la fiche descriptive de vie privée copieusement garnie, rien ne l’empêchera d’aspirer les données des utilisateurs au sein de son propre périmètre. Notez également qu’il sera possible de couper complètement l’utilisation de l’IDFA dans les paramètres.

Dans ce cas, plus aucune application ne pourra y accéder et ne génèrera donc de demande.

Le réglage valable pour les applications Apple, un nouveau cadre proposé

Plusieurs points sont à préciser. D’une part, les propres applications d’Apple seront soumises à ce mécanisme, l'entreprise le confirme. Non que ce soit particulièrement utile actuellement, puisque son modèle commercial ne repose pas sur la collecte de données personnelles et la publicité. Nous reviendrons sur ce point.

D'autre part, Apple explique que les éditeurs et régies publicitaires peuvent se passer entièrement de l’IDFA et donc ne pas être soumis à la nouvelle demande d’autorisation ? En passant par SKAdNetwork, un cadriciel (framework) conçu pour remonter tout un ensemble d’informations aux régies, sans en dire trop.

Dans le système actuel, l’IDFA sert à repérer l’ensemble des évènements. Si un utilisateur clique sur une publicité, la régie le sait. Et si le même identifiant lance l’application promue, la régie en est tout aussi informée. Ce qui permet de créer un profil d’habitudes et de savoir s’il y a eu conversion. Avec SKAdNetwork, ces données sont collectées par iOS et l’App Store, puis transformées en statistiques anonymes. La régie a les informations qu’elle voulait – une personne a cliqué sur une publicité puis a lancé l’application – mais elle ne peut plus savoir de qui elles proviennent.

L'un des problèmes pourrait être là : la solution proposée par Apple aux publicitaires pour ne pas avoir à récolter un consentement est une solution Apple. Des alternatives seront-elles possibles ?

Le secteur de la publicité, qui a tout misé sur la collecte massive de données ces dernières années, faisant tout pour préserver ce modèle sans réellement travailler à des alternatives crédibles, se fait ainsi prendre à son propre piège : déjà préoccupé par les géants américains qui captent l'essentiel de la valeur, il a laissé l'opportunité à un autre acteur de le prendre en tenaille sur le terrain du respect de la vie privée qu'il a refusé d'investir sérieusement. 

Et dans la bataille qui s’annonce, Apple a déjà un allié de poids : Google. Dans une note parue hier soir, la société informe les développeurs de l’arrivée prochaine de l’ATT. Elle leur recommande chaudement de passer à la version 7.64 de son SDK Mobile Ads, qui supporte justement SKAdNetwork. À Mountain View, on précise quand même travailler avec le reste de l’industrie pour « fournir à Apple des retours sur la manière d’améliorer encore SKAdNetwork afin que les publicitaires puissent mesurer précisément leurs campagnes sur iOS 14 ».

Cela étant, Google fait une autre annonce : à compter de l’activation de l’ATT, ses propres applications ne se serviront plus de l’IDFA, mais bien de SKAdNetwork. En conséquence, les applications Google n’afficheront aucun avertissement. Cela ne changera rien à la manière dont Google collecte des données au sein de ses propres services. Et l’entreprise de rappeler qu’elle place toujours les utilisateurs et leur vie privée en premier, et que «la transparence, le choix et le contrôle forment le socle de [son] engagement ». Elle en profite pour mentionner sa Privacy Sandbox, mais étrangement pas son veto récent à une importante décision du W3C.

Facebook ne décolère pas

On sait tout le mal que Facebook pense des nouvelles mesures d’Apple depuis des mois. En fin d’année dernière, le réseau social a publié une longue explication sur l’effet néfaste qu’elles vont entrainer, Facebook se positionnant alors en défenseur des particuliers et des petites et moyennes entreprises.

Durant la présentation des derniers résultats trimestriels, Marc Zuckerberg est revenu à la charge, indiquant pour la première fois qu’Apple devenait l’un de ses « plus gros concurrents ». Mais concurrence ou pas, il est clair pour lui qu’Apple abuse ses clients avec des arguments trompeurs, sous couvert de promouvoir la vie privée.

« Apple peut toujours dire qu'elle fait cela pour aider les gens, mais cette mesure est clairement prise dans son propre intérêt », a ainsi déclaré le patron de Facebook. Pourquoi ? Il ne détaille pas, mais l’explication n’est pas un mystère : les données personnelles ne sont pas utiles à Apple, dont le chiffre d’affaires ne dépend pas de la publicité. Contrairement à Facebook, chez qui elle représente environ 96 % des revenus.

Il est d’autant plus facile pour Apple de lancer des mesures qui vont à la fois promouvoir sa vertu et faire des dégâts à ses concurrents. Mark Zuckerberg reprocherait-il finalement à son concurrent de s’être emparé avec cynisme d’une armure de chevalier blanc ?

Décidé à renvoyer Apple dans les cordes, Facebook continue : « Apple a lancé récemment ses « informations nutritionnelles » qui se concentrent en grande partie sur les métadonnées que les applications collectent, plutôt que sur la vie privée et la sécurité des messages des gens, mais iMessage stocke des sauvegardes non chiffrées de bout en bout de vos messages par défaut, à moins que vous ne désactiviez iCloud ».

Hormis l’étrange décorrélation faite entre métadonnées et vie privée, Zuckerberg a raison sur iMessage. La situation est cependant connue depuis longtemps : dès lors qu’iCloud est activé, le service réalise des sauvegardes des données des appareils sur les serveurs d’Apple. Elles ne sont protégées que par un chiffrement simple, donnant à Apple la possibilité d’y prélever des informations en cas d’enquête.

Le sujet avait été copieusement mis en lumière après la tuerie de San Bernardino : le FBI exigeait d’Apple qu’elle débloque les données de l’iPhone, car le terroriste qui l’avait utilisé avait coupé iCloud. Zuckerberg enfonce le clou, ajoutant que le chiffrement de bout en bout de WhatsApp rend ce dernier « clairement supérieur » à iMessage. La messagerie d’Apple semble être curieusement un point de cristallisation pour le patron de Facebook, qui n’évoque pas les échanges sur Messenger, alors que le réseau social est utilisé par 2,8 milliards de personnes dans le monde.

Rappelons quand même que Facebook a récemment averti lui aussi les développeurs et partenaires de la nécessité de se préparer au changement en approche. Ses SDK ont été mis à jour pour prendre en charge SKAdNetwork.

Une nouvelle étape vers l’assujettissement des ordinateurs à la copie privée

29 janvier 2021 à 09:12

C’est l’Institut CSA qui a été choisi par la Commission Copie privée pour réaliser l’étude d’usages concernant les disques durs internes aux ordinateurs. La société était en concurrence avec GFK. 

Les 12 ayants droit ont voté pour l’Institut CSA, les 6 représentants des industriels pour GFK. Les 6 représentants des consommateurs n’étaient pas présents. Le secteur culturel étant en force, il a pu imposer ses  vues, comme à chaque fois au sein de cette instance où ils sont en force.  

« Le choix final du titulaire du marché revient au ministère en tant que pouvoir adjudicateur », a rappelé Jean Musitelli, président de la Commission Copie privée. Cette désignation va permettre d’enclencher la vitesse supérieure vers l’assujettissement des ordinateurs fixes et portables. 

Il suffira en effet que les études d’usages révèlent que les particuliers ont réalisé des copies d’œuvres sur leur ordinateur pour que les ayants droit puissent butiner des millions d’euros supplémentaires de redevance. 

Combien ? Tout dépendra du barème qui sera adopté au sein de cette instance où ils sont en capacité de déterminer les montants qu’ils vont toucher.  En 2019, ils avaient collecté près de 270 millions d’euros, dont 70 % sur les smartphones.

Ubuntu 21.04 va à nouveau tenter Wayland par défaut

29 janvier 2021 à 09:12

Lors du développement d’Ubuntu 17.10, Canonical avait tenté d’utiliser le nouveau serveur d’affichage par défaut, en remplacement de X.org, qui restait bien sûr comme solution de fallback. Ce fut un échec et la société n’avait plus essayé depuis.

Avec l’arrivée d’Ubuntu 21.04, Canonical veut retenter. Dans une note, la société explique que nombre d’obstacles ont depuis été balayés, notamment avec le partage d’écran.

Ce qui ne signifie pas que la prochaine Ubuntu aura forcément Wayland par défaut. Avec une sortie prévue en avril et une bêta qui devrait arriver deux semaines avant, il reste entre deux et trois mois aux développeurs pour tester la fiabilité d’une session Wayland par défaut.

Rappelons que Fedora a fait de Wayland son serveur d’affichage par défaut depuis la version 25, sortie… en novembre 2016. La distribution a certes essuyé en partie les plâtres, mais elle n’est jamais revenue sur sa décision, chaque nouvelle mouture améliorant significativement ce support.

Le Project Zero de Google se penche sur la sécurité améliorée de… iMessage dans iOS 14

29 janvier 2021 à 09:12

Dans notre article hier, nous avons vu comment Facebook pestait contre l’arrivée prochaine de l’ATT sur iOS 14, qui forcera les applications à demander l’autorisation pour accéder à l’identifiant unique publicitaire (IDFA).

Mark Zuckerberg, durant la présentation des derniers résultats trimestriels de son entreprise, s’en est notamment pris à iMessage, dont les sauvegardes sur iCloud ne sont pas protégées par le chiffrement de bout en bout.

Et voilà que Google, relativement silencieux sur la thématique de la publicité et même « bon élève » en implémentant la solution d’Apple, décide justement de publier un article sur iMessage. Via son Project Zero, on en apprend davantage sur le sérieux renforcement de la sécurité avec iOS 14.

Selon Google, un pirate cherchera idéalement à obtenir une corruption de mémoire ne requérant aucune interaction de l’utilisateur. Il faut alors au minimum les éléments suivants : une vulnérabilité, une manière de casser l’ASLR à distance, un moyen de transformer la vulnérabilité en exécution distante de code et une méthode pour s’échapper de la sandbox.

L’article explique qu’avec iOS 14, Apple a largement remanié le fonctionnement d’iMessage et a introduit un service pour en renforcer la sécurité, BlastDoor. Il s’agit d’une nouvelle sandbox, beaucoup plus stricte, écrite en Swift (langage memory safe) et responsable de l’analyse des données provenant de sources non sûres, par exemple NSKeyedArchiver.

Google ajoute qu’Apple s’est également débarrassé d’une ancienne faiblesse de son implémentation d’ASLR : le cache partagé, ce qui permettait une attaque spécifique sur cette région. iOS 14 détecte ce type d’attaque et, le cas échéant, lance une nouvelle randomisation du cache.

En outre, le service BlastDoor rend les tentatives de casser d’ASLR par force brute plus complexes. Un mécanisme d’étranglement (throttling) exponentiel a été mis en place, géré par launchd. Si l’attaque provoque un plantage du processus, BlastDoor double à chaque fois le temps d’attente avant qu'une nouvelle tentative puisse être faite, jusqu’à un maximum de 20 min (a priori). L’attaque aurait ainsi besoin d’une demi-journée pour réussir sur ce point, là où il fallait auparavant quelques minutes.

Le papier, très technique, se conclut sur une note évidemment très positive, Google félicitant Apple pour les mesures proactives faites sur iMessage, la société ne s’étant pas contentée de corriger quelques bugs.

Mark Zuckerberg pourrait toujours faire valoir que cela ne résout en rien le problème des sauvegardes non chiffrées de bout en bout sur iCloud. Mais cela ne résout en rien non plus le problème des communications non chiffrées de bout en bout de Messenger.

Mozilla dresse un état de santé d'Internet en 2020, et ce n'est pas brillant

2 février 2021 à 13:08

Mozilla a publié son rapport sur l’état de santé d’Internet. Et le constat n’est pas bon : désinformation, biais en tous genres, voire éclatement du réseau des réseaux. Pour la fondation, les progrès sont non seulement possibles, mais nécessaires.

C’est la quatrième fois que Mozilla publie un bilan annuel de ses observations sur les développements d’Internet. Les angles d’analyse sont multiples, mais l’ensemble constitue ce que la fondation nomme elle-même un « état de santé », selon ses propres critères.

Pour Mozilla, cet état ne dépend pas du déploiement de la fibre ou d’IPv6, mais de la manière dont l’information est servie, par qui et avec quel accès. Et l’année 2020, si particulière à bien des égards, n’est pas brillante. Avec une nouveauté : la santé d’Internet s’est retrouvée profondément liée à celle des personnes, la crise sanitaire ayant fait exploser les usages numériques.

Deux thématiques tiennent à cœur à Mozilla : la diversité et les biais. Et parmi ces derniers, le « biais racial » est le plus grave selon la fondation, car il s’insinue de manière insidieuse partout. Et lorsque l’on parle de biais, on ne parle pas de comportement volontaire, mais d’un parti pris qui imprègnera jusqu’aux décisions les plus techniques avec, dans le collimateur de la fondation, les processus d’intelligence artificielle.

Une année 2020 bien spéciale

« Ce fut une année plein de pertes et chargée de changements très rapides, à mesure que la pandémie globale et la crise climatique frappaient tout le monde collectivement, tout en approfondissant les inégalités ». Un préambule bien sombre, mais Mozilla étaye son propos.

La fondation revient sur les nombreux confinements et couvre-feux qui ont émaillé les décisions des gouvernements un peu partout sur la planète. « Alors que de nombreux pays mettaient en place des confinements et des fermetures d’écoles, nous avons vu un changement d’une ampleur que nous aurions jugée impossible avant. Le rythme déjà rapide de l’expansion numérique a encore pris de la vitesse tandis que les gouvernements, services officiels de santé publique, entreprises et investisseurs de startups (presque tout le monde) cherchaient des solutions rapides à des problèmes urgents ».

Méfiance donc devant une explosion de nouvelles applications et l’arrivée soudaine de l’intelligence artificielle dans un plus grand nombre de services, pour aider à la prise de décisions, suivre l’évolution de la crise sanitaire, etc. De nouvelles pratiques ou d’anciennes intensifiées dans le sillage du coronavirus, entrainant une ribambelle de développements à surveiller, de l’absence de stratégie à long terme sur la vie privée « au vaste tracking des citoyens, employés et étudiants ».

Sept grands vainqueurs

Sur les dix plus grandes capitalisations boursières au monde, sept sont des géants du numérique : Apple, Microsoft, Amazon, Alphabet, Facebook, Tencent et Alibaba.

Mozilla pointe des profits qui ont explosé dans un contexte qui a largement renforcé leur puissance. Parmi les solutions rapides adoptées par de nombreux acteurs (privés comme publics), on retrouve l’utilisation de produits prêts à l’emploi qui n’attendaient plus que de nouveaux clients. Mozilla trace un parallèle entre l’augmentation de cette puissance et le nombre en augmentation de procédures en cours ayant trait à la vie privée.

Mozilla Health Report 2020

Mozilla évoque également un nombre croissant d’employés critiquant leur entreprise sur divers sujets, notamment le manque de diversité, l’éthique ou encore le type de contrats passés. Les exemples donnés par Mozilla pour tous ces points concernent Google. Seule exception, un groupe d’employés d’Amazon appelant l’entreprise à prendre ses responsabilités sur le plan environnemental.

Les grands médias sociaux sont vertement critiqués pour « leur tracking rampant, leur modération perfectible des contenus, leur transparence limitée des publicités politiques, leurs recommandations nocives, leurs biais algorithmiques, leur évasion fiscale » et autres. N’en jetez plus. « À travers le monde, la désinformation et les discours de haine ont été accélérés aussi bien par les actions humaines que les recommandations algorithmiques, de manières qui bénéficient à des groupes aux intentions cachées : déstabiliser et polariser les sociétés ».

Une inaction qui a pris un tour inattendu durant les dernières semaines du mandat de Donald Trump. Suite aux évènements du Capitole, Twitter, Facebook et d’autres ont finalement décidé d’agir contre l’ancien président, récemment remplacé par Joe Biden.

Depuis, les débats sont nombreux sur la place qu’occupent ces plateformes privées touchant des milliards de personnes à travers le monde. D’un côté, les tenants du rappel : ce sont des sociétés privées, qui font appliquer le règlement qu’elles souhaitent. De l’autre, ceux du débat démocratique, qui insistent sur la nécessité de neutralité de ces plateformes.

Apple, Microsoft, Amazon, Alphabet, Facebook, Tencent et Alibaba, par leur prévalence, ont une responsabilité accrue de lutte contre la désinformation. Et attention : « Les problèmes ne sont pas résolus en se contentant de supprimer le contenu », prévient Mozilla. « Retirer simplement le contenu n’améliore pas les systèmes qui déterminent ce qui est amplifié et ce qui est effacé par les algorithmes de la plateforme ». Ce d’autant qu’aucune des grandes plateformes n’est transparente sur le développement de ses algorithmes.

On se souvient notamment comment Mozilla avait copieusement documenté les problèmes relevés sur YouTube, dont 70 % des vidéos regardées viennent des recommandations.

De sérieux problèmes de biais

L’une des plus grandes inquiétudes de Mozilla concerne les biais. Selon la fondation, ils sont omniprésents et ont un impact aussi durable que concret sur la représentation de l’information dans une société qui en est saturée.

Parmi toutes ces distorsions, Mozilla se penche tout particulièrement sur le « biais racial », aux multiples ramifications contre les minorités ethniques et les noirs. Un biais qu’une majorité ne voit pas, car elle n’en soupçonne pas l’existence. Si l’on tape par exemple « robot intelligence artificielle », toutes les représentations ou presque sont blanches. Et dans les cas (nombreux) où le robot a un visage, il est le plus souvent masculin.

Mozilla Health Report 2020

Mozilla pointe qu’il ne s’agit pas d’une volonté propre aux créateurs des algorithmes, mais de biais – donc de distorsions plus ou moins inconscientes – induits par leur propre représentation du monde. Ils influent sur le développement, et une certaine forme de racisme se retrouvée codée au sein de mécanismes chargés de présenter une information. La fameuse dualité amplification/suppression qu’évoquait Mozilla, avec le risque très réel d’invisibilisation des minorités.

Mozilla rappelle également comment les algorithmes ont pu mener à d’autres sérieux problèmes. En 2009, une recherche sur les mots « black girls » dans Google menait essentiellement à des scènes pornographiques mettant en scène des femmes de couleur, comme révélées alors par Safiya Umoja Noble. La situation fut corrigée, mais sans que Google s’engage dans des initiatives plus ouvertes sur le sujet. En juin 2020, les clients de publicités en ligne utilisant les termes « black girls », « latina girls » et « asian girls » se voyaient encore proposer essentiellement des mots-clés à caractère pornographique, selon The Markup.

Pour la fondation, une bonne partie de ces biais sont issus de l’entourage immédiat des personnes, aussi bien celui qu’elles se composent elles-mêmes que celui de leur travail. Ici, les entreprises ont un rôle à jouer. Mais pour Mozilla, la partie est loin d’être gagnée. Elle prend pour exemple la seule présence des femmes en entreprise. La situation s’est légèrement améliorée au cours des quelques dernières années, mais elle est comprise entre 17 et 23 % chez les géants du numérique, une part jugée très insuffisante. Les vidéos de présentation des produits, notamment chez Apple, sont donc trompeuses, les entreprises faisant attention à respecter une stricte parité chez les intervenants.

Pour les mêmes raisons, l’autre grand biais est que de nombreux résultats sont centrés sur les États-Unis. « C’est parce que cela reflète un corpus particulier de contenus web et le contexte des développeurs logiciels, responsables, et dirigeants de compagnies technologiques qui sont rarement diversifiées en matière de race, ethnicité ou genre », pointe Mozilla.

En somme, une conclusion évidente : « Alors que la représentation courante d’un utilisateur "par défaut" est omniprésente, ce concept monolithique d’un utilisateur généralisé est souvent basé sur des spécificités invisibles qui sont considérées à tort comme universelles : blanc, homme cisgenre, Américain ». Considérant le manque de diversité dans les grandes entreprises, la fondation n’est donc pas étonnée que les biais algorithmiques soient si présents.

Et si de simples résultats de recherche sont déjà un sérieux problème, les biais peuvent avoir des conséquences dans la vie de tous les jours, allant de distributeurs de savon ne reconnaissant pas les mains de personnes de couleur, aux systèmes de reconnaissance faciale identifiant mal les femmes de couleur. « Bien sûr que les algorithmes sont racistes. Ils sont créés par des gens », titrait ainsi le journaliste Stephen Bush dans l’un de ses articles.

Mozilla va plus loin et intègre de nombreux exemples. Elle rappelle que 2020 a été marquée par un début de réveil des consciences avec le mouvement BlackLivesMatter, dans le sillage de la mort de George Floyd, un afro-américain tué (asphyxie posturale) par un officier de police blanc en plein jour. Dans les mois qui avaient suivi, IBM avait annoncé l’arrêt définitif des ventes de solutions de reconnaissance faciale. Quelques jours plus tard, Amazon annonçait un moratoire d’un an. Microsoft avait enchainé, indiquant que plus aucune technologie de ce type ne serait vendue aux forces de police tant qu’un cadre législatif fédéral ne serait pas défini.

Mais Mozilla craint que le réveil soit tardif, particulièrement en regard de l’invasion de la surveillance dans le quotidien, aussi bien celle dans les rues que celle achetée par les particuliers, qu’il s’agisse d’équipements de protection ou simplement… de réseaux sociaux.

Le splintering, ou l’éclatement d’Internet

C’est une autre des grandes préoccupations de Mozilla. « La pandémie est devenue un nouveau prétexte pour la censure du journalisme indépendant et une surveillance accrue. Lorsqu’elles ont rencontré une opposition ou un conflit, des autorités un peu partout dans le monde ont fréquemment coupé ou étranglé les connexions internet afin de censurer et réduire au silence ».

Le Cameroun, l’Inde, le Soudan, l’Indonésie et le Zimbabwe sont cités comme exemples dans lesquels la situation a pu s’améliorer. Les ordres de coupure y ont été combattus par des militants des droits numériques, avec succès. Mais souvent, ces coupures sont brèves et localisées, les rendant difficiles à combattre.

Pour Mozilla, le « splinternet » est « déjà une réalité ». Le terme désigne un Internet fragmenté, tiraillé de toutes parts par les intérêts divergents des États et grandes entreprises, ce que Quartz nomme le « techno-nationalisme ».

Dans un nombre croissant de pays, de larges pans d’Internet deviendraient ainsi inaccessibles ou strictement contrôlés. Ce constat, ajouté à la prise de contrôle par certaines entreprises, participe à une fragmentation qui menace les fondements de ce que devait être le réseau des réseaux, à savoir une place pour échanger librement.

« Dans cette nouvelle réalité, conserver la capacité centrale du web à valoriser les voix pour qu’elles atteignent des audiences globales et brisent les barrières d’accès à l’information sera critique pour préserver son ouverture », note la fondation.

Elle pointe en outre la complexité du sujet, quand les mêmes technologies utilisées pour diffuser la parole dans certains pays peuvent aussi servir à cacher des crimes.

Depuis ses promesses initiales, le web a vécu

Pour Mozilla, un ensemble particulier de fonctions techniques et architecturales ouvertes donnaient sa spécificité à Internet : une structure décentralisée, un modèle logiciel en couches, des réseaux de bout en bout, des standards ouverts et de l’open source.

L’accès, l’opportunité et la valorisation étaient des notions clés, d’autant plus présentes que les technologies retenues permettaient une diffusion sans frontière de l’information. La fondation ajoute que cette ouverture ne s’est pas faite sans restrictions, à mesure que des normes sociales puis des lois sont venues encadrer l’ensemble.

« Aujourd’hui, beaucoup de ces systèmes ouverts originaux sont profondément encapsulés et contrôlés par des systèmes informatiques propriétaires. Il y a plus de logiciels open source que jamais et l’open source continue d’ajouter une valeur positive à l’écosystème global. Et pourtant, l’expérience de bien des utilisateurs internet a migré vers des systèmes fermés, plus particulièrement les plateformes sociales populaires d’aujourd’hui », regrette Mozilla.

La fondation pointe en particulier plusieurs problèmes. Tout d’abord les « API ouvertes » qui ont remplacé en partie les standards ouverts. Ces interfaces ne sont que des sous-ensembles limités des standards et participent à la formation des fameux « jardins murés ». Ensuite, l’open source est très largement utilisé par des sociétés comme Amazon, Facebook et Google, mais il participe à la création de produits qui, eux, ne sont pas ouverts. Les données des utilisateurs s’y retrouvent piégées.

Le sens de « communauté » a également changé sous l’influence de ces entreprises. On ne parle ainsi plus d’un groupe autogouverné cherchant à produire une technologie utilisable par tous, mais d’une notion plus proche de « clients utilisant nos produits ». Et dans un tel groupe, la moindre décision d’une entreprise détermine ce qui est possible, sans parler de la surveillance de leurs habitudes pour en revendre les informations à des tiers.

Aucun mécanisme actuel de responsabilité ne semble taillé pour empêcher le modèle commercial « corrosif » de ces entreprises, que Mozilla décrit comme un « capitalisme de surveillance ».

Le bilan de Mozilla est ce qu’il annonce être : une collection de constats faits par la fondation, selon son propre prisme de lecture bien sûr. La fondation ne propose pas forcément une longue liste de solutions, car elles relèvent pour elle de l’évidence. Elle appelle ainsi chacun à se souvenir des idées et missions premières du web et plus globalement d’internet.

Face aux grandes entreprises, le choix des utilisateurs est primordial. Les produits proposés devraient toujours faire l’objet d’un choix éclairé, même si de nombreuses personnes n’ont que peu d’intérêt pour ce domaine. Les récents déboires de WhatsApp et la vague de nouveaux arrivants sur Signal ont montré que certaines situations pouvaient évoluer. Par leurs choix, les utilisateurs façonnent ainsi le marché. « Pour bâtir la vie en ligne que nous voulons, la communauté Internet elle-même doit être la voix de ces valeurs », conclut ainsi la fondation.

Le PDG de Parler largué par son entreprise

4 février 2021 à 09:19

Parler est le fameux réseau social vers lequel tous les regards se sont tournés après les évènements du Capitole aux États-Unis. 

Largement pointée du doigt pour avoir joué un rôle important, l’application a été supprimée des boutiques d’Apple et Google pour ne pas avoir su modérer plus efficacement les discours de haine et appels à la violence. Amazon a enchainé en coupant l’hébergement des données sur AWS.

Depuis, les données ont été extraites par des chercheurs, qui ont montré que la plupart d’entre elles contenaient encore de précieuses métadonnées, dont la géolocalisation sur les photos et vidéos. L’un des chercheurs a même créé une carte interactive basée sur ces informations, montrant comment Parler avait été utilisé comme support de coordination le jour de l’attaque du Capitole.

John Matze, PDG de l’entreprise, sert désormais de soupape. Il a confirmé au Wall Street Journal avoir été démis de ses fonctions par le conseil d’administration dirigé par Rebekah Mercer. Selon lui, il aurait été renvoyé pour son goût de la liberté d’expression et ce qu’il pensait être une approche « plus efficace de la modération des contenus », sans que l’on n’en sache plus.

Il est plus probable que son renvoi soit en lien avec son poste au moment des faits. Il était aux commandes pour l’ensemble des faits reprochés à l’application, y compris un manque flagrant de protection de la vie privée puisque toutes les métadonnées ont pu être récupérées.

Private Click Measurement, la proposition d'Apple pour mesurer anonymement les clics publicitaires

4 février 2021 à 16:06

Apple, très active actuellement sur la vie privée et la collecte des données personnelles, vient de publier un article détaillant Private Click Measurement sur le blog du moteur de Webkit. Cette méthode doit permettre aux parties intéressées la collecte des clics sur les publicités depuis les applications et pages web sur iOS.

Vrai cheval de bataille pour les uns, simple stratégie pour les autres, Apple a déclenché une véritable guerre pour la vie privée. Dans ce chahut, l’entreprise se heurte de plein fouet à Facebook, que des rumeurs décrivent comme en préparation d’une plainte contre la firme de Cupertino pour abus de position dominante.

Jusqu’à récemment, la stratégie d’Apple se basait sur un constat simple : après un échec dans le domaine de la publicité, les données personnelles ne faisaient plus partie des options envisageables. Relativement neutre sur le sujet pendant longtemps, le discours de l’entreprise prit donc une nouvelle tournure : désormais, tout serait axé sur le respect de la vie privée. Et effectivement, le message est renforcé année après année.

Aucun service de l’entreprise ne collecte de données personnelles pour du ciblage publicitaire. Ce qui ne signifie pas pour autant qu’elle n’en collecte pas. Certaines informations se retrouvent prises dans l’utilisation de plusieurs services pour certains besoins, comme la personnalisation des recommandations sur des services comme Music.

Mais, tous produits confondus, la plupart des opérations de machine learning sont désormais effectuées sur l’appareil, comme la reconnaissance des visages sur les photos par exemple.

De la stratégie à la guerre ouverte

Depuis le 1er janvier cependant, la stratégie s’est faite plus guerrière. Les fiches des applications dans l’App Store doivent arborer le détail des données personnelles récoltées et la manière dont elles sont utilisées. Au grand dam de Facebook, dont les applications – tout particulièrement Messenger – ressortent bien peu grandies.

Mais c’est avec le futur iOS 14.5, actuellement en bêta, qu’Apple va porter un coup sévère aux entreprises vivant du pistage publicitaire, en tout premier lieu Facebook et Google. Lorsqu'elle sera déployée, toute application voulant accéder à l’identifiant unique publicitaire (IDFA) devra en demander l’autorisation à l’utilisateur, suivant le RGPD.

Si celui-ci refuse, l’application ne pourra obtenir les informations d’utilisation transversales, c’est-à-dire récoltées à travers d'autres applications. Facebook et Google préparent donc les développeurs tiers à ce changement, qui passe notamment par SKAdNetwork, un nouveau socle proposé par Apple pour obtenir des données anonymisées.

SKAdNetwork positionne iOS et plus particulièrement l’App Store comme éléments centraux de la collecte. À ceci près que les données sont agrégées et – normalement – débarrassées de tout élément qui pourrait conduire à l’identification. Le résultat est peu ou prou le même pour les publicitaires, avec par exemple les conversions, c’est-à-dire quand une publicité mène à une action spécifique, comme le téléchargement d’une application.

Apple s’attaque maintenant aux campagnes publicitaires et à la mesure des clics

Dans les actuelles bêtas 14.5 d’iOS et iPadOS, les développeurs web peuvent « s’amuser » avec une nouvelle fonction baptisée Private Click Measurement (PCM). Elle est conçue pour permettre aux parties intéressées de mesurer le nombre de clics dans une page web ou une application.

Pourquoi proposer une nouvelle méthode ? Parce qu’en plus du reste, Apple a aussi déclaré la guerre aux cookies. La bataille a commencé à l’automne 2017 avec la première mouture de l’Intelligent Tracking Protection (ITP). Elle utilise le machine learning pour déterminer si les cookies ont un droit « légitime » d’accéder aux données de navigation. Comprendre, séparer par exemple les cookies servant à stocker les paramètres d’un site de ceux uniquement là pour pister les habitudes des internautes.

Avec iOS/iPadOS 13.4 et Safari 13.1 pour macOS, cette lutte est montée d’un cran avec le blocage complet et par défaut de tous les cookies tiers. En outre, les données de chaque site étaient purgées tous les sept jours. Ce qui avait fait dire à certains que l’entreprise cherchait à tuer les Progressive Web Apps, sa position étant bien connue : Apple ne jure que par le code natif. La situation, on l’a vu, est nettement plus nuancée.

Rêvant sans doute d’un futur entièrement débarrassé des cookies, Apple devait donc préparer un nouveau terrain pour transmettre certaines informations, notamment les clics publicitaires. Car à l’inverse d’un iOS et de son App Store, une technologie web ne fonctionne pas si elle n’est pas reprise par une masse critique d’acteurs.

Le fonctionnement de Private Click Measurement

Comment fonctionne Private Click Measurement ? D’abord, cette fonction est active par défaut dans Safari sur iOS/iPadOS 14.5. Elle couvre deux cas de figure : la navigation classique dans le navigateur et les pages web ouvertes dans des vues déportées (SFSafariViewController) par les applications tierces. L’utilisation des WebViews n’étant pas couverte, les navigateurs tiers ont quartier libre.

Apple donne un exemple : un utilisateur clique sur un lien, qui l’amène à travers différents domaines jusqu’à une page finale. Sur cette dernière, un mécanisme de suivi peut demander – jusqu’à sept jours après – à connaitre les clics qui ont amené l’internaute jusque-là. On a d’un côté un identifiant de source d’attribution (attributionsourceid) sur 8 bits, capable donc d’identifier jusqu’à 256 campagnes publicitaires en parallèle. De l’autre, attributeon, codé sur 4 bits, permettant donc de reconnaitre jusqu’à 16 évènements de conversion.

Si un clic sur une publicité de social.example a emmené l’utilisateur sur shop.example, l’attributionsourceid est stocké comme clic pour sept jours. Cette donnée est stockée par le navigateur, mais n’est pas directement accessible aux sites. PCM ne fonctionne qu’en eTLD+1, pour éviter que des sous-domaines ne soient créés pour chaque internaute.

Apple PCM

Ces valeurs de 8 et 4 bits ont été choisies pour permettre une certaine souplesse, sans pour autant être assez précis pour lier les informations à une personne en particulier. Les informations collectées sont envoyées en HTTPS depuis une fenêtre dédiée en navigation privée sans le moindre cookie, sous la forme de rapports expédiés entre 24 et 48 heures après leur création. Ceci, selon l’équipe de Webkit, pour dissocier l’envoi de tout autre évènement.

Dans le cas d’une application, le fonctionnement de base reste le même, avec une convention de nommage différente. Attributionsourceid devient sourceIdentifier, attributeon devient destinationURL, etc.

À la manière de SKAdNetwork, l’objectif n’est donc pas de casser le marché de la publicité, mais d’arriver plus ou moins au même résultat avec des données anonymisées. Les entreprises continueront de voir que quelqu’un a cliqué sur une pub et même que cette personne est allée jusqu’à un achat, mais ne pourront plus savoir qui.

« Aucun annonceur, vendeur ou même Apple ne peut voir quelles publicités sont cliquées ou quels achats sont réalisés. Cette solution évite de placer sa confiance dans l’une des parties impliquées – le réseau publicitaire, le vendeur ou d’autres intermédiaires – afin qu’aucun d’entre eux ne puisse pister les utilisateurs pendant qu’ils cliquent sur des publicités ou achètent des produits sur Safari », vante l’entreprise.

Quelques précisions. D’une part, l’utilisation du mode de navigation privée bloquera l’enregistrement des données par PCM. D’autre part, les bloqueurs de publicités pourront ajouter des paramètres pour détecter et bloquer le chemin .well-known, aboutissant au blocage de PCM, donc à sa collecte.

Enfin, les options de Safari dans iOS 14.5 reçoivent deux nouvelles capacités : un bouton pour supprimer l’ensemble des données enregistrées par PCM, et un autre pour désactiver la fonction.

Apple veut faire de PCM un standard

Private Click Measurement n’est pas à proprement parler une nouveauté. La première version de la fonction a été présentée en 2019 par l’équipe de Webkit. Le nom final est plus récent et son fonctionnement a été débattu au sein du groupe Privacy Community du W3C et sur GitHub.

Si PCM est débattu au W3C, c’est qu’Apple compte en faire un standard. Mais avant que le processus ne démarre, il faut que la technologie ait fait l’objet de deux implémentations indépendantes. Apple est donc actuellement en pourparlers avec Mozilla, Brave, Google ou encore Microsoft pour une intégration à leurs navigateurs.

En attendant, PCM est présent dès la première bêta d’iOS 14.5, ce qui peut d’ailleurs soulever quelques sourcils : pourquoi intégrer une technologie qui n’a même pas entamé son chemin vers la standardisation ? 

Apple donne plusieurs raisons. D’abord la nécessité de collecter des retours par l’ensemble des acteurs concernés : annonceurs, développeurs web, analystes et ainsi de suite. Ensuite, la société a préféré donner la même chose à tout le monde, plutôt qu’une approche par partenaires dument sélectionnés. Enfin, parce qu’en dehors de quelques exceptions, « la fonctionnalité et les données d’attribution sont stables », tout particulièrement le choix des 8 bits côté source du clic et des 4 bits côté attribution.

Certains éléments ne sont en effet pas finalisés et d’autres sont en préparation. Le plus important est sans conteste le mécanisme de prévention des fraudes par l’utilisation de jetons sans lien. On imagine que les annonceurs préfèreront attendre qu’une telle protection soit en place avant de se jeter sur PCM. Apple prévoit également d’utiliser une API JavaScript moderne pour déclencher les évènements, plutôt que le classique (et vieux) pixel. Le support des liens PCM dans les iframes imbriqués est lui aussi prévu.

Encore une fois, il n’est pas question de casser le marché de la publicité en bloquant leur personnalisation si rémunératrice. Mais à Cupertino, on propose de le faire de manière plus « vertueuse », qui par définition casserait la capacité de certaines entreprises à constituer des dossiers entiers d’habitudes, basés sur des informations identifiantes. Et si SKAdNetwork peut déplaire comme solution 100 % Apple, Private Click Measurement aurait l’avantage d’être plus générique. Une étape... qui pour l’instant reste à accomplir.

Visual Studio Code : un éditeur crédible pour la publication et le Markdown

8 février 2021 à 16:30

Lorsque l'on veut produire des documents via le standard Markdown, on peut utiliser des outils spécialisés ou des éditeurs à tout faire, en général pensés pour les développeurs. Après Sublime Text, nous nous sommes penchés sur le cas de Visual Studio Code.

Nous continuons aujourd'hui notre série sur les éditeurs de texte, se concentrant sur l’écrit, laissant à la plateforme de publication le soin de la présentation, selon une série de balises placées par l’auteur. Des différences fondamentales avec les habituels traitement de texte tels que Word par exemple.

Comme évoqué dans notre article sur Sublime Text, on retrouve ceux avec une interface WYSIWYG aux côté de solution davantage pensés pour le code. Et à ce petit jeu, grâce à sa grande flexibilité, Visual Studio Code apparaît comme une solution intermédiaire. Car Microsoft a préparé le terrain pour le Markdown, le langage étant connu de VSC, qui l’interprète correctement. Le tout peut être complété par certains plugins.

Il existe toutefois une bonne marge d’amélioration pour que l’application puisse être utilisée tous les jours à la place d’un Zettlr ou d’un Typora. Comme Sublime Text, Visual Studio Code se présente comme une base malléable que l’on peut enrichir à volonté (ou presque). Mais si le principe central est le même, la mise en œuvre est très différente, tant par les technologies utilisées que par le nombre de fonctions proposées.

Comme nous allons le voir, Sublime Text et Visual Studio Code (ou VSC) représentent les deux extrémités de l’éventail des éditeurs de code pouvant être utilisés pour le Markdown. Cela même si VSC n’est pas le seul sur ce segment, puisque l’on y trouve notamment Atom. Pour rappel, cet éditeur est gratuit, open source, disponible sur les trois plateformes principales : Linux, macOS et Windows.

Notre dossier sur les éditeurs de texte :

Interface et généralités

Visual Studio Code ne doit d’abord pas être confondu avec Visual Studio. C'est en quelque sorte une version « réduite », contenant nettement moins de fonctions. Bien que basé sur Electron, les performances de VSC restent bonnes, bien supérieures à des projets plus petits comme Mark Text.

Comme Sublime Text, il dispose d’une palette de commandes, que l’on peut appeler par Ctrl + Maj + P (ou Cmd + Maj + P sur Mac) ou F1, et d’une compatibilité native avec les fichiers MD. L’installation est assez rapide et sans surprise. Au premier lancement, un panneau de bienvenue guide l’utilisateur dans ses possibilités offertes.

On y trouve, dans une petite barre latérale, des accès rapides vers les fichiers, la recherche, le contrôle de code source, l’exécution et les extensions. Dans notre cas, on s’intéressera surtout aux fichiers et aux extensions.

Visual Studio Code

Que vous sélectionniez un fichier existant ou créiez un nouveau, le résultat sera le même : il s’ouvre dans la zone de droite, exactement comme dans la plupart des éditeurs. Il s’agit d’une vue code, avec tout ce que cela suppose, notamment un affichage complet des balises du Markdown, sans interprétation.

Mais comme dit précédemment, Visual Studio Code se rapproche d’un éditeur de texte par la présence d’un panneau de prévisualisation intégré à l’application. Pour l’afficher, il suffit de cliquer sur l’icône située en haut à droite, celle affichant une petite loupe sur deux colonnes. Là, le champ d’édition se réduit pour afficher une nouvelle zone, contenant la prévisualisation du texte. Cette fois, les balises y sont directement interprétées :

Visual Studio Code

Car VSC dispose, comme d'autres, d’un système d’onglets permettant d'afficher plusieurs fichiers. Pour ouvrir un nouvel onglet, il faut double-cliquer soit dans la barre des onglets pour en ouvrir un vide, soit sur un fichier présent dans la colonne latérale pour ouvrir directement son contenu.

Toute sélection d’un fichier change immédiatement la prévisualisation dans la zone de droite. La prévisualisation change automatiquement en fonction du document sélectionné. On peut toutefois bloquer ce comportement en appelant la palette de commande et en cherchant « lock ». On trouvera alors une fonction « Open locked preview to the side », qui permet de verrouiller la prévisualisation sur le fichier en cours.

Un nouvel onglet apparait alors dans la zone de droite, portant la mention « [Aperçu] ». Il s’agit uniquement d’une vue, ce qui signifie que les modifications sont prises en compte.

Notez au sujet de la prévisualisation que certaines règles de sécurité s’appliquent dans Visual Studio Code. Deux en particulier peuvent bloquer l’affichage de certains contenus : les scripts ne peuvent pas s’exécuter et les ressources ne peuvent être chargées que depuis des liens HTTPS. Tout contenu bloqué sera signalé par un cadre bleu, sur lequel on pourra cliquer pour avoir des détails. L’utilisateur aura cependant le dernier mot, car il pourra choisir de passer outre l’avertissement et donc d’afficher toutes les ressources.

Si le cas est trop fréquent, vous pouvez utiliser la commande « Markdown: Changer les paramètres de sécurité de l’aperçu » depuis la palette pour modifier le réglage général de cette sécurité. Elle est par défaut sur Strict et en propose plusieurs autres, dont celle pour les contenus non sécurisés. On pourra alors charger des ressources via HTTP (un distinguo est fait entre ressources locales et distantes), tout en continuant à bloquer les scripts.

Si vous souhaitez autoriser ces derniers, il faudra alors choisir « Désactiver » dans le menu, que Visual Studio Code accompagne d’un « Non recommandé », comme toujours quand il s’agit de couper une sécurité.

Visual Studio Code

La colonne de gauche dispose de plusieurs sections, comme les éditeurs ouverts ou le contenu du dossier de travail. On y trouve également une section importante, Structure. Il s’agit tout simplement du plan du document, déterminé par le niveau des titres, défini en Markdown par le nombre de « # ».

Un très bon point, car tous les éditeurs de texte n’en sont pas forcément équipés. Or, dans de grands documents, ce plan permet de garder un coup d’œil sur l’ensemble, tout en permettant les déplacements rapides. Comme nous le verrons plus tard, tout ce qui se rapporte à la prévisualisation peut être modifié, notamment par les extensions.

Écriture : on est là pour travailler

En matière d’écriture, Visual Studio Code ne réserve pas de surprises particulières, surtout une fois qu’il a été configuré en fonction des goûts de son utilisateur. On reste dans tous les cas sur un éditeur de code, ce qui signifie une frappe directe et dépouillée de tout artifice ou même d’effort de présentation.

Tout est fait pour fournir un environnement « sérieux », qui se ressent dans les choix esthétiques généraux ou encore dans le choix des polices, par défaut de la famille « Consolas, 'Courier New', monospace ». Famille que l’on peut changer, de même que la taille de la police.

L’avantage de cette présentation est que l’on est libre de travailler comme on le souhaite. Certains préfèreront par exemple travailler avec le panneau de prévisualisation, mais pas d’autres. De même, les questions de la police et de sa taille sont essentiellement une matière de goût, même si celle par défaut fait très bien son travail.

  • Visual Studio Code
  • Visual Studio Code
  • Visual Studio Code

La grande liberté offerte par le logiciel est en fait son plus gros atout, puisque l’on peut modifier également son thème, l’apparence et/ou la taille de presque tous les éléments d’interface, et même les icônes de l’éditeur.

Avec les thèmes, on changera également la coloration syntaxique, qui peut être à elle seule une bonne raison d’aller arpenter les thèmes optionnels. Visual Studio Code n’étant pas un éditeur de texte centré sur la publication, certains outils ne sont pas présents. Par exemple, on n’y trouvera pas de correction orthographique, ce type de module n’ayant en temps normal rien à faire dans un environnement de développement.

Mais comme on peut s’y attendre, le problème peut être rapidement réglé par une extension (nous y reviendrons).

Options : à boire et à manger

Si vous avez lu notre article sur Sublime Text, vous avez peut-être été effrayés par le chapitre sur les options. L’application étale en effet ses multiples paramètres dans des fichiers JSON. Il faut donc modifier tout réglage à la main, même si les fichiers sont commentés pour que l’on sache avec précision à quoi correspond chaque ligne.

Dans Visual Studio Code, les options sont graphiques. Mais attention, cela ne signifie pas forcément que l’on gagnera du temps dans la recherche et la modification d’un réglage. L’éditeur possède en effet un nombre extrêmement élevé d’options, puisque tout ou presque y est configurable.

L’approche graphique des options apporte surtout un bénéfice : elles sont classées par thèmes, eux-mêmes disponibles dans une arborescence dont on peut ouvrir ou fermer les nœuds :

Visual Studio CodeVisual Studio Code

Mais comme toujours quand le nombre d’éléments devient très important, il peut être beaucoup plus rapide de passer par le champ de recherche. Nul besoin de connaitre avec exactitude le nom du paramètre, car chacun est accompagné d’une description. Or, le moteur de recherche y trouve également des occurrences.

Si vous souhaitez par exemple un paramètre spécifique concernant GitHub, une recherche sur ce dernier mot affichera toutes les options où « GitHub » apparait dans le nom, ainsi que celles où le nom est présent dans la description. En outre, le moteur raisonne par thématiques proches. On y trouvera donc tout ce qui touche à Git et les options croisées avec la vue SCM (contrôle des sources).

En fait, selon les cas et que l’on connait plus ou moins précisément ce que l’on cherche, trouver un paramètre dans Visual Studio Code ne prendra pas forcément moins de temps que dans Sublime Text, puisque l’on peut également y trouver un paramètre via la recherche. L’avantage de la présentation graphique reste que nouveaux venus seront moins effrayés, d’autant que la version française (gérée par Microsoft) est native, complète et de bonne qualité.

Le merveilleux monde des extensions

Visual Studio Code apparait donc rapidement comme une alternative viable pour l’édition de documents Markdown. Mais, à l’instar de Sublime Text, il ne prend sa vraie valeur qu’avec les extensions, dont le catalogue est accessible via la petite barre latérale à la plus à gauche de la fenêtre, via l’icône représentant de petits carrés.

L’éditeur de Microsoft est à considérer comme un Chrome ou un Firefox à ce niveau : le logiciel contient certes un nombre important de fonctionnalités, mais leur nombre peut être décuplé par des modules complémentaires. Dans le cas de Visual Studio Code, ils sont nombreux et gratuits, et on trouvera presque toujours une extension correspondant à ses besoins. Le catalogue affiche l’auteur, le nombre de téléchargements, la note moyenne, le dépôt, la licence et la version de chaque complément :

Visual Studio Code

On ne reviendra pas plus longuement sur ce système, dont nous avons déjà expliqué toute la richesse dans notre article précédent. Pour les plus pressés, les chapitres suivants en fournissent des exemples concrets.

Notez tout de même que Visual Studio Code possède un système de recommandation, basé sur la configuration de la machine et les habitudes. Dans notre cas par exemple, l’éditeur a détecté la présence de Firefox et a affiché l’extension « Debugger for Firefox » dans la liste de celles recommandées. Autre cas, markdownlint, recommandée après l’ouverture de plusieurs fichiers MD, et sur laquelle nous reviendrons.

Formules, graphiques et diagrammes

Vous le savez maintenant, nous utilisons un certain nombre d’exemples pour vérifier les capacités d’un éditeur. Au-delà du texte à proprement parler, l’utilisation du Markdown est courante dans les travaux académiques, permettant de préparer un contenu sans tenir compte (en tout cas le plus souvent) de la plateforme de publication.

Ce qui est vrai cependant des balises ne l’est pas forcément du type de contenu que l’on souhaite publier. Pour rester dans le domaine académique, on peut citer trois exemples courants : les graphiques, diagrammes et formules mathématiques/chimiques.

Dans notre document test, le premier cas rencontré est un graphique réalisé initialement pour notre article sur Typora. Très simple, il représente un camembert à deux portions, sur la base d’une question (volontairement idiote). Dans Typora, le support de ce type de contenu est assuré par la bibliothèque Mermaid, absente de Visual Studio Code. Mais le problème est rapidement contourné.

Dans la zone des extensions, une simple recherche sur Mermaid affiche une douzaine de résultats. On y trouve Markdown Preview Mermaid Support, que l’on peut installer rapidement par un clic sur le bouton idoine. La procédure ne réclame pas de redémarrage de VSC. Son impact est quasi immédiat : dans la zone de prévisualisation, ce qui n’apparaissait que comme quelques lignes de code est maintenant le fameux camembert.

Comme précisé dans le descriptif de l’extension, tous les types de diagrammes et de graphiques sont supportés.

Le code en question :

```mermaid
pie title Quel temps fera-t-il demain ?
         "Oui" : 70
         "Non" : 30
```

Et son résultat après installation de l’extension :

Visual Studio Code

Passons aux formules, d’abord mathématiques. Dans le cadre des publications académiques, il existe un consensus autour de la syntaxe LaTeX Math. Il existe plusieurs extensions se proposant d’en assurer le support dans Visual Studio code. Markdown + Math est l’une d’elles, en assurant à la fois une aide à l’écriture, la prise en charge de nombreuses fonctions liées et, dans le cas qui nous intéresse, la prévisualisation dans le panneau de droite.

Nous avons deux exemples de code, l’un affichant un cadre de présentation, l’autre intégrant la formule sur la même ligne que le texte

$$
1 +  \frac{q^2}{(1-q)}+\frac{q^6}{(1-q)(1-q^2)}+\cdots = \prod_{j=0}^{\infty}\frac{1}{(1-q^{5j+2})(1-q^{5j+3})}, \quad\quad \text{for }\lvert q\rvert<1.
$$
Ceci est un exemple de formule : $f = \frac{2 \pi}{T}$

Voici le résultat dans la zone de prévisualisation :

Visual Studio Code

Notez que si l’extension fait son travail, elle ne le fait réellement bien que tant que la syntaxe KaTeX est respectée. Ceux qui cherchent des fonctions supplémentaires, comme on peut en trouver dans MathJax (utilisé d’ailleurs par Typora), devront se tourner vers d’autres extensions.

Markdown + Math a cependant le mérite de supporter également les formules chimiques, ce qui n’est pas toujours évident dans les éditeurs de texte ou de code.

Les exemples utilisés :

Faisons maintenant un peu de chimie : ${^{227}_{90}Th+}$
$C_p[{H2O(l)}] = {75.3 J // mol K}$
${Hg^2+ ->[I-] HgI2 ->[I-] [Hg^{II}I4]^2-}$

Leur résultat dans l’aperçu :

Visual Studio Code

Globalement, tous ces travaux sont donc possibles dans Visual Studio Code, et la configuration d’un environnement capable de prendre en charge ces contenus n’a guère pris de temps. On ne tombera bien sûr pas toujours tout de suite sur l’extension que l’on cherche, ou même pas du tout, mais le catalogue devrait fournir des solutions à une grande majorité de besoins.

Extensions recommandées pour le Markdown

Si l’on envisage sérieusement Visual Studio Code comme solution d’édition pour le Markdown, certaines extensions sont chaudement recommandées. L’une des plus importantes est markdownlint, même si elle correspond à des usages spécifiques. Comme le note l’auteur (David Anson), le Markdown est extrêmement flexible, ce qui peut représenter autant un avantage qu’un inconvénient. En fonction des personnes et des éditeurs, les libertés prises peuvent provoquer des erreurs pendant l’analyse (parsing) du code.

Pour éviter ces erreurs, markdownlint vérifie un ensemble de règles strictes imposant une utilisation cadrée des balises. Elles doivent, selon Anson, promouvoir une utilisation standard et une vraie cohérence au sein des fichiers MD. Point important, les règles sont modifiables et activables/désactivables séparément.

L’ensemble s’inspire du linting, pratique consistant à améliorer la qualité générale d’un code pour en faciliter la maintenabilité et son éventuelle reprise par un tiers.

Markdown All in One devrait être installée par toute personne voulant gérer le Markdown. Elle fournit un grand nombre de fonctions, dont des raccourcis clavier, la création simple de tables des matières, l'export simple vers HTML, l’autocomplétion, etc. Les commandes ajoutées sont toutes répertoriées dans la palette de VSC.

L’extension simplifie clairement le travail en modifiant le comportement de l’éditeur. Si l’on commence ainsi à écrire une liste avec un tiret, la validation par Entrée créera automatiquement un nouveau tiret. Si l’on n’en a plus besoin, rappuyer sur Entrée passera à la ligne suivante en supprimant le dernier tiret. De même, on modifiera l’indentation des tirets avec Tab ou Backspace. Citons également la possibilité de placer son curseur à différents endroits ou encore le remplacement automatique par un balisage URL quand on colle une adresse sur un mot sélectionné.

On pourrait également évoquer vscode all markdown. Relativement jeune (première version 0.2.1 en juin dernier), elle est disponible sous forme de Preview. Elle contient elle aussi un très grand nombre de fonctions, mais pas avec la même orientation que la précédente. Il s’agit cette fois de rapprocher Visual Studio Code d’un éditeur plus classique, voire d’un traitement de texte dans son approche.

Elle fait ainsi apparaitre une barre d’outils contenant les options de mise en forme, contient de quoi écrire et prévisualiser de nombreux éléments, sait compter les caractères, supporte le glisser-déposer d’images, etc.

Enfin, nous vous recommandons French - Code Spell Checker. L'extension installera automatiquement Code Spell Checker si ce n'est pas déjà. Après sélection du français dans les paramètres de l'extension, la vérification grammaticale sera connectée à celle de la plateforme utilisée.

Il est possible d’installer plusieurs extensions pour cumuler toutes ces fonctions. Mais attention, car plusieurs extensions peuvent se « battre » pour une même capacité, occasionnant alors des incompatibilités. Dans Markdown All in One par exemple, on trouve un support basique des formules mathématiques. Il est cependant conseillé de le désactiver dans les options de l’extension si on a installé un module dédié.

Les principales forces de Visual Studio Code...

Visual Studio Code se présente finalement comme une solution tout à fait pertinente pour l’édition de documents Markdown.  Ses forces dans ce domaine viennent avant tout de sa flexibilité, qui lui viennent de son cœur de cible : les développeurs. Sans avoir inventé le concept, Microsoft est partie d’une base sobre, sans pour autant être aussi dépouillée que Sublime Text, lui-même bien loin d’être vide. Le reste est confié aux modules complémentaires.

On a donc un environnement souple et personnalisable, que des extensions peuvent façonner de manière poussée pour convenir à de très nombreux usages. Mais même en dehors de ça, Visual Studio Code reste exploitable, car prenant en charge les fichiers MD et pouvant prévisualiser le résultat, tant que l’on ne lui demande rien de plus.

On apprécie également son aspect open source, le logiciel étant régulièrement mis à jour. L’équipe est réactive et les développeurs écoutés, mais leurs besoins ne sont pas nécessairement ceux des personnes visant le Markdown.

... et ses principales faiblesses

Visual Studio Code a aussi des faiblesses dans ce cadre d’utilisation. La plus évidente est que ce n’est pas un éditeur pensé spécifiquement pour le travail d’écriture : c’est un environnement de développement.

Une partie des utilisateurs lui trouvera donc un côté « usine à gaz » puisqu’il est conçu pour aborder indifféremment de nombreux types de projets. Même si Visual Studio Code n’est pas complexe, il l’est immanquablement plus qu’une application comme Zettlr, Typora ou iA Writer.

Visual Studio Code n’est pas une application « native ». Elle est basée sur Electron, Chromium et Node.js. Le prix à payer pour une disponibilité immédiate des nouvelles versions sur les trois plateformes principales. Bien que Microsoft ait fait un bon travail sur les performances, l’éditeur n’aura pas la légèreté d’un Typora ou surtout d’un Sublime Text. Mais il n’a pas à rougir face à des applications un peu plus lourdes comme Mark Text ou Zettlr.

VSC a finalement les défauts de ses qualités. Sa souplesse et sa personnalisation iront forcément de pair avec une interface généraliste qui en rebutera certaines. Pensé pour le code, il gère nativement la gestion de version et donc l'intégration à Git et des plateformes comme GitHub qui peuvent être utilisés pour de simples documents.

À qui s’adresse Visual Studio Code ?

Deux populations pourraient s’intéresser en priorité à Visual Studio Code. Les développeurs d’abord, qui pourraient avoir besoin du Markdown pour différentes raisons. Ce peut être bien sûr pour des travaux académiques. Mais le Markdown est également utilisé pour la documentation du code sur différentes plateformes. 

Ensuite, des personnes pourraient se pencher sur Visual Studio Code pour sa souplesse et son degré de personnalisation. L’interface sera forcément moins léchée qu’un Typora ou un Mark Text, mais elle permet de gagner en richesse. Un utilisateur pourrait ainsi sacrifier volontiers un peu de confort visuel pour davantage de confort fonctionnel, avec pour objectif un environnement répondant aux besoins avec précision.

Internet Explorer et Edge Legacy : fin de support pour QNAP

10 février 2021 à 09:15

L'entreprise spécialisée dans les NAS et les solutions réseau indique qu'elle ne prend plus en charge de développement spécifiques aux deux anciens navigateurs de Microsoft.

Elle indique que l'éditeur lui-même les met de côté : depuis le 30 novembre dernier pour IE 11 et dès le 9 mars 2021 pour Edge Legacy. 

Pour s'assurer d'un niveau de compatibilité et de sécurité suffisant, les utilisateurs sont invités à utiliser la nouvelle version de Microsoft Edge, ou d'autres navigateurs comme Chrome, Mozilla ou Safari. Pour rappel, Microsoft supprimera l'ancien Edge le 13 avril sur l'ensemble des systèmes, le remplaçant par le nouveau s'il n'est pas déjà installé.

Histoire de macOS : du rapide Snow Leopard à Yosemite et son flat design

10 février 2021 à 17:00

Suite de notre dossier consacré à l’histoire de macOS. Nous arrivons à une période où le temps des grands changements est terminé, avec une évolution plus en douceur, sur un cycle annuel. De macOS vont naitre plusieurs  systèmes chez Apple, à destination de nouvelles plateformes.

La période qui s’ouvre pour Mac OS X – c’est encore son nom – avec Leopard est une sorte d’âge d’or. Les années vont s’écouler presque paisiblement sur un système qui n’a plus rien à prouver et dont la presse vante les mérites.

Le système s’est alors payé un petit lifting avec un thème général plus « plastique » et lisse, abandonnant le métal brossé des débuts. L’ensemble devient plus sobre. Il est sorti en 2007, une année doublement importante pour Apple. D’abord par la nouvelle fournée de Mac tous équipés de CPU Intel. Ensuite parce qu’en juin est sorti l’iPhone.

Premier smartphone de l’entreprise, il provoque une petite révolution dans le monde de la téléphonie en centrant toute l’utilisation sur l’écran tactile capacitif. Tout est pilotable au doigt, le stylet et le clavier physique deviennent has been et l’industrie va s’aligner peu de temps après, notamment avec l’arrivée d’Android.

Quand sort l’iPhone, on peut déjà mesurer la grande popularité de Mac OS X. Steve Jobs, sur scène pour présenter ce qui va très devenir le produit phare de l’entreprise, explique en effet que l’entreprise a tout simplement utilisé le système des Mac comme base pour l’iPhone. iOS, c’est son nom, aura sa propre vie, tout en entretenant des liens étroits avec son grand frère, avec qui il partagera un nombre croissant d’interfaces de programmation.

Rappelons qu’il faudra attendre iOS 2.0 pour que l’App Store apparaisse et que l’on puisse installer des applications tierces. Mac OS X, lui, va entrer doucement dans un rythme de croisière. Apple change progressivement ses priorités, les Mac étant certes les produits historiques de l’entreprise, mais plus ceux portant la croissance.

Notre dossier sur l'histoire de macOS :

Snow Leopard, la grande optimisation

Snow Leopard sort environ deux ans après, fin août 2009. La proximité des noms n’est pas un hasard : la nouvelle version présente un nombre réduit de nouveautés. Qu’a fait Apple pendant deux ans ? Du nettoyage et des optimisations, en grande partie. Snow Leopard est ainsi débarrassé de tout le code encore lié aux PowerPC.

C’est un système tourné entièrement vers les processeurs Intel et qui ne peut donc pas être installé sur les anciens Mac à base de puces G4 et G5. En conséquence, le poids du système diminue de plusieurs gigaoctets. Il n’y a en effet plus aucun Universal Binaries, le format utilisé par Apple pendant la transition.

Snow Leopard embarque cependant encore Rosetta pour que les anciens logiciels PowerPC puissent fonctionner.

Snow Leopard

Ce nettoyage s’accompagne d’une grande vague d’optimisations. La plupart des composants et logiciels fournis ont été réécrits pour profiter, tant que possible, des dernières nouveautés matérielles. Il est le premier Mac OS X à noyau en 64 bits, bien qu’il ne soit pas utilisé par défaut sur les machines grand public. Les applications fournies s’exécutent également dans ce mode quand le processeur adapté est présent, cette fois sur tous les Mac compatibles. Un fonctionnement qui va faire grimper la RAM minimale à 1 Go, contre 512 Mo pour Leopard.

C’est également avec Snow Leopard qu’arrivent deux technologies marquantes en leur temps, Grand Central Dispatch et OpenCL. La première propose des API permettant aux développeurs de faciliter la répartition des calculs sur les cœurs multiples des processeurs (ils en ont désormais au moins deux). La seconde permet l’utilisation des GPU pour des calculs plus génériques au sein des applications.

Parmi les autres améliorations, on peut citer le passage à CUPS 1.4 pour les impressions, un plus grand nombre de composants système protégés par la sandbox, ou encore une première version de l’outil supprimant les malwares les plus courants. Mais on fait vite le tour. Ajoutons quand même le Mac App Store, même si la boutique d’applications n’est arrivée qu’avec la version 10.6.6, en janvier 2011, soit 17 mois après la mouture initiale.

Apple a fait son jeu ce cette quasi-absence de nouveautés « pratiques » et a promu le système comme n’ayant « aucune nouvelle fonction ». Snow Leopard a d’ailleurs été commercialisé à 29,99 euros/dollars, contre 129,99 euros/dollars pour les versions précédentes. Ce sera la dernière version vendue sur DVD.

Snow Leopard est resté longtemps dans le « cœur » des utilisateurs, pour une raison simple : il est le dernier système d’Apple à supporter les applications 32 bits. Il garde aujourd’hui l’image d’un OS véloce, où tout était plus réactif, et où les Mac s’éteignaient et se mettaient en veille assez vite. Le temps en a presque fait une légende.

Lion et les premières infiltrations d’iOS

Lion sort en juillet 2011, un peu moins de deux ans après Snow Leopard. Il est la première version distribuée sur le Mac App Store. Son prix reste de 29,99 euros/dollars et ne repartira jamais à la hausse. Bien qu’Apple ayant au début parlé d’une version dématérialisée, des clés USB d’installation seront vendues à 69 euros/dollars.

Lion est tout le contraire de Snow Leopard : peu de changements sous le capot, mais une longue file d’améliorations diverses dans le système et les applications embarquées. Signalons qu’il est quand même le premier à embarquer le support de la commande TRIM pour les SSD, en tout cas ceux fournis dans les Mac. Les modèles tiers attendront encore quelques années que ce support soit élargi.

Lion est connu pour avoir introduit notamment Auto Save et Versions, qui permettaient l’enregistrement permanent des modifications dans les fichiers, depuis les applications compatibles. En conséquence, « Sauvegarder sous » disparaissait au profit de « Dupliquer », dont le fonctionnement parut moins intuitif à beaucoup.

Ce changement traduisait pour la première fois une infiltration d’iOS dans Mac OS X. Sur le système mobile, il n’y avait en effet pas de gestion des fichiers, car seul comptait le contexte applicatif : l’utilisateur n’avait pas à voir les données. Cette inspiration d’iOS va se retrouver dans de nombreux éléments.

Comme l’interface de Contacts, proche de celle sur iPad, le comportement de la correction automatique à la frappe, le support des emojis, le Launchpad et sa grille d’applications, FaceTime, l’intégration définitive du Mac App Store, de nouveaux gestes tactiles multitouch, les notifications push ou encore le « défilement naturel ». Ce dernier point fut lui aussi détesté par une partie des utilisateurs, puisqu’il inversait le défilement réalisé au touchpad. La mesure était cependant destinée aux nouveaux utilisateurs qui, conquis par l’iPhone, se seraient acheté un MacBook.

De nombreuses améliorations étaient cependant propres à Mac OS X. On l’oublie parfois, mais c’est bien le système fixe qui a reçu AirDrop le premier, deux ans avant iOS 7. Il s’agit pour rappel d’une fonction d’échanges directs de fichiers entre appareils proches. Lion a également introduit l’ASLR, une technologie importante pour la protection contre certaines attaques. Apple avait été critiquée pour avoir tardé à la mettre en place. De la sécurité également avec la possibilité, dans FileVault, de chiffrer l’intégralité du disque et le support des disques externes.

Lion est également accompagné pour la première fois de sa partition de restauration. Fonction accessible au démarrage par le raccourci Cmd + R, elle permet de télécharger la dernière révision stable de Mac OS X pour réinstaller le système en cas de gros problème. C’est aussi sur Lion qu’arrive le mode plein écran pour les applications. Le comportement de la pastille verte change alors : l’application (quand elle est compatible) remplit tout l’écran, masquant la barre de titre et le Dock. Quand plusieurs applications sont ouvertes en plein écran, on peut passer de l’une à l’autre par un glissement latéral à trois doigts. La fonction existe toujours en l’état.

Autre gros morceau, Mission Control qui réunit Exposé et Spaces. Quand il est déclenché, il affiche toujours les fenêtres côte à côte en vues réduites comme Exposé, mais affiche en plus les bureaux virtuels en haut de l’écran sous forme de vignettes. On peut notamment déplacer une application d’un bureau à l’autre dans cette vue.

Lion a cependant laissé certains clients sur le carreau. Il exigeait un processeur Intel 64 bits (donc au moins un Core 2 Duo) et 2 Go de mémoire, un doublement qui avait fait pester. Certains ne l’ont pas installé tout de suite à cause du retrait de Rosetta, donc de la capacité du système à faire fonctionner les anciennes applications PowerPC.

Mountain Lion, et Mac OS X devint OS X

Mountain Lion a un peu été à Lion ce que Snow Leopard avait été pour Leopard : on reste sur les mêmes bases, mais on affine. La configuration réclamée ne change d’ailleurs pas. Il sort en juillet 2012 et initie le cycle annuel d’OS X, qui perdure encore aujourd’hui.

Il apporte moins de nouveautés que Lion, mais plusieurs sont appréciables. Il récupère par exemple le centre de notifications d’iOS, toujours disponible aujourd’hui dans la barre latérale à droite de l’écran. Les notifications s’affichent dans de petits encadrés, exactement comme sur iOS.

L’influence du système mobile se poursuit avec la suppression d‘iChat au profit de Messages. Cette première version s’interfaçait encore avec les protocoles XMPP (Jabber) et OSCAR (AIM). Comme avec iChat, on pouvait échanger du texte et des médias, mais Apple y avait ajouté en plus la synchronisation iMessage (bulles bleues sur iOS), l’intégration FaceTime et le partage d’écran.

Mountain LionMountain Lion

Mountain Lion signe également la grande arrivée d’AirPlay. Dans sa version originale, il permettait uniquement la copie miroir de l’écran du Mac vers l’Apple TV et la transmission de l’audio vers les appareils compatibles. Depuis, la fonction supporte aussi le partage de la vidéo dans les applications compatibles.

Parmi les autres améliorations, signalons une nouvelle barre d’adresse dans Safari qui intégrait la recherche (Google par défaut), l’arrivée de la mise en veille prolongée, les mises à jour automatiques des applications par le Mac App Store, une nouvelle apparence pour le Dock ou encore l’intégration de Notes, qui jusque-là n’existait que sur iOS. C’est aussi Mountain Lion qui a donné une interface à l’utilitaire Gatekeeper, arrivé à Lion et responsable du contrôle des signatures numériques dans les applications.

Le lancement Mountain Lion fut cependant entaché par le lancement d’iCloud, qui mettait fin à l’existence de MobileMe. Ce dernier était payant et fonctionnait relativement bien. Avec iCloud, Apple partait sur une stratégie de gratuité, les utilisateurs ne payant que l’espace supplémentaire en ligne. Mais les premiers d’iCloud furent catastrophiques : le service eut de nombreux problèmes durant les premières semaines, dont une synchronisation très aléatoire. Les soucis ne furent corrigés que très progressivement, au grand dam des utilisateurs.

Mavericks : désormais gratuit, OS X évolue plus doucement

Mavericks a initié un changement de nomenclature pour OS X : plus question désormais de noms de félins – Apple avait presque épuisé le stock des races connues – et place aux lieux géographiques connus de Californie. Mavericks est ainsi le nom d’un célèbre spot de surf de l’État américain.

Il est mis à disposition en octobre 2013 dans le Mac App Store et prend en charge les mêmes machines que Mountain Lion. On entrait alors pleinement dans le cycle des évolutions douces. Les utilisateurs ont largement noté à l’époque que le système proposait nettement moins de nouveautés que les versions précédentes. D’ailleurs, le système était pour la première fois gratuit. Il fonctionnait sur les mêmes configurations que Mountain Lion.

Mavericks apportait plusieurs améliorations notables pour les écrans multiples. Par exemple, le Dock et la barre de menus étaient affichés sur l’ensemble des écrans, et pas uniquement le principal. Mission Control avait été adapté pour gérer des bureaux virtuels sur chaque écran et déplacer plus facilement les applications d’un écran à l’autre.

mavericks

Plusieurs mécanismes avaient en outre été intégrés pour réduire la consommation des applications inactives. Mavericks savait ainsi plonger en « sommeil » celles ne servant plus depuis un moment. En outre, si l’utilisateur s’approchait de la saturation mémoire, les données stockées en RAM par ces applications étaient compressées.

On y trouvait également un mécanisme de coalescence des horloges logicielles, synchronisant les opérations de réveil des processus, afin que le CPU les traite en lots. Ce mécanisme existait dans Linux, Unix et Windows depuis plusieurs années et avait montré son efficacité, avec notamment une meilleure autonomie des portables à la clé.

Parmi les autres améliorations, signalons l’arrivée des onglets dans le Finder, une hausse majeure des performances JavaScript dans Safari, l’intégration de l’application Plans (qui reprenait les mêmes fonctions que sur iOS) ou encore du mieux pour la synchronisation iCloud. Malheureusement, ce dernier point a été accompagné d’une suppression des services de synchronisation locale, ce qui avait fait pester un certain nombre de personnes.

Enfin, on notait dans Mavericks la suppression d’éléments de skeuomorphisme, c’est-à-dire la tendance graphique de l’époque à copier les matières pour en décorer les applications. Par exemple, Calendrier (iCal auparavant) se débarrassait de l’apparence cuir qui caractérisait sa partie supérieure. Ce mouvement préfigurait ce qui allait se passer l’année suivante, avec l’arrivée d’iOS 7 et la bascule d’Apple dans le flat design.

Yosemite : le grand chamboulement du flat design

Avec Yosemite, nommé d’après la célèbre réserve naturelle, OS X suit la tendance initiée par le système mobile. Plus question de surfaces texturées, place aux aplats blancs ou colorés et à une volonté de simplifier les lignes.

C’est le grand avènement – chez Apple en tout cas – du flat design, qui va marquer durablement les lignes esthétiques de l’entreprise. Nous y sommes toujours. C’est la première grande refonte graphique du système depuis sa création. Tout ou presque change dans l’interface d’OS X : le cadre des fenêtres, leur contenu, les lignes de séparation, les barres de défilement, les icônes et jusqu’à la police principale.

Lucida Grande était remplacée par Helvetica Neue. Le Dock, jusqu’ici incliné en 3D, devient un simple cadre rectangulaire en 2D pour se rapprocher de celui d’iOS. C’est peu dire que la réaction initiale a été mitigée. On trouvait tant de personnes adorant cette simplification générale de l’esthétique que ceux qui la décriaient.

Une certaine forme de consensus s’est cependant établie au bout de quelques semaines, car beaucoup estimaient qu’un retour aux anciennes interfaces n’était plus possible.

yosemite widgets

Dans la plupart de ses apports, Yosemite a été une suite directe de Mavericks, avec une présence toujours plus forte d’iOS. L’un des changements les plus marquants a ainsi été le remplacement d’iPhoto et Aperture par Photos, du même nom que l’application d’iOS. Elle devait amener l’ensemble des utilisateurs sous une interface commune, qui synchronisait l’ensemble des données via le compte iCloud pour tous les appareils.

Mais comme souvent avec les remplacements « radicaux » d’Apple, les retours ont été très critiques avec cette première version. Il était largement reproché à Photos de faire l’impasse sur des fonctions courantes des deux logiciels qu’il remplaçait. Autre apport d’iOS, la vue « Aujourd’hui » dans le centre de notifications, réunissant dans un même endroit l’ensemble des évènements prévus dans la journée.

Le plus gros merci fut cependant Continuité. Toujours dans un but d’intégrer plus les plateformes au sein d’un écosystème commun, il devenait possible de commencer une activité sur un appareil pour la poursuivre sur un autre. C’était le but de fonction Handoff, qui permettait par exemple de commencer un email sur un iPhone, puis de reprendre sa rédaction sur un Mac. La fonction s’étendait à toutes sortes d’activités, y compris les SMS et les appels téléphoniques, classiques ou FaceTime.

C’est également Yosemite qui modifia le comportement par défaut de la bille verte, qui jusque-là maximisait la taille des fenêtres. Le bouton spécifique au mode plein écran, ce fut son nouveau rôle. Dans les applications, il est le plus souvent possible de revenir au mode maximisé par un double-clic sur la barre de titre. Le moteur de recherche Spotlight fut également renforcé, en prenant notamment une position centrale dans l’écran.

Les machines supportées étaient encore les mêmes que les deux moutures précédentes (processeur Intel 64 bits, 2 Go de mémoire, etc.). Cependant, il fallait un Mac récent équipé du Bluetooth LE pour utiliser Handoff.

Quand Dupont-Aignant veut combattre et pénaliser « les prédications subversives et séditieuses »

11 février 2021 à 08:52

Dans sa proposition de loi visant à « combattre et à pénaliser les prédications subversives et séditieuses », Nicolas Dupont-Aignan veut introduire une nouvelle infraction.

Serait une prédication subversive et séditieuse « le prêche, l’enseignement ou la diffusion par des paroles ou des écrits d’une idéologie ou de croyances ayant pour objet ou effet d’inviter à faire prévaloir la conformité à un texte religieux ou une doctrine sur le respect des principes constitutionnels de la République et ses valeurs fondamentales ».

Elle serait punie d’une peine d’emprisonnement de 10 ans et d’une amende de 100 000 euros.

L’article 3 prévoit une infraction spécifique à l’encontre des « complices moraux », dixit NDA. 

« Le fait d’écouter ou d’étudier volontairement et régulièrement une prédication subversive et séditieuse sur tout support, oral ou écrit, ou de fréquenter des sites internet diffusant cette idéologie » serait puni d’une peine de 3 ans d’emprisonnement et de 50 000 euros d’amende.

Avec une infraction si finement rédigée, les journalistes, chercheurs et enseignants ou même les agents du renseignement pourraient être emprisonnés.

Une nouvelle fois, un hôpital frappé par une attaque informatique

11 février 2021 à 08:52

Après Rouen, Au tour de l’hôpital de Dax d’être contraint de revenir au papier et au stylo indique France Bleu. Même le standard téléphonique a été frappé par cette vague, annonce le centre hospitalier Dax-Côte d’Argent

« Cette attaque a mis hors service la totalité de notre système d'information par cryptage des données. Les données n'ont pas été volées, elles sont toujours sur nos serveurs, mais elles sont cryptées et donc ne sont plus accessibles », a détaillé Aline Gilet-Caubere, la directrice adjointe, dans les pages de Sud-Ouest.  

« Tout le réseau informatique est hors service. C'est toute la "colonne vertébrale" de l'établissement qui est touchée » ajoute sur France-3 Régions, Julien Dubois, le président du conseil de surveillance de l'hôpital. 

Alors que les données sont désormais chiffrées et inaccessibles tant que le centre n’aura pas payé une rançon, nos confrères indiquent qu’une enquête a été initiée pour atteinte à un système de traitement des données mis en oeuvre par l'État « par bande organisée, modification et introduction frauduleuse de données et extorsion en bande organisée et association de malfaiteurs. »

Pithus : un projet pour analyser les dangers des applications Android

15 février 2021 à 07:42

Pithus est le nouveau projet d'Esther, déjà à l’origine d’ExodusPrivacy. Son objectif est de réunir les outils dont elle se sert au quotidien pour fournir un ensemble cohérent capable de « débroussailler » le terrain sur la sécurité d’une application Android et en faciliter l'accès.

Esther, membre très active de la communauté de la sécurité, a récemment ouvert les vannes d’un projet développé sur son temps personnel : Pithus. Un nom choisi en référence au pithos (jarre) de Pandore.

Où Exodus Privacy cherchait à analyser le comportement des applications dans le domaine des données personnelles, avec un accent fort mis sur les outils de pistage et le respect de la vie privée, Pithus se concentre sur un autre aspect tout aussi important, en tentant d'y trouver d’éventuels comportements malveillants.

Il réunit divers outils comme SSdeep et Dexofuzzy pour plonger dans les fichiers APK, format des applications Android. Il ne s’agit pas d’un outil livrant clé en main un verdict sur la sécurité d’une application, mais d’un moyen de déblayer le terrain pour donner des pistes, qui peuvent aboutir à un faisceau d’indices.

Comme Esther nous l’a indiqué, Pithus s’adresse à un public « plus technique que celui d’Exodus ».

Les motivations derrière Pithus

Pour elle, « le marché des applications mobiles est très opaque [...] font-elles ce qu’elles annoncent ? En font-elles plus ? Si oui, quoi ? ». « J’ai développé Pithus comme un projet personnel, en réutilisant des outils dont je me sers régulièrement quand je travaille. L’idée était de les rassembler dans un même endroit et de fournir une interface web pour les résultats », nous explique la chercheuse à l'occasion d'un entretien.

Elle a en fait lancé Pithus le 31 décembre à 23h00 : « Parce que je voulais vraiment qu’il sorte en 2020 ». Le temps d’effectuer quelques derniers tours de vis, elle l'a officialisé début février, en en expliquant les grandes lignes. Le projet étant personnel, il a été développé sur son temps et ses fonds propres. L’hébergement est à sa charge, mais est pour l’instant couvert par des dons (réalisés via LiberaPay).

Esther indique se servir de Pithus désormais pour son propre travail, lorsqu’elle est mandatée par exemple par une entreprise pour faire une analyse de son application (tests de robustesse, conformité au RGPD, etc.). Elle ne se sert cependant pas de l’instance mise à disposition, « car tous les rapports générés sont publics », avec liens uniques pour les partager. Pas question donc que les résultats de ses missions rémunérées soient disponibles à tous.

Le projet est open source (licence AGPL), Esther encourageant les intéressés à en reprendre le code pour le manipuler, l’améliorer, etc. Elle se dit intéressée par les retours, quelques suggestions ayant déjà été faites. Il n’y a pas de feuille de route à proprement parler, le développement dépendra de son temps libre et des contributions.

Comment fonctionne Pithus ?

La page d’accueil de Pithus propose deux fonctions : chercher dans la base des rapports ou importer un fichier APK, dont la taille ne doit pas dépasser 65,3 Mo. Après envoi du fichier, Pithus le traite puis génère une page globale de résultats contenant diverses rubriques. L’ensemble est en anglais.

Durant notre entretien, Esther nous a fourni l’exemple d’une application nommée TeaTV, de son nom unique bahamas.serietv3. Une brève recherche nous apprend qu’elle sert simplement à tenir un catalogue des séries, en marquant les épisodes vus, etc. Le rapport généré ressemble à ceci :

Pithus

Les premières informations données sont d’ordre très général. En haut à gauche, on peut voir « Threat 1/63 », qui signifie que sur l’ensemble des 63 antivirus de VirusTotal, un seul a reconnu l’application comme malveillante. Un faux positif ? « Pas forcément. Il peut aussi s’agir d’un élément nouveau ».

Les grandes cases donnent plusieurs renseignements techniques : l’application peut demander un total de 32 permissions, possède 60 activités, 21 services (tâches de fond), 9 receivers (détecteurs d’évènements extérieurs) et peut contacter jusqu’à 79 domaines. Une vue de synthèse technique qui n’a pas réellement de signification en soi.

Les informations de la deuxième ligne, sous la forme d'onglets, sont beaucoup plus complètes.Fingerprints fournit ainsi les sommes de contrôle MD5, SHA1 et SHA256 de l’APK. On y trouve juste en dessous sa taille exacte : 16,68 Mo. APKiD fournit ensuite une liste d’éléments que l’application peut contrôler. Dans le cas présent, elle peut ainsi demander à vérifier le modèle de smartphone, le constructeur, la référence produit, le numéro de série, etc.

Comme nous l’explique Esther, la présence de lignes « anti_vm » est un indicateur que l’application va chercher à identifier que l’environnement est bien un smartphone, et pas un émulateur quelconque. Un point important pour les chercheurs, car les simulations passent souvent par des machines virtuelles.

Pithus

Entrent ensuite en piste SSdeep et Dexofuzzy, qui vont fournir des empreintes (hash) localement sensibles. Elles sont fournies pour l’APK et ses principaux constituants. Esther nous explique qu’elles peuvent servir à retrouver d’autres APK ayant un certain pourcentage de similarité au niveau binaire. Si l’on trouve un tel pourcentage avec une application déjà identifiée comme contenant un malware, il y a clairement suspicion.

Prenons un exemple avec l’application org.xmlpush.v3, qui contient le malware Android.Trojan.Belesak. L’analyse Dexofuzzy renvoie vers une empreinte présentant un taux de similarité de 32 % avec une autre application. Si l’on clique sur le hash, on tombe sur un élément intégrant le spyware Android.Spyware.TechFu. Il s’agit en fait de la même famille de spywares, FinSpy, développée par une société allemande. Esther en avait fourni une analyse à Amnesty International qui voulait en savoir plus sur son fonctionnement.

Pithus

Des analyses en pagaille

La section Threat intelligence va puiser dans les informations de la base MalwareBazaar pour donner les éventuels renseignements déjà connus. Dans la première fiche, on ne retrouve que le score VirusTotal. Dans la deuxième, on peut voir les détails de Belesak et son identification le 12 octobre 2019. Pour cette deuxième application, 29 antivirus ont reconnu son comportement malveillant.

Pithus

APK analysis fournit bon nombre d’informations détaillées sur l’APK proprement dit. On retrouve les informations techniques comme le nom de l’application, sa version ou encore les versions utilisées du SDK Android.

Un peu plus bas, Pithus affiche les informations sur le certificat, notamment les empreintes et la personne l’ayant demandé. Des données fournies par AndroGuard. En dessous, on trouve l’une des parties les plus intéressantes de Pithus : l’analyse du manifeste. Vont y être pointés des comportements potentiellement problématiques.

Dans le cas qui nous intéresse, on y trouve des communications en clair (HTTP) ainsi que bon nombre de services et de receivers partagés avec d’autres applications, des activités pouvant obtenir des droits root ou encore la permission d’installer d’autres paquets.

Viennent ensuite les listes complètes des activités, receivers et services présents dans l’application.

Pithus

Plus loin dans les comportements problématiques

Avec l’analyse de code, on plonge un peu plus en profondeur. L’analyse NIAP, fournie par MobSF, décrit ainsi toute une liste d’actions en lien avec le chiffrement des données. Ces informations pointent vers un respect plus ou moins grand des bonnes pratiques dans ce domaine. Plus bas, les choses sérieuses commencent vraiment.

Dans l’application qui nous sert d’exemple, on trouve ainsi une ribambelle de comportements douteux. Comme le précise Esther, ils ne sont pas tous nécessairement « volontaires ». Il s’agit surtout de déterminer si l’ensemble des signaux fournis par Pithus constitue un faisceau d’indices pointant vers un comportement malveillant.

Pithus

On trouve ainsi une liste de problèmes relevés, dont les niveaux de dangerosité sont Low, Medium ou High. Ces derniers, en rouge, attirent immédiatement le regard. Par exemple, TeaTV peut lire et écrire sur le stockage externe. Si ce n’est pas un danger en soi, il faut savoir que n’importe quelle autre application ayant les mêmes droits va pouvoir lire ce qu’inscrit TeaTV sur la carte SD. Il peut alors y avoir échange de données.

On continue avec des fichiers pouvant contenir des informations sensibles codées en dur, l’emploi d’un générateur de nombres aléatoires reconnu comme peu sûr, la possible exécution de requêtes SQL (pouvant mener à des injections SQL), l’utilisation d’un algorithme faible de hachage, la création de fichiers temporaires ou encore la possible requête de droits root.

Ces éléments, issus de l’analyse statique de MobSF, sont ensuite à détailler. Exemple type, l’utilisation du générateur reconnu comme peu sûr n’est pas forcément un souci. Tout dépend en fait du mécanisme dans lequel il est impliqué. « Si on prend une application qui permet de lancer des dés et de générer une combinaison aléatoire, ce n’est pas grave », explique Esther. Si c’est pour chiffrer une information sensible, c’est un tout autre problème.

La section Behaviour analysis, tire parti d'Exodus. Elle fournit notamment une analyse des permissions, avec là encore un étiquetage Low/Medium/High. On peut voir dans l’exemple que l’application s’arroge le droit d’enregistrer l’audio par le micro, de lire/modifier/effacer du contenu sur le stockage externe, d’obtenir la localisation précise du GPS, de lire les SMS ou encore d'intercepter les appels sortants.

Des autorisations dont on se demande ce qu’une application centrée sur les séries pourrait faire. Et encore il ne s’agit là que de celles étiquetées en rouge.

Pithus

Si Tracking analysis reprend simplement les outils de pistage détectés dans l’application – beaucoup en ont pour l’affichage des publicités – Threat analysis fournit une nouvelle liste de comportements directement problématiques ou pouvant l’être selon le contexte. Démarrer d’autres applications est ainsi un comportement courant pour une application malveillante, qui aura la capacité de récupérer une charge virale et ainsi de l’exécuter.

Obtenir la liste des paquets installés, récolter les chemins absolus de certains fichiers et les consigner dans un fichier JSON ainsi que récupérer les numéros IMEI et IMSI font partie des méthodes préférées pour constituer un identifiant unique pour le pistage publicitaire (fingerprinting). L’accès aux IMEI et IMSI est tout particulièrement sensible, s’agissant de références uniques.

Pithus

L’application est également capable de récolter les adresses MAC des points d’accès Wi-Fi, leur SSID ainsi que la force du signal pour chaque connexion. Idéal pour trianguler une position. Encore une fois, on se demande pourquoi elle peut avoir besoin de renseignements aussi précis.

Enfin, Network Analysis donne le détail des domaines contactés ainsi que la liste des adresses trouvées dans le code, quand c’est possible. Esther nous explique pour cette liste que les URL peuvent être simplement contenues dans les commentaires du code, par exemple lorsque le développeur a « oublié » de les nettoyer. Dans le cas présent, beaucoup sont des liens vers des problèmes référencés sur GitHub pour le projet gRPC-Java.

Ce que l’on peut tirer de Pithus

Pithus peut couvrir de multiples besoins. Pour les chercheurs, il fournit une vue d’ensemble présentant rapidement un risque ou un danger avéré, par exemple quand l’application a déjà été identifiée comme malveillante. Les développeurs et éditeurs peuvent aussi s'en servir pour constater d'éventuels problèmes dans leurs produits.

Hors de la communauté de la sécurité, n’importe quelle personne avec quelques connaissances techniques peut se servir de Pithus pour analyser le comportement d’une application qui lui parait louche, ou tout simplement pour faire le tri dans les siennes. Un utilisateur Android pourrait tout à fait décider de faire le point sur les applications dont il se sert, éliminer celles lui paraissant les moins vertueuses ou échanger avec les développeurs sur le sujet.

Pithus semble être un bon moyen de faire un état des lieux sur le suivi des bonnes pratiques dans le domaine de la sécurité. Repérer des problèmes ne fait pas nécessairement d���une application un outil à éviter, similaire à un malware, mais le manque de connaissances dans la sécurisation des développements peut conduire à des failles, qui n’attendront que d'être exploitées. Espérons que cette avancée permettra de mieux sensibiliser sur le sujet.

Histoire de macOS : d'El Capitan à Catalina, l'influence toujours plus forte d'iOS

17 février 2021 à 13:00

Après l'enfance et l'adolescence, macOS est entré dans une longue période de maturité, durant laquelle iOS va imposer progressivement sa loi. Au point d'être aujourd'hui dilué dans un lot de plateformes.

À compter d'El Capitan, on assiste à l'arrivée de technologies maison au sein de macOS. Elles en remplacent progressivement d’autres plus anciennes, créées par Apple ou non. Nous sommes alors dans une sorte de dernière ligne droite devant nous amener à ce que nous connaissons aujourd'hui : Big Sur et la migration vers ARM.

C’est aussi à une présence toujours plus forte d’iOS que l’on assiste. L’empreinte du système mobile était déjà prégnante depuis plusieurs versions, mais la volonté d’Apple est on ne peut plus claire : parvenir à une sorte d’équilibre, entre ergonomie commune et respect des spécificités de chaque matériel.

Notre dossier sur l'histoire de macOS :

El Capitan accélère et introduit Metal

OS X 10.11, alias El Capitan, a été l’une de ces versions se concentrant sur la technique et le fonctionnement général. Plutôt qu’un réel nouveau lieu de Californie, El Capitan fut nommé d’après une formation rocheuse du parc de Yosemite. Il est proposé en mise à jour (gratuite) en septembre 2015.

Il fut en conséquence l’une des versions les plus appréciées du système. Moins de nouveautés de premier plan, mais une stabilité accrue et surtout des performances supérieures, en particulier sur certaines opérations. On se souvient qu’à l’époque Apple avait fait grand cas de lancements d’applications jusqu’à 40 % plus rapides ou d’ouverture de PDF en quatre fois moins de temps.

El Capitan a signé l’arrivée de Metal, une API permettant d’effectuer sur le GPU des opérations à peu près équivalentes à ce que l’on trouvait dans DirectX 12 et Vulkan. Sur Mac, les développeurs pouvaient ainsi manipuler la puce graphique de manière beaucoup plus précise via l’utilisation des compute shaders, avec un impact significatif sur les performances. Aujourd’hui, Metal joue un rôle encore plus crucial sur les Mac M1.

Parallèlement, les Mac de l’époque faisaient grimper la quantité de mémoire partagée de 1 024 à 1 536 Mo avec les processeurs embarquent une partie graphique Intel HD 4000.

OSX El Capitan

Cette version n’était pas la plus riche en nouvelles fonctions, loin de là, mais elle n’est pas vide non plus. On commençait par exemple à trouver les informations de trafic routier dans Plans, un remaniement complet de Notes équivalent à celui d’iOS 9 et aux capacités étendues (tâches, photos et vidéos, dessins…), l’épinglage des onglets dans Safari (bien après les autres), la possibilité pour Photos d’embarquer des outils d’autres applications (via des extensions) ou encore la possibilité de poser des questions à Spotlight en langage naturel.

Safari est en outre devenu capable de streamer une vidéo via AirPlay vers l’Apple TV sans envoyer toute la page. Cette version d’OS X signait également les premiers pas d’Apple dans l’automatisation, qui allait prendre petit à petit une place prépondérante. El Capitan analysait ainsi le contenu de Mail pour en tirer certaines informations. Des rendez-vous pouvaient être ajoutés dans Calendrier avec des éléments de contexte tirés, par exemple, de courriers liés à la livraison ou aux confirmations des déplacements en train ou en avion.

Enfin, El Capitan s’est fait remarquer pour deux autres raisons. D’abord, le remplacement de la police par défaut Helvetica Neue par San Francisco, que le système utilise toujours. Ensuite, un rattrapage partiel sur la manipulation des fenêtres, notamment par rapport à Windows 7. Il devenait enfin possible de positionner deux applications côte à côte, mais uniquement en mode plein écran.

Sierra : ne l'appelez plus OS X

Lorsque Sierra sort en septembre 2016, les utilisateurs Mac sont déjà rodés au nouveau cycle. C’est à cette époque particulièrement que « l’enthousiasme » pour OS X baisse d’un cran, car il est devenu clair qu’iOS concentre la plupart des améliorations. Le dernier changement de nomenclature d’Apple n’y changera rien, il ne faut plus parler d’OS X, mais de macOS. Une rationalisation imposée aux (désormais) quatre plateformes de l’éditeur :

  • macOS pour les ordinateurs
  • iOS pour les iPhone, iPad et iPhone Touch (et plus tard un iPadOS spécifique)
  • tvOS pour l’Apple TV
  • watchOS pour l’Apple Watch

Cette organisation permet à Apple de proposer dans de nombreux cas des API équivalentes, mais contrairement à d’autres sociétés comme Microsoft, la société ne tentera rien sur la convergence des appareils... jusqu’à Big Sur.

Sierra, fait une nouvelle fois place à des apports venant d’iOS. C’est particulièrement le cas avec l'assistant vocal Siri, qui débarque pour la toute première fois sur macOS. On reprend les mêmes capacités, étendues aux ordinateurs avec des possibilités supplémentaires. Les résultats pouvaient notamment être manipulés à la souris pour être placés par exemple dans des applications. Photos, adresses et autres éléments étaient compatibles.

Parmi les quelques évolutions notables de Sierra, signalons surtout l’arrivée des onglets dans toutes les applications (du moins celles qui supportaient les fenêtres multiples), iCloud Drive comme stockage distant, le mode picture-in-picture pour les applications sachant l’exploiter, Night Shift et sa coloration de l’écran en fonction de l’heure (comme sur iOS), le déverrouillage automatique de la session par l’Apple Watch, la possibilité de collaborer sur des notes, ou encore le presse-papier universel (contenu synchronisé entre les appareils), dont l’intégration fut très appréciée.

Sierra est également la première version de macOS à donner un tour de vis sur Gatekeeper, en masquant par défaut l’option qui permettait d’exécuter n’importe quelle application. Désormais, seules celles du Mac App Store et celles signées ont le droit de se lancer. S’agissant d’une simple option, le comportement était cependant simple à rétablir.

High Sierra : une nouvelle pause technique

High Sierra, ou macOS 10.13, est à nouveau l’une de ces versions centrées davantage sur l’amélioration de l’existant qu’une évolution en profondeur. C’est la quatrième mouture du système à faire ainsi, après Snow Leopard, Mountain Lion et El Capitan. Il sort en septembre 2017 et propose d’importantes améliorations techniques.

C’est ainsi la version qui introduit sur Mac les formats HEVC pour la compression vidéo et HEIF pour les photos. Ils sont déjà utilisés par iOS et permettent donc la compatibilité pour l���affichage et la modification. Les performances dépendent fortement du matériel utilisé, plus précisément de la génération de processeur Intel présent dans le Mac. High Sierra intègre également Metal 2, utilisé par macOS pour le rendu de l’interface et apportant des fonctions de machine learning, ainsi que le support des GPU externes et de la réalité virtuelle.

High Sierra est également le premier système de l’entreprise à supporter pleinement APFS, ou Apple File System, le système de fichier créé pour remplacer HFS+. Conçu pour les SSD, il se veut plus rapide, notamment pour les opérations comme la duplication des fichiers. Nous avions consacré un article aux capacités d’APFS.

On trouve toute une série d’améliorations plus ou moins importantes, comme la première mouture de l’Intelligent Tracking Protection dans Safari et le début de la chasse aux outils de pistage, de nouveaux outils d’édition dans Photos, un phrasé plus naturel pour Siri (en anglais en tout cas) ainsi qu’une synchronisation de Messages entre tous les appareils, y compris pour les SMS qui pouvaient ainsi être envoyés depuis un Mac.

High Sierra est aussi connu pour avoir prévenu les utilisateurs que certains ménages allaient être faits. Les fameuses Kernel extensions (kexts) ont ainsi commencé à réclamer l’autorisation expresse de l’utilisateur pour se lancer, signe que leur temps approchait de la fin.

De même, l’arrivée de la mise à jour 10.13.4 a affiché des alertes aux utilisateurs lançant des applications 32 bits. Le message expliquait qu’il s’agissait d’une vieille application et qu’une prochaine version de macOS en casserait la compatibilité. Mais en dépit de l’imminence annoncée, le macOS suivant supportera encore les logiciels 32 bits.

Mojave et son thème sombre si attendu

Quand Mojave arrive en septembre 2018, il est attendu de pied ferme. Contrairement aux versions précédentes, une certaine excitation s’est emparée des utilisateurs : le mode sombre, longtemps attendu, est enfin de la partie. Après tout, iOS y était passé l’année précédente, et on pensait alors que High Sierra suivrait immédiatement.

Mojave propose donc plusieurs modifications de l’interface, à commencer par le fameux thème sombre, qui rejaillit sur l’intégralité des éléments. Il s’active automatiquement en fonction de l’heure (automatique ou définie par l’utilisateur) ou à la demande. Toutes les applications d’Apple prennent le pas et s’adaptent en conséquence.

Dans les applications tierces, le résultat est globalement bon, mais l’automatisme montre ses limites et il faudra attendre des mises à jour – parfois longtemps – pour que le mode soit pleinement supporté. Le thème sombre est accompagné d’un fond d’écran dynamique qui évolue en fonction de l’heure. Une dune, en référence au désert du Mojave en Californie. Quand il fait nuit par exemple, elle n’est éclairée que par le clair de lune.

macOS Mojave

Les autres améliorations générales sont les regroupements thématiques automatiques des fichiers (piles) sur le bureau, l’apparition d’une zone à droite dans le Dock pour afficher les applications récentes (comme sur iPad), l’arrivée des appels de groupe FaceTime ou encore une réécriture complète du Mac App Store, bien plus réactif.

Dans la foulée, les mises à jour sont décorrélées de la boutique et prennent place dans le panneau des Préférences. Mojave continue en outre le travail sur les bases du système. Il supporte encore les applications 32 bits (avec un avertissement) mais supprime ou fait tomber en désuétude plusieurs composants, dont OpenGL et OpenCL.

APFS passe à la vitesse supérieure avec une conversion automatique des partitions vers le nouveau système de fichiers, y compris sur les disques classiques et Fusion Drive (disque dur avec amorce en mémoire flash). Côté sécurité, c’est également le début des permissions à la manière d’iOS. Toute application ayant besoin d’accéder au micro ou aux données système génère ainsi une notification, dans laquelle l’utilisateur autorise ou non cet accès.

Mais Apple mettra surtout l’accent sur l’arrivée possible des applications iPad sur macOS. Mojave intègre pour la première fois News (mais pas en France), Bourse, Maison et Dictaphone. Il s’agit de conversions directes des versions iPad, réalisées à travers une adaptation d’UIKit pour macOS.

Apple laisse entrevoir l’arrivée future de n’importe quelle application pour la tablette, avec une conversion que la firme décrira comme « très simple ». En pratique, les développeurs auront besoin d’y consacrer du temps.

Catalina en finit avec les Kernel extensions, iTunes explose

À la lumière des dernières annonces d’Apple, macOS 10.5 est le dernier à pouvoir encore être appelé Mac OS X. Le nom est resté courant chez les utilisateurs du grand public, en dépit de plusieurs changements.

Et c’est sur une version somme toute assez banale que cette série 10.x va s’achever en octobre 2019 avec Catalina, du nom d’une île au sud de la Californie. Elle commence par rompre la compatibilité avec un certain nombre d’anciennes briques. Les applications purement 32 bits n’ont ainsi pas droit de cité sur le nouveau macOS, mais les utilisateurs étaient avertis depuis un bon moment.

Resteront quand même un certain nombre de situations qui pousseront certains à attendre avant de faire la mise à jour, pour trouver des remplaçants aux logiciels qu’ils apprécient (et qui n’étaient peut-être plus mis à jour).

Catalina Catalyst

macOS 10.15 annonce clairement la fin des kexts, les fameuses Kernel extensions. Désormais, il faudra en passer par les System Extensions, que les développeurs pourront créer grâce à DriverKit.

Elles se divisent en trois catégories – Network Extensions, Endpoint Security Extensions et Driver Extensions – mais ont toutes un trait commun, crucial : elles s’exécutent en espace utilisateur et n’ont plus accès au noyau. En matière de sécurité, c’est un pas important, car cela signifie des droits moindres pour les processus liés. Mais en matière de fonctions, les nouvelles extensions offrent moins de capacités, comme on le verra plus tard avec le cas Little Snitch.

Ce tour de vis sécuritaire se retrouve également dans Gatekeeper, qui accentue sa pression. Désormais, tout développement réalisé par une personne disposant d’un Developer ID devra être notarié par Apple, ce à des fins de vérification d’intégrité. L’ancien comportement peut cependant être retrouvé via le panneau des Paramètres.

Toujours au chapitre de la sécurité, les Mac équipés d’une puce T2 bénéficient du verrou d’activation. Si c’est une nouveauté pour les ordinateurs d’Apple, on retrouve cette fonction sur iPhone depuis des années. Depuis le panneau de gestion du compte iCloud, Localiser s’accompagne ainsi d’un verrouillage de la machine, qui ne peut alors plus être utilisée à moins de connaitre le mot de passe du compte iCloud.

Concernant le système proprement dit, et outre le déplacement sur un volume dédié, Catalina sera surtout retenu pour Catalyst. Ce projet est l’aboutissement des travaux d’Apple pour automatiser – dans une certaine mesure – le portage des applications iPad vers macOS. Mais bien que la fonction ait été lancée en grande pompe, ce ne sera pas la déferlante attendue dans le Mac App Store.

Comme dit précédemment, le travail restant à accomplir reste copieux, car il faut vérifier en particulier toutes les interactions avec l’interface. Pas si simple de passer du tactile au vieux couple clavier-souris. L’iPad est quand même l’invité star de Catalina, grâce aussi à Sidecar. Avec cette fonction, il peut être connecté au Mac et servir de surface tactile, voire de tablette graphique.

Côté utilisateurs, beaucoup se rappelleront l’éclatement d’iTunes en quatre applications distinctes et beaucoup plus légères : Books, Music, TV et Podcasts. La gestion des appels mobiles est reportée dans le Finder. Le vieux logiciel ne meurt pas pour autant : il est toujours distribué sur Windows. À noter pour TV, et comme sur l’Apple TV, le support des Dolby Atmos, Dolby Vision et HDR10. Tous trois inexploitables sur les Mac en l’état, à moins qu’ils soient reliés à des appareils compatibles.

Dans une moindre mesure, Catalina a fourni un support pour les manettes des PlayStation 4 et Xbox One. Côté accessibilité en revanche, le système franchit un grand pas avec Voice Command, qui permet de piloter la plupart des applications avec des commandes vocales universelles.

❌
❌